Intelligence artificielle : une machine peut-elle ressentir de l’emotion ?

Plusieurs programmes savent deja les imiter a la perfection et meme influer dans nos propres emotions.

La science-fiction nous abreuve de robots autonomes, si perfectionnes qu’ils disposent d’une conscience, d’emotions et nous inspirent aussi de l’empathie, a l’instar des etres humains. Mais loin de la litterature et d’Hollywood, qu’en est-il aujourd’hui en laboratoires du monde entier ? L’emotion, et Notre conscience, apparaissent tel des points essentiels Afin de fabriquer une machine a l’image de l’etre humain. Mais elles font aussi partie des plus difficiles a conceptualiser.

« l’existence interieure, on ne sait jamais votre que c’est »

Et c’est la que reside J’ai plus grande difficulte : comment definir – et donc reproduire – l’emotion et Notre conscience ? « On ne sait pas ce que c’est que la conscience, on n’en connait jamais les fondements. On n’est donc nullement capables de creer une machine consciente », tranche Jean-Gabriel Ganascia, chercheur au laboratoire d’informatique de Paris-VI et auteur de L’Intelligence artificielle (Editions Le Cavalier Bleu, collection pensees recues, 2007). « Pour cela, il faudrait que la machine percoive tel nous : la douleur, le plaisir… Et quand bien aussi, elle ne les percevra aucun la meme maniere que nous. »

Une etude partagee avec Jean-Michel Besnier, professeur de philosophie a J’ai Sorbonne et professionnel de l’intelligence artificielle :

« l’existence interieure, on ne sait nullement votre que c’est. L’intelligence artificielle a donc fini avec depouiller la notion de conscience d’une notion d’interiorite, et l’a definie simplement en termes de comportement : on peut l’imiter chez des machines. »

A defaut d’etre capables de ressentir, les machines peuvent neanmoins simuler, en apparence, des emotions et une conscience : c’est via ce theme que se concentrent aujourd’hui nos chercheurs en intelligence artificielle ; un domaine de recherche intitule « informatique affective ». Car finalement, « quelle est la difference entre ressentir et apporter les indices exterieurs du avis ? », interroge Jean-Michel Besnier :

« Ce seront des signaux qui comptent. En toute rigueur, la interiorite, je ne sais pas si elle existe… Elle se manifeste a moi via des indices visibles. Je ne sais gui?re ce que c’est que de ressentir une emotion chez votre nouvelle etre humain. Je peux ressentir de l’empathie, mais je peux aussi en ressentir face a un acteur, qui simule. Je ne pourrais jamais connaitre si ces signes emanent d’une interiorite ou d’une simulation. C’est pourquoi pour ceux qui fabriquent des machines, si elles sont capables de simuler, ca suffira. »

Simuler l’emotion

Catherine Pelachaud fait partie de ceux-la. Directrice de recherche au CNRS et a Telecom-ParisTech, elle fabrique de des annees des « agents conversationnels », sortes d’avatars capables de discuter avec des etres humains. Son champ de recherche concerne plus precisement des « comportements non verbaux », soit nos indices visibles d’emotion transmis via l’avatar. « Notre machine ne ressent gui?re, mais elle est en mesure de transmettre, souligne sa chercheuse. Notre ressenti est du domaine de l’homme, ainsi, ca doit le rester ! Une machine est la Afin de pallier des besoins. Pour ceci, la simulation est en mesure de suffire. »

Mes « agents » qu’elle elabore accompagnent leurs paroles de gestes, de mouvements d’une tete ou d’expressions du visage qui les rendent plus humains. Ils paraissent aussi capables de reagir aux emotions transmises par leur interlocuteur. « Dans J’ai communication, le non verbal apporte beaucoup, il va permettre de mieux se comprendre. Sans ca, ce pourrait etre tel parler a 1 mur. Ca permettra d’oublier qu’on cause a une machine. »

Et afficher une emotion est moins simple qu’il n’y parait. « Ca est en mesure de aller jusqu’a des micro-expressions. Il existe quelques types de sourires : si vous pincez les levres, si vous plissez les yeux, ce qui aura differentes significations », explique Catherine Pelachaud.

Notre chercheuse en psychologie Sylwia Hyniewska a observe, notamment, grace a https://datingmentor.org/fr/brancher une experience, que nos propos d’agents incapables de soulever la partie externe de leurs sourcils etaient consideres via leurs interlocuteurs comme moins pertinents.

Malgre votre probleme du detail, nos avatars utilises via les equipes de recherche en informatique affective ne semblent nullement tres realistes. A l’heure ou les entreprises d’effets speciaux paraissent capables de realiser des images de syntheses ultra-detaillees, pourquoi se contenter d’agents si schematiques ? « Contrairement au cinema, qui a des animateurs Afin de peaufiner chaque expression, des agents doivent etre autonomes et reagir en temps reel », indique Catherine Pelachaud.

Mais surtout, si le realisme est trop important, « on tombe dans la vallee de l’etrange », previent-elle. Selon cette theorie du Japonais Masahiro Mori, les representations tres realistes, mais toujours imparfaites, de l’homme, nous paraissent derangeantes, voire monstrueuses. Nous serions, en revanche, bon nombre plus enclins a trouver sympathiques et a ressentir de l’empathie pour des representations de l’humain beaucoup plus schematiques.

Ce robot capable de simuler des emotions, empruntant ses traits a Albert Einstein et developpe avec l’entreprise Hanson Robotics, en est un delicieux exemple.

Detecter des emotions

Mais les programmes developpes via l’informatique affective ne se contentent aucun mimer les emotions. Ils doivent aussi etre capable de detecter celles des humains, ainsi, de s’y adapter a autre vrai. Pour ceci, ils observent et analysent les expressions et les mouvements de leur interlocuteur : s’il regarde ailleurs, s’il montre qu’il n’a nullement compris, s’il manifeste votre desaccord. Cela n’est nullement simple. Car et puis des emotions « de base », definies par le psychologue americain Jean Ekman (tristesse, joie, peur, colere, surprise, degout), il existe des emotions plus complexes a dechiffrer pour un planning.

Comment, entre autres, distinguer la surprise de l’etonnement ou la tension de l’anxiete ? Interpreter un haussement de sourcils n’est nullement non plus aise. Veut-il penser bonjour ? Signifie-t-il la surprise ? L’emphase ? « Pour i§a, il faudra des informations sur le contexte, ainsi, c’est tres Complique », souligne ma chercheuse. Notre saisir est pourtant indispensable pour repondre a ces signaux de facon appropriee. Sinon, l’agent risque de coder 1 malentendu, une incomprehension, voire de couper le dialogue.

Car en imitant l’emotion, des programmes des plus avances paraissent aussi i  mi?me… de generer de l’emotion chez les humains. Ainsi, le projet europeen Semaine, auquel participait Catherine Pelachaud, a donne des resultats surprenants. Mes agents developpes etaient tous dotes d’un etat emotionnel fort, comme ma tristesse, la colere ou le bonheur. Objectif : amener leur interlocuteur, humain, vers le aussi etat emotionnel qu’eux. « on voit eu des interactions absolument incroyables », se souvient la chercheuse, qui a mene ces experiences depuis cinq annees.

« Face a 1 agent depressif, le sujet montrait de l’empathie. Parfois, l’etat emotionnel du theme changeait au milieu en conversation. J’etais surprise qu’il y ait des interactions aussi riches, aussi naturelles. Car des personnages ne bougeaient pas beaucoup, le modele etait assez simple. Mais le fait que le comportement arrive avec le bon timing nous a montre que nous avions reussi a obtenir un parami?tre essentiel une communication non verbale. »