Des robots et des machines capables de comprendre et de distinguer les émotions humaines

 C’est une réalité, les ordinateurs et les autres appareils électroniques sont de plus en plus présents dans notre quotidien. Améliorer la qualité des interactions homme-machine devient donc aujourd’hui un sujet de recherche essentielle :

L’informatique affective

Dans le cadre de cette branche de l’informatique, l’utilisateur et ses émotions priment. Le renseigner sur son état émotionnel peut amener à l’amélioration des situations pratiques.

Quelques concepts s’avèrent essentiels à son décryptage :

  • L’émotion est une réaction affective transitoire d’assez grande intensité, habituellement provoquée par une stimulation venue de l’environnement.
  • L’intelligence émotionnelle se définit comme la capacité de percevoir, comprendre, interpréter et gérer ses émotions et celles d’autrui.
  • L’empathie est la capacité de se mettre mentalement à la place d’autrui afin de comprendre ce qu’il éprouve.
  • En informatique, une interface est un dispositif qui permet des échanges et interactions entre différents acteurs.

Et une constatation prend surface : L’intelligence artificielle est dépourvue d’intelligence émotionnelle.

Voici donc que l’Informatique affective a son mot à dire :

Domaine de recherche interdisciplinaire qui couvre ceux de l’informatique, de la psychologie et des sciences cognitives, elle étudie l’interaction entre la technologie et les sentiments. Dans ses laboratoires sont développés des systèmes et des appareils capables de reconnaître, d’exprimer, de synthétiser et de modéliser les émotions humaines.

Il faut remonter aux XIXe siècle et aux premiers questionnements sur l’émotion pour trouver les bases de l’informatique affective. Plus tard, en 1995, Rosalind Picard publie son livre Affective computing, qui lui donnera naissance. Cette discipline connaît un développement important aujourd’hui ( l’IEE, l’« Institut des ingénieurs électriciens et électroniciens » publie une revue spécifique ).

Rosalind Picard a créé et dirige le Groupe de Recherche en Informatique affective du MIT, Massachusetts Institut of Technologie, qui travaille à la fois à concevoir des nouveaux capteurs et des nouvelles techniques pour que les machines comprennent et puissent évaluer nos émotions, et à créer des machines apprenant à exprimer leurs émotions en réponse à nos émotions ( mais cela s’avère plus compliqué… ). Ainsi, le MIT donne naissance à Kismet, l’un des premiers robots sociaux, à la fin des années 1990.

Quant aux interfaces, il y a trois types d’Interfaces homme-machine  :

  1. d’acquisition : Clavier d’ordinateur, télécommande , microphone avec la reconnaissance vocale, etc.
  2. de restitution : écrans, hauts parleurs, etc.
  3. combinées : écrans tactiles, par exemple.

L’« interface empathique », terme imaginé et utilisé par Dominique Wolton dans son livre L’oeil laser, décrit un dispositif informatique capable de mesurer des éléments du comportement et/ou des sensations de l’utilisateur et de permettre, ( en temps réel et/ou en temps différé, indépendamment d’une intervention manuelle sur un dispositif ou un terminal quelconque ), une interactivité forte avec l’environnement.

Le premier dispositif expérimental est fondé sur la géo-localisation vectorielle comportementale et exploite principalement le comportement visuel. Il fut testé entre 2006 et 2008 dans le cadre d’une application audio-guide intelligent, et donna naissance à Percipio en 2007.
Simplement posé sur la tête, le système propose un parcours, il reconnait ce qui est regardé et mesure l’intérêt porté, en tenant compte des intérêts manifestés sur le parcours déjà réalisé.

Revenons à la définition d’interface empathique : Les ordinateurs sont partout et deviennent plus humains, capables de « mesurer nos émotions », et d’interagir avec l’environnement, nous offrant dans l’idéal une utilisation le plus confortable possible. On constate aujourd’hui qu’on est dans l’âge de l’informatique ubiquitaire imaginée par Mark Weiser.

Mais que signifie mesurer nos émotions ? Sujet à controverse, pour certains chercheurs il peut s’agir de mesurer les réactions physiologiques, comme la fréquence cardiaque ou la transpiration. Pour d’autres, cela consiste à tenter de cerner l’état affectif de l’utilisateur. Rosalind Picard explique que les objets ne mesurent pas directement l’émotion mais qu’ils capturent des changement physiques liés aux états émotionnels.

Mesurer les réactions physiologiques liées aux états émotionnels
Capteurs des réactions physiologiques liées aux états émotionnels
mesurer-nos-émotions
Mesurer nos émotions

Et quelles sont les techniques pour mesurer les émotions ? La joie, la peur, la tristesse, la surprise, le dégoût et la colère sont des états émotionnels mesurables. La voix, l’expression faciale et l’expression corporelle sont des outils de mesure de nos émotions.

Vous le constatez comme moi, les systèmes de reconnaissance vocale commencent à envahir notre quotidien, mais la prochaine frontière de l’analyse de la voix s’est déjà déplacée à la compréhension de l’humeur. Quelques exemples suivent, mais le plus étonnant est peut-être celui d’une messagerie instantanée dotée d’un assistant intelligent qui « comprend » ce que vous dites et augmente vos conversations d’images ou des liens relatifs à vos propos. Mindmeld Affectiva, une start-up spécialisée dans les technologies de mesure de l’émotion, a mis au point un prototype de lunettes équipée d’une petite camera qui surveille 24 points du visage, qui sert à celui qui le porte à décoder les émotions de la personne avec qui il discute. Elle a conçu également un dispositif qui mesure la fréquence cardiaque et autres réactions physiologiques, avec une simple webcam.

Quelques projets sont encore dans les laboratoires :

  • L’auto tuteur, qui sent les émotions de l’élève avec 80% de réussite.
  • Le véhicule qui analyse les modèles de conduite et attire l’attention sur des risques
    de collision.
  • Le logiciel qui décide si c’est le moment de nous interrompre, ( en observant notre
    agenda ou le bruit ambiant de notre bureau ).
  • L’ourson qui facilite l’apprentissage des langues.
  • Le robot coach qui aide les gens à perdre du poids.
  • Le système multimodal de surveillance intelligente du MIAUCE . Les gens peuvent interagir avec leur environnement par l’intermédiaire des interfaces multimodales. Un de ses projets : l’analyse des comportements des voyageurs dans les escalators des aéroports ou des métros pour repérer s’il se passe quelque chose d’anormal. L’analyse des comportements des clients dans les magasins pour en tirer des conclusions sur les réflexes d’achats en est un autre.

Des questions se posent… :

  • Les émotions, sont-elles universelles ?
  • Comprendre les sentiments des autres ou mieux diffuser les nôtres ?
  • Nous satisfaire ou nous piloter ?
  • La facilité qu’offrira une adaptation des machines à nos émotions, augmentera t-elle
    notre addiction aux technologies ?
  • Donner un accès illimité aux émotions des autres, ne comporte pas des risques ?
  • Tendons-nous vers une société aseptisée, sans violence, où toutes les frustrations
    pourront être contenues grâce aux programmes informatiques ?
  • Saurons-nous établir des règles d’usage avant que l’informatique affective se répande ?

Toutes ces réflexions me font penser au cinéma, qui a mis en scène de nombreuses fois cette relation controversée entre la machine et l’homme. Si les ordinateurs étaient capables de détecter correctement l’état affectif de l’homme, ils pourraient intervenir intelligemment; si je suis triste, mon ordinateur me jouera de la musique pour me remonter le moral… Des liens affectifs se créent, il y en a même qui en tombent amoureux, comme le film « Her »  nous l’a montré.

Des robots et des machines capables de comprendre et de distinguer les émotions humaines, c’est désormais possible. Les champs d’opportunités sont vastes. L’informatique affective n’en est qu’à ses débuts.

Pour certains, cette technologie intrusive est dangereuse. Pour d’autres, conscients pourtant des enjeux, c’est une voie d’espoir face aux maladies, à la mort…

Les enjeux sont certes multiples, dans une société contemporaine où nous sommes extrêmement dépendants des technologies. À nous d’en faire bon usage et d’établir des règles.

Rapport de force homme-machine
Rapport de force ?

 

2 réflexions sur “Des robots et des machines capables de comprendre et de distinguer les émotions humaines

  1. D’autres exemples d’informatique émotionnelle:

    http://www.neonmag.fr/pourquoi-lintelligence-artificielle-chinoise-nest-elle-pas-devenue-nazie-470424.html

    Tay et Xiaoice sont des chatbot, des IAs conçues pour discuter avec les humains.Les internautes chinois considèrent Xiaoice comme une amie proche à qui se confier. Ils lui parlent de leurs peines de cœur, de leurs problèmes au travail, lui disent « je t’aime ». Ils ont établi avec elle une véritable relation.

    J'aime

  2. http://internetactu.blog.lemonde.fr/2012/08/10/de-la-mesure-de-soi-33-les-tabous-de-la-mesure/

    Bien souvent, les émotions au travail sont négligées, alors qu’elles ont un réel impact dans nos relations professionnelles ou sur notre productivité. Peut-on améliorer l’attention à notre émotion au travail ? Est-ce que révéler l’émotion au travail peut permettre d’améliorer la réflexivité du travailleur, voir changer son comportement ou lui faire entrevoir de nouvelles perspectives ?

    J'aime

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s