Informatique affective

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

L’ informatique affective (en anglais : Affective computing) est l'étude et le développement de systèmes et d'appareils ayant les capacités de reconnaître, d’exprimer, de synthétiser et modéliser les émotions humaines. C'est un domaine de recherche interdisciplinaire couvrant les domaines de l'informatique, de la psychologie et des sciences cognitives qui consiste à étudier l’interaction entre technologie et sentiments[1],[2].

Historique[modifier | modifier le code]

Les bases du domaine semblent avoir été posées par les premiers questionnements sur les émotions au XIXe siècle avec l'essor de théories comme la théorie de James–Lange[3]. La branche moderne de l'informatique trouve son origine dans les travaux de Rosalind Picard et son article fondateur de 1995[4],[5] sur l'Informatique affective.

Si l’émotion est fondamentale pour l’expérience humaine, elle doit l'être également dans la conception des technologies de demain, selon l' affective Computing Group du MIT Media Lab qui travaille à la fois à concevoir de nouveaux capteurs pour que les machines comprennent nos émotions[6],[7],[8], à créer de nouvelles techniques pour que les machines puissent les évaluer, et également (mais c’est plus compliqué), à créer des machines apprenant à exprimer des émotions en réponse aux émotions qu’elles reçoivent d’un être humain. L'informatique affective s'est beaucoup développée et l'IEEE publie une revue spécifique[9].

Technologies de l'informatique affective[modifier | modifier le code]

Indicateurs Physiologiques[modifier | modifier le code]

L'activité physiologique d'un individu est étroitement liée à ses états émotionnels. Le système nerveux autonome (notamment les branches sympathique et parasympathique) contrôle différentes réponses physiologiques qui peuvent être mesurées par des techniques simples. Par exemple, des modifications du rythme cardiaque, de la pression artérielle, de la température corporelle, des rythmes électro-encéphalograhiques, de la conductance cutanée, peuvent intervenir à la suite d'événements émotionnellement chargés. Les appareils de mesure associés sont issus ou dérivés du monde médical et, pour la plupart, sont devenus aisément accessibles en dehors de ce domaine, moyennant une perte possible de précision et/ou de robustesse. Leur fabrication par un particulier est même aujourd'hui possible[10],[11]. Il s'agit ici, respectivement, de l'électro-cardiographe (ECG) ou du cardio-fréquencemètre, du tensiomètre ou sphygmomanomètre, du thermomètre, du galvanomètre et de l'électro-encéphalographe (EEG).

Voix et émotion[modifier | modifier le code]

La voix est un outils de communication, elle permet de se mettre en relation avec l’autre et de recevoir l’autre par sa voix. La voix est aussi un mode d'expression émotionnel, elle permet de transmettre et partager des informations et des émotions avec autrui.

L'étude de la voix est donc d'un intérêt particulier pour l'informatique affective : en effet, le comportement vocal et le ton employé jouent un rôle important dans l'interprétation par autrui dans un contexte donné (une négociation, un conflit, une prise de décision, une compétition, etc). Savoir écouter l'autre et dialoguer sur le même ton vocal ou son contraire est donc important pour la machine pour comprendre, et discerner les sous-entendus de son interlocuteur.

La reconnaissance vocale est une technique informatique qui permet d'analyser la voix humaine captée au moyen d'un microphone pour la transcrire sous la forme d'un texte exploitable par une machine.

On distingue dans la voix 3 paramètres caractéristiques[12] :

  • L'intensité : L'air, expulsé des poumons, remonte dans le larynx, vers les cordes vocales. La pression (variable) de l'air exercée sous les cordes vocales va définir l'intensité de la voix (qui se mesure en décibels). 50 à 60 dB pour une conversation, jusqu'à 120 dB pour le chant lyrique.
  • La fréquence : L'air traverse les cordes vocales, qui (commandées par le cerveau) s'ouvrent et se ferment. Le nombre d'ouvertures/fermetures par seconde correspond à la fréquence de la voix (ou tonalité ou hauteur), grave, aigüe ou medium, qui se mesure en hertz. Une voix médium : 100 Hz pour un homme, 200 Hz pour une femme.
  • Le timbre. L'air circule alors dans les résonateurs (gorge, bouche, fosses nasales) et va prendre son timbre. Elle peut être nasillarde, chaude, sensuelle, métallique, blanche, etc.

De nos jours, la reconnaissance vocale est utilisé pour retranscrire l'oral à l'écrit ou dialoguer sous forme de questions/réponses. Le deep Learning permet aujourd'hui à la reconnaissance vocale d'atteindre des taux d'erreurs relativement faibles (5,5% pour la reconnaissance vocale d'IBM, alors que l'humain a un taux d'erreurs de 5.1%)[13].

Toutefois, la reconnaissance vocale a ses limites. En effet, pouvant être facilement usurpée, elle ne peut pas servir de moyen d'authentification par exemple. Se pose aussi le problème des différents accents au sein d'une langue (le français et le québécois par exemple) qui peuvent poser problème à la compréhension.

Expression faciale[modifier | modifier le code]

La reconnaissance faciale semble être la technologie biométrique la plus naturelle et la plus simple à mettre en pratique. En effet, les expressions faciales sont naturellement utilisées pour envoyer des messages émotionnels entre individus. C'est pourquoi il est intéressant, pour une communication Homme-Machine, que les machines puissent aisément reconnaître et comprendre les expressions du visage et réagir en conséquence.

Les logiciels de reconnaissance faciale sont capables d'identifier les individus selon la morphologie de leur visage à partir d'une image ou d'un capteur photo. L'efficacité de la reconnaissance faciale dépend de trois facteurs clés :

  • La qualité de l'image
  • L’algorithme d'identification
  • La fiabilité de la base de données[14]

De nos jours, la reconnaissance faciale est un domaine maîtrisé et peut être utilisé à des fins très diverses. Par exemple, un logiciel de reconnaissance faciale installé sur un dispositif mobile (tel que smartphone, tablette ou ordinateur) équipé d'une caméra, permet à un utilisateur d'accéder à un compte, et remplace ainsi l'utilisation d'un mot de passe pour s'authentifier. En matière de lutte contre la délinquance, cette technologie permet d'identifier des suspects.

Cependant, la reconnaissance des émotions et des humeurs chez l'homme par les machines grâce aux expressions faciales reste encore à un stade embryonnaire. Bien qu'il existe aujourd'hui des logiciels capables de reconnaître des expressions tel qu'un sourire par exemple, la reconnaissance et le traitement des émotions n'est que très peu utilisés aujourd'hui et reste à un statut de projet.

Expression corporelle[modifier | modifier le code]

La communication non verbale (ou langage corporel) désigne dans une conversation tout échange n'ayant pas recours à la parole. Elle ne repose pas sur les mots, mais sur les gestes (actions et réactions), les attitudes, les expressions faciales (dont les micro-expressions) ainsi que d'autres signaux, conscients ou inconscients. Tout le corps fait passer un message aussi efficace que les mots que l'on prononce. De plus, les interlocuteurs réagissent inconsciemment aux messages non verbaux mutuels. La communication non verbale ajoute donc une dimension supplémentaire au message, parfois en contradiction avec celui-ci. C'est pourquoi il est intéressant, pour une communication Homme-Machine, que les machines puissent aisément identifier les expressions corporels et réagir en conséquence.

Toutefois, la reconnaissance des expressions corporelles a ses limites. En effet, bien qu'il existe des similitudes, les expressions corporels n'ont pas toujours la même signification selon les cultures. De plus, le langage corporel n'est un langage appris explicitement mais plutôt implicitement par intériorisation et imitation. Il n'y a donc pas d'interprétation clairement définis du langage corporel. Edward Sapir, le célèbre linguiste et anthropologue disparu en 1939, avait écrit : “Nous réagissons aux signaux corporels (…) en accord avec un code secret et sophistiqué qui n’est écrit nulle part, n’est connu de personne mais est compris par tous.”[15]

Applications[modifier | modifier le code]

Exemples d'applications[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • (fr) Catherine Pélachaud, Systèmes d'interaction émotionnelle (Traité signal et image, IC2), 2010, Hermes Science Publications, (ISBN 978-2746221154)
  • (en) Rosalind W. Picard, Affective Computing, MIT Press, 2000, (ISBN 978-0262661157)
  • (en) Jianhua Tao, Tieniu Tan, Rosalind W. Picard (Éditeurs), Affective computing and intelligent interaction. International conference No1, Beijing, CHINE, 2005 , vol. 3784, pp. 981-995, (ISBN 3-540-29621-2)

Articles connexes[modifier | modifier le code]

Références[modifier | modifier le code]

  1. (en) Picard, R.W., "Emotion research by the people, for the people", Emotion Review, Volume 2, Issue 3 (July 2010)
  2. (en) Jianhua Tao, Tieniu Tan (2005). « Affective Computing: A Review » Springer Affective Computing and Intelligent Interaction LNCS 3784: 981–995, Springer (DOI:10.1007/11573548). 
  3. (en) William James, 1884, "What is Emotion", revue Mind, volume 9, pages=188–205
  4. (en) "Affective Computing", Rapport technique #321 du MIT
  5. (en) Résumé de l'article de 1995
  6. (en) R. Fletcher, M.Z. Poh, H. Eydgahi, "Wearable Sensors: Opportunities and Challenges for Low-Cost Health Care", Conf Proc IEEE Eng Med Biol Soc, pp. 1763-1766, 2010.
  7. (en) Poh, D.J. McDuff, R.W. Picard, "Non-contact, Automated Cardiac Pulse Measurements Using Video Imaging and Blind Source Separation", Optics Express, vol.18, no.10, pp.10762-10774, 2010. doi: 10.1364/OE.18.010762, Virtual Journal for Biomedical Optics Vol. 5, Issue 9
  8. (fr) eMotion : un outil pour personnaliser la reconnaissance d'émotions
  9. (en) The IEEE Transactions on Affective Computing (TAC)
  10. « Welcome to the OpenEEG project », sur openeeg.sourceforge.net (consulté le 13 janvier 2016)
  11. « SHIELD-EKG-EMG - Open Source Hardware Board », sur Olimex (consulté le 13 janvier 2016)
  12. « La voix : véhicule des émotions », Sciences et Avenir,‎ (lire en ligne)
  13. « Reconnaissance vocale : IBM bat le record de Microsoft », Génération-NT,‎ (lire en ligne)
  14. « Biométrie », Safran Identity & Security (consulté le 22 février 2017)
  15. « Bienvenue aux algorithmes qui décodent les gestes humains », Le nouvel Economiste | Politique & Economie, Entreprises & Management, Art de vivre & Style de vie,‎ (lire en ligne)

Liens externes[modifier | modifier le code]