Robot social

Un article de Wikipédia, l'encyclopédie libre.
(Redirigé depuis Robotique sociale)
Quori, une plateforme robotique socialement interactive pour l'étude de l'interaction homme-robot, Laboratoire Immersive Kinematics

Un robot social est un robot autonome qui interagit et communique avec les humains ou d'autres agents physiques autonomes en suivant les comportements sociaux et les règles attachées à son rôle. Comme les autres robots, le robot social est physiquement incarné (les avatars ou les personnages sociaux synthétiques virtuels sont distincts car ils ne sont pas incarnés). Certains agents sociaux synthétiques sont conçus avec un écran pour représenter leur « visage », afin de communiquer de manière dynamique avec les utilisateurs. Dans ces cas, le statut de robot social dépend de la forme du « corps » de l'agent social ; si le corps possède et utilise des capacités sensorimotrices, alors le système pourrait être considéré comme un robot.

Contexte[modifier | modifier le code]

Alors que les robots ont souvent été décrits comme possédant des qualités sociales (par exemple les tortues développées par William Gray Walter dans les années 1950), la robotique sociale est une branche assez récente de la robotique. Depuis le début des années 1990, les chercheurs en intelligence artificielle et en robotique ont développé des robots qui interagissent explicitement au niveau social. Le mouvement d'ingénierie du Kansai dans la science et la technologie japonaise est lié à celui de la robotique sociale.

La conception d'un robot social autonome est particulièrement difficile, car le robot doit interpréter correctement l'action des gens et répondre de façon appropriée, ce qui n'est actuellement pas encore possible. De plus, les personnes interagissant avec un robot social peuvent avoir des attentes très élevées quant à ses capacités, basées sur des représentations de robots sociaux avancés dans la science-fiction. En pratique, de nombreux robots sociaux sont partiellement ou entièrement contrôlés à distance pour simuler des capacités avancées. Cette méthode de contrôle (souvent secret) d'un robot social est appelée Turc mécanique ou Magicien d'Oz, d'après le personnage du livre de L. Frank Baum. Les études de type « Magicien d'Oz » sont utiles dans la recherche en robotique sociale pour évaluer comment les gens réagissent aux robots sociaux.

Définition[modifier | modifier le code]

Un robot est défini par l'Organisation internationale de normalisation comme un « mécanisme programmable actionné sur au moins deux axes avec un degré d'autonomie, se déplaçant dans son environnement, pour exécuter des tâches prévues »[1]. En tant que sous-ensemble de robots, les robots sociaux exécutent tout ou partie de ces processus dans le contexte d'une interaction sociale. Il interagit socialement avec les humains ou suscite des réponses sociales de leur part[2]. La nature des interactions sociales est immatérielle et peut aller de tâches de soutien relativement simples (telles que le fait de passer des outils à un ouvrier) à une communication et une collaboration expressives complexes, telles que l'assistance aux soins de santé. Par conséquent, les robots sociaux sont sollicités pour travailler avec les humains dans des espaces de travail collaboratif. De plus, les robots sociaux commencent à suivre les humains dans des environnements beaucoup plus personnels comme la maison, les soins de santé et l'éducation. [3]

Les interactions sociales sont susceptibles d'être coopératives, mais la définition ne se limite pas à cette situation. De plus, un comportement non-coopératif peut être considéré comme social dans certaines situations. Le robot pourrait, par exemple, présenter un comportement compétitif dans le cadre d'un jeu. Le robot pourrait également interagir avec un minimum d'informations, voire aucune. Il pourrait, par exemple, tendre des outils à des astronautes travaillant sur une station spatiale. Cependant, il est probable qu'une certaine communication soit nécessaire à un moment donné.

Deux exigences ultimes[4] pour les robots sociaux sont le test de Turing pour déterminer les compétences de communication du robot, et les trois lois de la robotique d'Isaac Asimov pour son comportement. L'utilité d'appliquer ces exigences dans la réalité, en particulier dans le cas des lois d'Asimov, est toujours contestée[5] (et peut ne pas être possible du tout). Cependant, une conséquence de ce point de vue est qu'un robot qui interagit et communique uniquement avec d'autres robots ne serait pas considéré comme un robot social : le fait d'être social est lié aux humains et à leur société qui définit les valeurs, les normes et les standards sociaux nécessaires[6]. Cela se traduit par une dépendance culturelle des robots sociaux, car les valeurs sociales, les normes et les standards diffèrent d'une culture à l'autre.

Cela nous amène directement à la dernière partie de la définition. Un robot social doit interagir dans le cadre des règles sociales attachées à son rôle. Le rôle et ses règles sont définis par la société. Par exemple, un majordome robotisé pour humains devrait se conformer aux règles établies de bon service. Il devrait être prévoyant, fiable et surtout discret. Un robot social doit en être conscient et s'y conformer. Cependant, les robots sociaux qui interagissent avec d'autres robots autonomes se comporteraient et interagiraient aussi selon des conventions non-humaines. Pour la plupart des robots sociaux, la complexité de l'interaction d'humain à humain sera progressivement abordée avec l'avancement de la technologie des humanoïdes et la mise en œuvre d'une variété de compétences de communication plus humaines[7].

Interaction sociale[modifier | modifier le code]

Des recherches ont étudié l'interaction des utilisateurs avec un robot compagnon. La littérature présente différents modèles concernant cette préoccupation. L'un des exemples est une structure qui modélise à la fois les causes et les effets de l'interaction : les caractéristiques liées au comportement non-verbal de l'utilisateur, à la tâche et aux réactions affectives du compagnon, pour prédire le niveau d'engagement des enfants[8].

Beaucoup de gens sont mal à l'aise à l'idée d'interagir socialement avec un robot et, en général, les gens ont tendance à préférer les petits robots aux grands robots humanoïdes. Ils préfèrent également que les robots effectuent des tâches comme telles que le ménage plutôt que de tenir compagnie[9]. Malgré la réticence initiale à interagir avec des robots sociaux, l'exposition à un robot social peut réduire l'incertitude et augmenter la volonté d'interagir avec le robot[10]. Si les gens ont une interaction avec un robot social considéré comme ludique (par opposition à ceux dédiés à une tâche ou à l'interaction sociale), ils peuvent être plus susceptibles de d'interagir avec le robot à l'avenir. [11]

Effets sociétaux[modifier | modifier le code]

L'utilisation de plus en plus répandue de robots sociaux plus avancés est l'un des nombreux phénomènes censés contribuer à la posthumanisation technologique des sociétés humaines, processus par lequel « une société en vient à inclure des membres autres que les êtres humains biologiques « naturels » qui, d'une manière ou d'une autre, contribuent aux structures, à la dynamique ou au sens de la société[12]. »

Utilisations dans les soins de santé[modifier | modifier le code]

Les robots sociaux sont de plus en plus utilisés dans les établissements de santé, et des recherches récentes ont exploré l'applicabilité de robots sociaux pour intervenir dans la santé mentale des enfants. [13] Un examen de portée a analysé les impacts que les robots tels que Nao, Paro, Huggable, Tega et Pleo ont sur les enfants dans divers contextes d'intervention[13]. Les résultats de ce travail ont montré que la dépression et la colère pouvaient être réduites chez les enfants interagissant avec des robots sociaux, mais les résultats concernant l'anxiété et la douleur sont mitigés[13]. La souffrance s'est avérée réduite chez les enfants qui interagissaient avec des robots[13]. Enfin, cette étude a révélé que l'interaction avec les robots avait un impact positif sur l'affect, de sorte que les enfants souriaient plus longtemps et faisaient preuve d'un esprit positif lorsqu'ils jouaient à des jeux[13]. Il convient de noter que les robots présentent des avantages supplémentaires pour les enfants allergiques ou immunodéprimés, dans la mesure où ils peuvent être utilisés à la place de la thérapie assistée par les animaux[13]. L'hygiène est une question à prendre en compte, mais avec des housses lavables ou des surfaces désinfectables, le problème est moins complexe pour les milieux médicaux[13]. Une autre étude a analysé les données d'études antérieures et a trouvé des preuves supplémentaires que les robots sociaux peuvent réduire les symptômes négatifs des enfants dans les établissements de soins de santé[14]. Les robots sociaux peuvent être utilisés comme outils pour distraire les enfants des procédures telles que la vaccination, et ont démontré leur capacité à réduire le stress et la douleur[14]. Les enfants qui interagissaient à la fois avec un psychothérapeute et un robot assistant pour la thérapie ont ressenti une plus grande diminution de la colère, de l'anxiété et de la dépression face au cancer par rapport au groupe témoin[14]. Certaines données indiquent que le fait de jouer librement avec un robot pendant une hospitalisation peut aider les enfants à avoir une humeur plus positive[14]. D'autres travaux doivent être menés pour analyser les effets des robots sociaux sur les enfants dans les services psychiatriques, car il a été démontré que certains enfants peuvent détester le robot et le considérer comme dangereux[14]. Dans l'ensemble, des recherches supplémentaires doivent être menées pour comprendre pleinement l'impact des robots sociaux sur la réduction des symptômes de santé mentale négative chez les enfants, mais il semble y avoir des avantages à utiliser les robots sociaux dans les établissements sanitaires[13],[14].

Il a été démontré que les robots sociaux ont des résultats bénéfiques pour les enfants atteints de troubles du spectre autistique (TSA)[15]. Comme de nombreuses personnes atteintes de troubles du spectre autistique ont tendance à préférer les interactions prévisibles, les robots peuvent être une option viable pour les interactions sociales[15]. Des recherches antérieures sur les interactions entre les enfants atteints de TSA et les robots ont démontré des avantages positifs, par exemple une attention partagée, un contact visuel accru et une synchronisation interpersonnelle[15]. Différents types de robots sont susceptibles de procurer ces avantages aux enfants atteints de TSA, qu'il s'agisse de robots humanoïdes comme KASPAR, de robots de type dessin animé comme Tito, de robots de type animal comme Probo ou de robots de type machine comme Nao[15]. Un problème qui peut entraver les avantages des robots sociaux en tant qu'outils d'interaction sociale pour les enfants atteints de TSA est la Vallée de l'étrange, car la ressemblance surnaturelle des robots avec les humains peut être trop stimulante et anxiogène, comme l'a montré une étude sur Keepon[15]. Il semble que les robots sociaux offrent la possibilité d'améliorer les compétences sociales des enfants atteints de TSA, et les recherches futures devraient approfondir ce sujet.

Les personnes atteintes en déficiences cognitives, telles que la démence et la maladie d'Alzheimer, peuvent également bénéficier des robots sociaux[16],[17]. Dans leur étude, Moro et al. (2018) ont utilisé 3 types de robots sociaux : un robot de type humain, Casper ; un robot de type personnage, le robot Ed ; et une tablette, pour aider six personnes atteintes de déficience cognitive légère à préparer une tasse de thé[16]. Les résultats ont montré que, dans une certaine mesure, le robot humanoïde était plus attrayant pour les personnes souffrant de troubles cognitifs, probablement en raison de l'expressivité de son visage par rapport à l'expression minimale d'Ed et de la tablette[16]. Les participants ont également humanisé les robots de type humain et de type personnage plus que la tablette en s'adressant à eux et en leur posant des questions, ce qui indique une préférence pour les robots sociaux[16]. De plus, les participants ont perçu le robot de type humain comme étant utile à la fois dans les situations sociales et dans l'accomplissement des activités de la vie quotidienne, tandis que le robot de type personnage et la tablette ont été perçus comme étant uniquement utiles pour les activités de la vie quotidienne[16]. Une autre étude de Moyle et al. (2019) a examiné l'impact qu'aurait le fait de fournir à une personne atteinte de démence un jouet robot, Paro, par rapport à une peluche, sur la perception du bien-être de la personne par les soignants et les membres de sa famille[17]. Cette étude a mis en évidence la façon dont certains établissements de soins de longue durée peuvent offrir une stimulation minimale aux patients atteints de démence, ce qui peut entraîner l'ennui et une agitation accrue[17]. Après l'essai, les soignants et les membres de la famille ont été invités à évaluer le bien-être de la personne atteinte de démence et, dans l'ensemble, le groupe qui a interagi avec Paro a été perçu comme plus heureux, plus engagé et moins agité[17]. L'un des principaux problèmes liés à l'utilisation de Paro, en dépit de ses avantages apparents, est son coût. Les recherches futures devront porter sur des options plus rentables pour les soins aux personnes âgées[17]. Un autre problème lié à la réalisation de recherches entre des personnes souffrant de troubles cognitifs et des robots sociaux est leur capacité à consentir[18]. Dans certains cas, le consentement éclairé par procuration peut être utilisé, mais les avantages et les risques doivent être pesés avant de mener toute recherche[18]. Des recherches à long terme pourraient montrer que les résidents des maisons de soins sont disposés à interagir avec des robots humanoïdes et à bénéficier d'une activation cognitive et physique induite par le robot Pepper[19].

L'éthique de l'utilisation des robots sociaux dans les soins de santé doit également être mentionnée. Un risque potentiel des robots sociaux est la déception ; on peut s'attendre à ce que le robot puisse exécuter certaines fonctions qui lui sont en réalité impossibles[20]. Par exemple, avec le développement de la ressemblance avec l'homme et des traits anthropomorphiques, les humains qui interagissent avec les robots peuvent supposer que le robot a des sentiments et des pensées, ce qui est trompeur[20]. L'isolement des personnes âgées par rapport aux humains est également un risque des robots sociaux dans la mesure où ces robots peuvent représenter une part importante de l'interaction sociale de l'individu[20]. Actuellement, il existe peu de preuves sur les potentiels effets à long terme d'un contact humain limité et d'une interaction accrue avec des robots[20] . Certains robots sociaux ont également une capacité intégrée de téléprésence, qui peut être utilisée pour permettre aux individus de faire des vidéoconférences avec leur famille, les soignants et le personnel médical, ce qui peut réduire la solitude et l'isolement[21]. La capacité vidéo de certains robots est un moyen potentiel d'interaction sociale et d'amélioration de l'accessibilité des examens médicaux[21]. La dignité des personnes qui interagissent avec les robots doit également être respectée ; certaines personnes peuvent trouver que certains robots, comme le robot Paro, ressemblant à une peluche, sont infantilisants, et les recherches futures devraient explorer la meilleure façon d'accroître l'autonomie des patients qui interagissent avec les robots[20]. De plus, le respect de la vie privée est une autre préoccupation éthique dans la mesure où certains robots sociaux peuvent collecter et stocker des données vidéo ou des données provenant de capteurs. [20] Les données stockées risquent d'être volées ou piratées, un risque important pour le respect de la vie privée[20]. La sécurité des personnes qui interagissent avec les robots est une autre préoccupation, car les robots peuvent accidentellement causer des préjudices, par exemple provoquer la chute d'une personne en la heurtant[20]. Ces considérations éthiques doivent être prises en compte avant d'introduire des robots dans les établissements de soins de santé.

Exemples[modifier | modifier le code]

Le robot Sophia en 2017.
Pepper en 2018.
Des robots Nao
Le robot Paro

L'un des robots sociaux les plus connus actuellement en développement est Sophia, développé par Hanson Robotics. Sophia est un robot humanoïde social qui peut afficher plus de 50 expressions faciales, et est le premier non-humain à recevoir un titre des Nations unies.

SoftBank Robotics a développé plusieurs robots sociaux semi-humanoïdes qui sont fréquemment utilisés dans la recherche, notamment Pepper et Nao. Pepper est utilisé par des chercheurs, ainsi que par les consommateurs de plus d'un millier de foyers au Japon.

D'autres exemples notables de robots sociaux incluent ASIMO de Honda, Jibo, Moxi et Kaspar, conçu par l' Université du Hertfordshire pour aider les enfants autistes à apprendre les réponses du robot à travers les jeux et les interactions[22]. Les robots d'Anki, Cozmo et Vector, sont également passés dans la catégorie des robots sociaux, mais tous ont été arrêtés entre 2018 et 2019.

Les robots sociaux n'ont pas nécessairement besoin d'être humanoïdes. L'exemple le plus célèbre de robot social non-humanoïde est Paro le phoque.

Voir aussi[modifier | modifier le code]

Autres références[modifier | modifier le code]

  •  W. Grey Walter, « An Imitation of Life », Scientific American,‎ , p. 42–45 (en)
  • Dautenhahn, « Trying to Imitate - a Step Towards Releasing Robots from Social Isolation », Proceedings: From Perception to Action Conference, Lausanne, Switzerland, IEEE Computer Society Press,‎ , p. 290–301 (ISBN 0-8186-6482-7, DOI 10.1109/FPA.1994.636112) (en)
  • Dautenhahn, « Getting to know each other - artificial social intelligence for autonomous robots », Robotics and Autonomous Systems, vol. 16, nos 2–4,‎ , p. 333–356 (DOI 10.1016/0921-8890(95)00054-2) (en)
  • Cynthia L. Breazeal, Designing Sociable Robots, MIT Press, (ISBN 0-262-02510-8) (en)
  • Fong, Nourbakhsh et Dautenhahn, « A survey of socially interactive robots », Robotics and Autonomous Systems, vol. 42, nos 3–4,‎ , p. 143–166 (DOI 10.1016/S0921-8890(02)00372-X, lire en ligne) (en)
  • Dolbeau-Bandin Cécile, 2022, « Robots dits sociaux » Publictionnaire. Dictionnaire encyclopédique et critique des publics. Accès : http://publictionnaire.huma-num.fr/notice/robots-dits-sociaux.

Références[modifier | modifier le code]

  1. Organisation internationale de normalisation, « ISO 8373:2012(fr) Robots et composants robotiques — Vocabulaire », sur www.iso.org (consulté le )
  2. (en) Leite, Martinho et Paiva, « Social Robots for Long-Term Interaction: A Survey », International Journal of Social Robotics, vol. 5, no 2,‎ , p. 291–308 (ISSN 1875-4791, DOI 10.1007/s12369-013-0178-y, lire en ligne)
  3. (en) Lin, Šabanović, Dombrowski et Miller, « Parental Acceptance of Children's Storytelling Robots: A Projection of the Uncanny Valley of AI », Frontiers in Robotics and AI, vol. 8, no 579993,‎ , p. 1–15 (ISSN 2296-9144, DOI 10.3389/frobt.2021.579993)
  4. David Feil-Seifer, Kristine Skinner and Maja J. Matarić, "Benchmarks for evaluating socially assistive robotics", Interaction Studies: Psychological Benchmarks of Human-Robot Inteaction [sic], 8(3), 423-429 Oct, 2007
  5. Towards Data Science: Asimov’s Laws of Robotics, and why AI may not abide by them
  6. Taipale, S., Vincent, J., Sapio, B., Lugano, G. and Fortunati, L. (2015) Introduction: Situating the Human in Social Robots. In J. Vincent et al., eds. Social Robots from a Human Perspective, Dordrecht: Springer, pp. 1-17
  7. « Implications of interpersonal communication competence research on the design of artificial behavioral systems that interact with humans » (consulté le )
  8. (en) Castellano, Pereira, Leite et Paiva, « Detecting user engagement with a robot companion using task and social interaction-based features », Proceedings of the 2009 International Conference on Multimodal Interfaces - ICMI-MLMI '09, Cambridge, Massachusetts, USA, ACM Press,‎ , p. 119 (ISBN 9781605587721, DOI 10.1145/1647314.1647336, lire en ligne)
  9. Ray, Mondada et Siegwart, « What do people expect from robots? », 2008 IEEE/RSJ International Conference on Intelligent Robots and Systems,‎ , p. 3816–3821 (ISBN 978-1-4244-2057-5, DOI 10.1109/IROS.2008.4650714)
  10. Haggadone, Banks et Koban, « Of robots and robotkind: Extending intergroup contact theory to social machines », Communication Research Reports, vol. 0,‎ , p. 1–11 (DOI 10.1080/08824096.2021.1909551)
  11. Banks, Koban et Chauveau, « Forms and Frames: Mind, Morality, and Trust in Robots across Prototypical Interactions », Human-Machine Communication, vol. 2, no 1,‎ , p. 81–103 (DOI 10.30658/hmc.2.4)
  12. Matthew Gladden, Sapient Circuits and Digitalized Flesh: The Organization as Locus of Technological Posthumanization, Indianapolis, IN, Defragmenter Media, (ISBN 978-1-944373-21-4), p. 19
  13. a b c d e f g et h Kabacińska, Prescott et Robillard, « Socially Assistive Robots as Mental Health Interventions for Children: A Scoping Review », International Journal of Social Robotics,‎ (ISSN 1875-4791, DOI 10.1007/s12369-020-00679-0, lire en ligne)
  14. a b c d e et f (en) Moerman, van der Heide et Heerink, « Social robots to support children's well-being under medical treatment: A systematic state-of-the-art review », Journal of Child Health Care, vol. 23, no 4,‎ , p. 596–612 (ISSN 1367-4935, PMID 30394806, DOI 10.1177/1367493518803031, lire en ligne)
  15. a b c d et e (en) Sartorato, Przybylowski et Sarko, « Improving therapeutic outcomes in autism spectrum disorders: Enhancing social communication and sensory processing through the use of interactive robots », Journal of Psychiatric Research, vol. 90,‎ , p. 1–11 (PMID 28213292, DOI 10.1016/j.jpsychires.2017.02.004, lire en ligne)
  16. a b c d et e (en) Moro, Lin, Nejat et Mihailidis, « Social Robots and Seniors: A Comparative Study on the Influence of Dynamic Social Features on Human–Robot Interaction », International Journal of Social Robotics, vol. 11, no 1,‎ , p. 5–24 (ISSN 1875-4805, DOI 10.1007/s12369-018-0488-1, lire en ligne)
  17. a b c d et e Moyle, Bramble, Jones et Murfield, « "She Had a Smile on Her Face as Wide as the Great Australian Bite": A Qualitative Examination of Family Perceptions of a Therapeutic Robot and a Plush Toy », The Gerontologist, vol. 59, no 1,‎ , p. 177–185 (ISSN 0016-9013, PMID 29165558, DOI 10.1093/geront/gnx180, lire en ligne)
  18. a et b (en) Körtner, « Ethical challenges in the use of social service robots for elderly people », Zeitschrift für Gerontologie und Geriatrie, vol. 49, no 4,‎ , p. 303–307 (ISSN 0948-6704, PMID 27220734, DOI 10.1007/s00391-016-1066-5, lire en ligne)
  19. Carros, Meurer, Löffler et Unbehaun, « Exploring Human-Robot Interaction with the Elderly: Results from a Ten-Week Case Study in a Care Home », Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems,‎ , p. 1–12 (DOI 10.1145/3313831.3376402)
  20. a b c d e f g et h (en) Körtner, « Ethical challenges in the use of social service robots for elderly people », Zeitschrift für Gerontologie und Geriatrie, vol. 49, no 4,‎ , p. 303–307 (ISSN 0948-6704, PMID 27220734, DOI 10.1007/s00391-016-1066-5, lire en ligne)
  21. a et b (en) Moyle, Arnautovska, Ownsworth et Jones, « Potential of telepresence robots to enhance social connectedness in older adults with dementia: an integrative review of feasibility », International Psychogeriatrics, vol. 29, no 12,‎ , p. 1951–1964 (ISSN 1041-6102, PMID 28879828, DOI 10.1017/S1041610217001776, lire en ligne)
  22. « Robot at Hertfordshire University aids autistic children », BBC (consulté le )

Liens externes[modifier | modifier le code]