Utilisateur:Lamiot/Brouillon/IA art thérapeutique

Une page de Wikipédia, l'encyclopédie libre.

Intégration de la digitalisation puis de l'IA dans la pratique et dans l'enseignement de la psychologie et de la psychiatrie,

Contexte, enjeux[modifier | modifier le code]

Au début des années 2020,

  • plus d'un milliard de personnes dans le monde sont victimes d'un problème de santé mentale[1] ;
  • la dépression est devenue la 1ère cause d'incapacité dans le monde,
    contribuant de plus en plus à la charge mondiale de morbidité (5 % des adultes en souffrent)[2]. Selon l'OMS plus de 300 millions de personnes vivent avec la dépression (augmentation de plus de 18% entre 2005 et 2015)[3] ;
  • l'accès aux traitements efficaces reste un défi pour certaines personnes isolées, emprisonnées, vivant dans un désert médical, et/ou pour les pays à revenu faible ou intermédiaire.

L'OMS s'est dotée d'un Programme d'action pour combler les lacunes en matière de santé mentale (mhGAP), fondé sur des données probantes pour faire face à cette crise mondiale de la santé mentale. Quid de l'IA dans ce contexte ?

Vers des IA psychiatre ou psychologues ?[modifier | modifier le code]

Dans le domaine de l'interaction homme-machine, peut-on ? , doit-on ? veut-on ?
et si oui, avec quelles précautions, développer des IA psychiatre ou psychologues. Si oui, devraient-elles être incarnées en avatars particuliers ? De telle IA devraient idéalement pouvoir comprendre tous les niveaux de communication de son interlocuteur (certaines IA identifient déjà finement des spécificités dans le ton de la voix, dans la texture (rides, ridules), la couleur et la température de la peau, et d'autres microsignaux… qui ne sont pas les mêmes que ceux que le psychologue ou le psychiatre peuvent percevoir). Ce type d'IA devrait pouvoir être utilisé dans des contextes aussi variés que ceux de la dépression, l'anxiété, le burn-out, l'addiction, le stress post-traumatique, l'éco-anxiété ou la solastalgie ou encore la bipolarité, la schizophrénie, etc.

Parmi les questions éthiques, figure le fait qu'en comprenant mieux la maladie mentale et les troubles mentaux, en étant capable de la simuler, il devient plus facile pour une IA d'être détournée pour non pas soigner ces maladies, mais pour les induire. Et nos cerveaux auront de moins en moins de secrets pour l'IA.

Histoire[modifier | modifier le code]

L'ancêtre des des systèmes experts (puis des chatbots) dédiés à la psychiatrie, semble avoir été le programme ELIZA en 1966, ancêtre de la vingtaine de « robots thérapeutes » ensuite validés par des études scientifiques en psychiatrie.

En 1986, David Servan-Schreiber publie un article "Artificial Intelligence and Psychiatry[4] ; en 2020, P.M Doraiswamy et al. publient le résultat d'une enquête mondiale faite auprès de médecins sur « l'intelligence artificielle et l'avenir de la psychiatrie »[5], juste avant l'explosion de l'IAg. On trouve désormais des systèmes sophistiqués de détection de l'état de santé, par exemple à travers

  • l'analyse de la voix (ex : Vincent Martin ( vincent.martin.1@u-bordeaux.fr ), ingénieur, chercheur (DIU de Philosophie de la Psychiatrie...) et informaticien, travaille au début des années 2020 sur la détection de la somnolence et de troubles psychiatriques dans la voix (au LaBRI de Bordeaux) et comme postdoctorant au Luxembourg Institute of Health, travaille sur les biomarqueurs vocaux pouvant améliorer la prise en charge de la santé mentale chez les personnes atteintes du cancer du sein. Il cherche aussi à concevoir des bases de données en milieu hospitalier, intégrant la voix.
  • l'analyse de la couleur, de la texture de la peau, de ses taches, rides, ridules.

Certains patients peuvent spontanément développer des relations thérapeutiques efficaces avec des IA. Certains se disant même plus à l'aise avec un chatbot qu'avec un psychologue ou psychiatre humain[6].

Dans les années 2020, après la pandémie de Covid-19 qui a vulgarisé l'appel à la télésanté, aux téléconsultations, mais qui a aussi accentuée les troubles mentaux[7] ; les applications pour téléphones mobiles et ordinateurs concernant la santé mentale ont connu un certain développement, avec par exemple des applications pour smartphones, la réalité virtuelle, les chatbots et le passage par les médias sociaux[8].

Une « psychiatrie numérique » est en pleine croissance dans le domaine de la recherche et dans celui des soins en santé mentale[8]

Intelligence Artificielle et psychologie/Psychiatrie[modifier | modifier le code]

Le thème dit de l'e-psychiatrie est traité par un nombre croissant d'articles scientifiques.

Aide au diagnostic[modifier | modifier le code]

L'IA y est déjà testée, souvent avec succès (et « indépendamment de l'âge, du sexe, de la race ou de l'origine ethnique » dans le cas de l'application Aiberry en 2024)[9], par exemple :

  • pour aider au diagnostic (Après une phase d'apprentissage, l'IAg et le deep learning peuvent reconnaitre et catégoriser la dépression, en évaluer la gravité, évaluer l'humeur et les émotions du patient, en analysant des textes, des réponses écrites ou orales à des questions, des vidéos, des paroles, des gestes ou des image...)[10],[11]. L'IA peut aussi posant un pronostic (par exemple pour une dépression)[12]. Dans le cas de la dépression, une étude récente a conclu que l'évaluation conversationnelle via un modèle d'intelligence artificielle est aussi utile, cliniquement, que les échelles classiques[13] de dépression ; et elle est même préférée par la plupart des utilisateurs[9] (ce modèle d'IA avait été préalablement entraîné sur des entretiens administrés par des humains, et « 90 % de ses prédictions concordaient avec l'auto-évaluation ou avec l'opinion d'experts cliniques lorsque l'IA contredisait l'auto-évaluation. Il n'y avait pas de différence de performance du modèle selon l'âge, le sexe, la race ou l'origine ethnique »)[9].[14],[15]>
  • pour détecter certaines anomalies du contrôle attentionnel (par exemple liées à la dépression), et reconnaitre les émotions faciales associées à la dépression ou à certaines maladies ou accidents neurologiques, via un réseau neuronal profond (Réseau neuronal convolutif en général)[16],[17],[18][19],[20] « à partir de données en temps réel[21],[22] et préenregistrées »[23],[24]. À la fin des années 2010, les algorithmes de reconnaissance faciale et de reconnaissance des expressions faciales et donc des émotions[25] (y compris sur smartphone)[26],[27] permettaient déjà d'obtenir des indices fins du niveau de stress et de la gravité d'une dépression[28],[29] (ils peuvent être déduits de l'analyse des émotions exprimées par le visage)[30],[31]. La reconnaissance des émotions (FER) a bénéficié, en Chine notamment, des avancées exponentielle de la vision par ordinateur, de l'apprentissage profond et de l'IA utilisés dans le domaine de la société de surveillance[32] et des politiques urbaines sécuritaires[33], des médias et conférences (un speker ou enseignant peut ainsi être renseigné sur l'attention ou les émotions du public)[34],[35], de l'apprentissage de compétences sociales telles que le contact visuel et la reconnaissance des émotions faciales pour des enfants de 4 à 7 ans atteints de troubles du spectre autistique (TSA)[36], de la FER dans la nature[37],[38] et de la conduite au volant en sécurité[39] ;
    En médecine, elle a ainsi été expérimentalement utilisée pour faciliter le pronostic et le diagnostic de l'accident vasculaire cérébral, de la sclérose en plaques et de la maladie de Parkinson[40],[41]. Elle permet au clinicien d'évaluer l'humeur d'un patients atteints de troubles neurologiques (y compris quand il exprime des émotions inappropriées ou excessives pour exprimer son état d'esprit, ce qui peut selon Young-Shin |nom1=Leeet al. (2022) être utile pour surveiller les patients via les caméras des smartphones[42].
    Lors d'une étude[23], le réseau de neurone, programmé pour reconnaitre les émotions faciales, a ainsi détecté les symptômes de dépression « avec une précision de 93,58 %, une sensibilité de 92,70 %, une spécificité de 93,40 % et un score f1 de 93,68 % (le score F1 est une métrique mathématique évaluant la performance des modèles de classification ; il est défini comme la moyenne harmonique de la précision et du rappel). De plus, la détection du niveau de gravité de la dépression, à l'aide de biomarqueurs EEG[43],[44],[45],[46],[47] a atteint une précision de 99,75 %, une sensibilité de 99,75 %, une spécificité de 99,92 % et un score f1 de 99,75 % ».
  • pour repérer la dépression et l'anxiété susceptible d'induire des idées suicidaires chez l'enfant et l'adolescent [10]

• pour estimer le risque de récidive dans les comportements violents ; • pour aider dans la prise de décision en psychiatrie légale ; • pour prévenir le risque suicidaire ; • en psychopathologie, etc.

Assistance à la décision clinique[modifier | modifier le code]

En psychiatrie comme en psychologie, l'IA peut soutenir les praticiens en leur donnant des idées, en attirant leur attention sur cetains points, et en fournissant des analyses prédictives basées sur de vastes ensembles de données cliniques. Ceci aide à la prise de décision pour les traitements et les diagnostics.

Ceci soulève de nombreux défis éthiques et légaux[48],[49], dont à propos du droit et la protection des données personnelles et de la vie intime (ex : la reconnaissance des expressions faciales ou FER) et privée, et sur les effets possibles de l'intégration de l'intelligence artificielle sur la pratique psychiatrique, notamment via la télémédecine et la pratique des tests cognitifs.

Contribution de l'IA au traitement[modifier | modifier le code]

En Inde, des chercheurs ont testé (publication 2022) une thérapie assistée par un modèle d'IA programmé pour évaluer le niveau de dépression à partir de l'interprétation des émotions faciales, ce qui pourrait aider les psychologues lors de leurs consultations avec leurs patients : un modèle d'IA qui peut être testé pour n'importe quel âge/catégorie de patient faisant face à un trouble mental, quelque que soit l'origine du problème ou sa séquences de vie. Son algorithme d'apprentissage automatique a été entrainé sur l'ensemble de données open source de reconnaissane faciale FER2013 puis testé sur des personnes d'âges différents. Il permet, selon ses concepteurs, d'analyser la dépression plus efficacement.[50].

L'IA peut aussi aider les patients à reconnaître les problèmes psychologiques (dépendance notamment) liés aux médicaments existants ou antérieurs[51].

IA au service de la recherche en psychologie et psychiatrie[modifier | modifier le code]

  • Analyse comportementale : L'IA peut aider à analyser les comportements et les interactions sociales à travers divers types de données, ce qui est essentiel pour la recherche en psychologie/psychiatrie. L'IA peut notamment reconnaître des modèles complexes et fournir des insights qui seraient difficiles à discerner pour un humain.

IA ouverte et enseignement de la psychologie[modifier | modifier le code]

L'enseignement de la psychologie utilise depuis longtemps des « patients simulés » et les études de cas anonymisés. L'IA permet de créer des cas et des jumeaux numériques, c'est à dire ici des patients virtuels (homme ou femme, patients cisgenre ou transgenre de tous âge).

A partir des années 2020, l'intelligence artificielle ouverte permet de créer des processus de formation pratique basés sur des simulations interactives où l'apprenant pourra, sans risque, s'initier à diverses techniques thérapeutiques en échangeant avec des patients virtuels dotés d'une simulation d'« intelligence émotionnelle », et programmés pour présenter divers types de dépression, dans divers types de contextes. dans un environnement contrôlé.
Et comme dans d'autres domaines, l'IA peut aussi analyser les parcours et données d'apprentissage des étudiants pour personnaliser leur parcours de formation. En identifiant les styles d'apprentissage et les besoins individuels, l'IA semble pouvoir adapter le matériel et la démarche pédagogique pour optimiser la formation (initiale et continue) en psychologie.

Une étude a cherché à tester l'utilité d'un « patient virtuel » créé avec Character.AI pour enseigner la psychologie. Ce patient a été doté des caractéristiques décrites par les critères internationaux de la dépression pour la communauté scientifique. Puis il a été soumis à plusieurs tests de validité (basés sur le test de Turing) et à un test de validité "à dire d'experts".
L'étude a conclu que ce patient se « comporte » globalement comme un patient souffrant de dépression. Selon les auteurs, le test de jugement d'experts est celui où il a montré le plus de difficultés, mais même si ce patient virtuel présente diverses lacunes (possiblement associées à la manière stricte de créer le profil et au court temps d'expérimentation) cet outil d'intelligence artificielle offre d'importantes opportunités pédagogiques pour l'enseignement de la psychologie.

Risques et Défis[modifier | modifier le code]

Certains auteurs mettent en garde contre les risques associés à l'utilisation intensive de la technologie dans le domaine de la santé mentale, tout en soulignant la nécessité de renouveler la clinique psychiatrique.

  • Robotique et IA : L'intégration de la robotique humanoïde et de l'intelligence artificielle dans les activités humaines est explorée, avec une réflexion sur les nouvelles valeurs émergentes pour l'homme.
  • Réponses à la COVID-19 : L'utilisation des outils numériques en psychiatrie et santé mentale pendant la pandémie de COVID-19 est analysée, en particulier l'adoption de la téléconsultation.

Ces points clés offrent un aperçu des thèmes principaux abordés dans les articles de la page.

  • Éco-psychiatrie et risque radio-nucléaire : L'article discute des méthodes et outils en éco-psychiatrie pour gérer le risque radio-nucléaire, avec un accent sur le phénotypage numérique et l'intelligence artificielle.
  • IA en santé : Exploration de l'impact de l'intelligence artificielle dans le domaine de la santé, y compris les implications somatiques et psychiatriques.
  • Prédiction par IA : Étude sur l'utilisation de l'intelligence artificielle pour prédire les scores aux questionnaires de santé mentale comme le PHQ-8.
  • Révolution numérique : Discussion sur les enjeux éthiques de l'intelligence artificielle pour les personnes âgées et l'impact des technologies numériques sur leur qualité de vie.

Référence: scholar.google.fr Vous

La "nanopsychiatrie"

  • Définition La “nanopsychiatrie” est un domaine de recherche émergent du domaine de la nanomédecine, explorant le potentiel des nanotechnologies dans le traitement et la compréhension des troubles psychiatriques.
  • Objectifs : elle vise à développer des outils et des méthodes pour mieux comprendre et traiter les maladies mentales.
    En pharmacologie, des nanomédicaments associés à des « nanotransporteurs » pourraient améliorer la biodisponibilité et la pharmacocinétique des médicaments psychotropes, pour des traitements plus efficaces, plus personnalisés (« psychiatrie de précision »)[52] et plus sûrs[53]. Elle pourrait améliorer l'imagerie médicale (in vivo notamment) et l'analyse du Vivant et du métabolome pour mieux comprendre et traiter certains troubles psychiatrique[53].
    Des nanoparticules pourraient aider à modéliser le système nerveux central et mieux comprendre certaines maladies mentales[53].

Ces approches posent encore des questions éthiques et de sécurité complexes et non résolues.

Comparaison entre le raisonnement clinique et le raisonnement computationnel[modifier | modifier le code]

Une étude récente (2024) a cherché à comparer le raisonnement empirique du clinicien et le fonctionnement du Machine Learning (ML). En se basant sur la littérature disponible, les auteurs posent l'hypothèse que le jugement clinique passe par 4 grandes étapes de raisonnement clinique  : 1) la collecte des variables, 2) le contexte théorique, 3) la construction du modèle, 4) l'utilisation du modèle. L'apprentissage automatique apporte des méthodes nouvelles au clinicien. Elle peut contribuer à la formation des étudiants en psychiatrieErreur de référence : Paramètre invalide dans la balise <ref> et des praticiens et éclairer leurs pratiques, mais les auteurs soulignent l'importance de la subjectivité des ingénieurs en ML et de leurs méthodologies.

Outils numériques et IA en psychologie, psychiatrie et art-thérapie[modifier | modifier le code]

La révolution numérique a touché le secteur de la santé et le cadre thérapeutique ; en particulier, avec l'aide au diagnostique (ex : phénotypage numérique)[54] suivi informatisé des patients, des rendez vous (doctolib...) et de leur traitement, des objets connectés. Dans les années 2000 et plus encore depuis 2020 environ, ce sont les IA qui s'y développent, tout en restant presque à l'écart du dialogue médecin-patient (hors cas expérimentaux).

Qu'en est-il du sous-domaine de la santé mentale ? Selon John Torous & al. au début des années 2020, on dispose déjà de preuves que l'utilisation de l'IA et d'une psychiatrie digitale dans différents contextes de santé mentale peut aider au diagnostic et à l'intervention précoce, et aider le patient à mieux autogérer son bien-être psychologique. Des recherches encore émergentes plaident pour l'utilisation de l'IA dans la prise en charge clinique des troubles psychiatriques à long terme (dépression majeure, troubles anxieux, bipolaires[55] et psychotiques ; troubles de l'alimentation et de la toxicomanie – soins de santé mentale des enfants et des adolescents[8].

Nous concluons que les nouvelles capacités technologiques des smartphones, de l'intelligence artificielle, des médias sociaux et de la réalité virtuelle modifient déjà les soins de santé mentale de manière imprévue et passionnante, chacune accompagnée d'une base de données probantes précoce mais prometteuse.

Art-thérapie[modifier | modifier le code]

L'art-thérapie est-il aussi impacté par l'intégration croissante des technologies numériques ? Un article examine comment l'art numérique peut s'intégrer dans l'art-thérapie et propose des possibilités concrètes pour incorporer ces technologies.

  • Défis et Perspectives : Il aborde les défis liés à l'évaluation des outils numériques en santé mentale et envisage des changements dans la pratique de l'art-thérapie en réponse à la révolution numérique
  • Art Thérapeutique et IA (quid de la création artistique en réalité virtuelle ? de la « réalité virtuelle totalement immersive.) » ? Selon une revue d'étude publiée par C. Hadjipanayi et al. en 2023 (Art as therapy in virtual reality: A scoping review)[56], la RV permet de nouvelles opportunités pour l'expression artistique thérapeutique (déjà utilisée pour le traitement de phobies, le travail sur soi et la motivation en psychothérapie et neuroréhabilitation)

Utilisation de la réalité virtuelle (RV)[modifier | modifier le code]

La RV est à la fois une technologie qui offre divers types de processus immersif, une plateforme (expérimentée par des artistes pour diverses formes d'art numérique virtuel) et un mode de communication, bien documentés par de nombreuses études, mais qui vont encore évoluer avec les "progrès" de l'IAg, notamment du point de vue artistique et créatif. Elle semble pouvoir trouver des applications en psychologie et en psychiatrie.

Avantages de la VR[modifier | modifier le code]

Permettant une "incarnation par le design"[57], elle bénéficie de progrès technologiques rapides, d'une baisse constante des prix des appareils.

Appréciée des natifs du numérique (pratiquants de jeu vidéo notamment), elle offre des possibilités d'expression artistique novatrices. Elle s'appuie notamment sur la virtualité, le jeu, des effets de téléprésence (qui peuvent momentanément supprimer les contraintes de certains handicaps). Des corps virtuels (avatars) peuvent agir comme des corps de substitution, dans des environnements contrôlés, en permettant, Selon Bertrand et al. (2021) le jeu de rôle et la libre expression de divers comportements et attitudes[58].

Cet effet sur les comportements et les attitudes, dit « effet Proteus »[59] découle des caractéristiques dispositionnelles et symbolique de l'avatar incarné. Il est démontré qu'il peut produire des changements cognitifs importants, par exemple via l'incarnation dans un corps d'enfant (amenant les utilisateurs adultes de RV à surestimer la taille des objets virtuels)[60], l'incarnation virtuelle dans un corps « racialisé » différent entraînant de l'empathie suivie de changements dans les biais raciaux et « attitudes raciales » implicites, comme l'ont montré Maister et al. en 2015 [61] et Banakou et al. en 2020 [62], ou incarnant une femme empathique stéréotypée incitant à l'empathie (cf. Hadjipanayi et Michael-Grigoriou, 2022)[63]. L'incarnation d'avatars dans une « RV totalement immersive » peut également conduire à l'acquisition de compétences générales (ex : l'incarnation en avatar de Sigmund Freud a aidé les utilisateurs de RV à offrir des auto-conseils plus judicieux qu'en étant incarné en avatar d'un client de thérapie[64],[65].

Inconvénients :[modifier | modifier le code]

Parallèlement à ces atouts, elle présente aussi des défis[56] avec :

  • des limitations (ex : le patient doit comprendre la langue et les questions du chatBot, avoir accès à un smartphone ou à un ordinateur avec Internet à haut débit) et être à l'aide avec l'informatique et accepter de parler avec une IA)
  • peu de ressources (littéracie notamment) dédiées ;
  • une sensorialité incomplète (manque de tactilité, d'odeurs, perturbation du sens de l'équilibre..) dans les environnements virtuels.
  • l'IA n'est pas indemne de biais (qui sont ceux du programmeur et ceux des bases de donnés qui ont servi à l'entrainement de l'IA, qui peuvent différer de ceux qui psychologue ou psychiatre)
  • des préoccupations interdisciplinaires, dont sur certains effets de la VR sur la psyché ;
  • des aspects de l'inclusivité qui doivent être considérés par le thérapeute, les chercheurs et les développeurs.

https://www.frontiersin.org/articles/10.3389/frvir.2023.1065863/full

  1. Jürgen Rehm et Kevin D. Shield, « Global Burden of Disease and the Impact of Mental and Addictive Disorders », Current Psychiatry Reports, vol. 21, no 2,‎ (ISSN 1523-3812 et 1535-1645, DOI 10.1007/s11920-019-0997-0, lire en ligne, consulté le )
  2. « Principaux repères sur la dépression », sur www.who.int (consulté le )
  3. « Dépression: parlons-en », sur www.who.int (consulté le )
  4. (en) David Servan-Schreiber, « Artificial Intelligence and Psychiatry: », The Journal of Nervous and Mental Disease, vol. 174, no 4,‎ , p. 191–202 (ISSN 0022-3018, DOI 10.1097/00005053-198604000-00001, lire en ligne, consulté le )
  5. (en) P. Murali Doraiswamy, Charlotte Blease et Kaylee Bodner, « Artificial intelligence and the future of psychiatry: Insights from a global physician survey », Artificial Intelligence in Medicine, vol. 102,‎ , p. 101753 (DOI 10.1016/j.artmed.2019.101753, lire en ligne, consulté le )
  6. (en-US) Christophe Gauld et Vincent Martin, « Une IA remplacera-t-elle bientôt votre psychiatre ? », sur The Conversation, (consulté le )
  7. (en) « Mental Health and COVID-19: Early evidence of the pandemic's impact: Scientific brief, 2 March 2022 », sur www.who.int (consulté le )
  8. a b et c (en) John Torous, Sandra Bucci, Imogen H. Bell et Lars V. Kessing, « The growing field of digital psychiatry: current evidence and the future of apps, social media, chatbots, and virtual reality », World Psychiatry, vol. 20, no 3,‎ , p. 318–335 (ISSN 1723-8617 et 2051-5545, PMID 34505369, PMCID PMC8429349, DOI 10.1002/wps.20883, lire en ligne, consulté le )
  9. a b et c (en) Rachel L. Weisenburger, Michael C. Mullarkey, Jocelyn Labrada et Daniel Labrousse, « Conversational assessment using artificial intelligence is as clinically useful as depression scales and preferred by users », Journal of Affective Disorders, vol. 351,‎ , p. 489–498 (DOI 10.1016/j.jad.2024.01.212, lire en ligne, consulté le )
  10. a et b (en) Prabal Datta Barua, Jahmunah Vicnesh, Oh Shu Lih et Elizabeth Emma Palmer, « Artificial intelligence assisted tools for the detection of anxiety and depression leading to suicidal ideation in adolescents: a review », Cognitive Neurodynamics, vol. 18, no 1,‎ , p. 1–22 (ISSN 1871-4099, PMID 36467993, PMCID PMC9684805, DOI 10.1007/s11571-022-09904-0, lire en ligne, consulté le )
  11. Yutong Li, Zhenyu Liu, Li Zhou et Xiaoyan Yuan, « A facial depression recognition method based on hybrid multi-head cross attention network », Frontiers in Neuroscience, vol. 17,‎ (ISSN 1662-453X, PMID 37292164, PMCID PMC10244529, DOI 10.3389/fnins.2023.1188434, lire en ligne, consulté le )
  12. Kimia Kazemzadeh, « The Role of Artificial Intelligence in Depression Diagnosis, Prognosis, and Treatment: Gaps and Future Directions », Neurology Letters, vol. 3, no 1,‎ , p. 20–21 (ISSN 2251-9777, DOI 10.61186/nl.3.1.20, lire en ligne, consulté le )
  13. (en) National Collaborating Centre for Mental Health (UK), « The classification of depression and depression rating scales/questionnaires », British Psychological Society (UK), (consulté le )
  14. (en) Bin Hu, Juan Rao, Xiaowei Li et Tong Cao, « Emotion Regulating Attent
    ional Control Abnormalities In Major Depressive Disorder: An Event-Related Potential Study
     », Scientific Reports, vol. 7, no 1,‎ (ISSN 2045-2322, PMID 29051523, PMCID PMC5648876, DOI 10.1038/s41598-017-13626-3, lire en ligne, consulté le )
  15. Endre Visted, Jon Vøllestad, Morten Birkeland Nielsen et Elisabeth Schanche, « Emotion Regulation in Current and Remitted Depression: A Systematic Review and Meta-Analysis », Frontiers in Psychology, vol. 9,‎ (ISSN 1664-1078, PMID 29867700, PMCID PMC5968125, DOI 10.3389/fpsyg.2018.00756, lire en ligne, consulté le )
  16. Farzana Arefin Nazira, Sharna Rani Das, Sadah Anjum Shanto et M. F. Mridha, « Depression Detection Using Convolutional Neural Networks », {{Article}} : paramètre « périodique » manquant, IEEE,‎ , p. 9–13 (ISBN 978-1-6654-7820-5, DOI 10.1109/SPICSCON54707.2021.9885517, lire en ligne, consulté le )
  17. (en) Manjunath Tadalagi et Amit M. Joshi, « AutoDep: automatic depression detection using facial expressions based on linear binary pattern descriptor », Medical & Biological Engineering & Computing, vol. 59, no 6,‎ , p. 1339–1354 (ISSN 0140-0118 et 1741-0444, DOI 10.1007/s11517-021-02358-2, lire en ligne, consulté le )
  18. Shrey Modi et Mohammed Husain Bohara, « Facial Emotion Recognition using Convolution Neural Network », {{Article}} : paramètre « périodique » manquant, IEEE,‎ , p. 1339–1344 (ISBN 978-1-6654-1272-8, DOI 10.1109/ICICCS51141.2021.9432156, lire en ligne, consulté le )
  19. Abhishek Verma, Piyush Singh et John Sahaya Rani Alex, « Modified Convolutional Neural Network Architecture Analysis for Facial Emotion Recognition », {{Article}} : paramètre « périodique » manquant, IEEE,‎ , p. 169–173 (ISBN 978-1-7281-3253-2, DOI 10.1109/IWSSIP.2019.8787215, lire en ligne, consulté le )
  20. Shrey Modi et Mohammed Husain Bohara, « Facial Emotion Recognition using Convolution Neural Network », {{Article}} : paramètre « périodique » manquant, IEEE,‎ , p. 1339–1344 (ISBN 978-1-6654-1272-8, DOI 10.1109/ICICCS51141.2021.9432156, lire en ligne, consulté le )
  21. Mehmet Akif Ozdemir, Berkay Elagoz, Aysegul Alaybeyoglu et Reza Sadighzadeh, « Real Time Emotion Recognition from Facial Expressions Using CNN Architecture », {{Article}} : paramètre « périodique » manquant, IEEE,‎ , p. 1–4 (ISBN 978-1-7281-2420-9, DOI 10.1109/TIPTEKNO.2019.8895215, lire en ligne, consulté le )
  22. Darius Turcian et Vasile Stoicu-Tivadar, « Real-Time Detection of Emotions Based on Facial Expression for Mental Health », {{Article}} : paramètre « périodique » manquant, IOS Press,‎ (ISBN 978-1-64368-450-5, DOI 10.3233/shti230795, lire en ligne, consulté le )
  23. a et b (en) Gajendra Kumar, Tanaya Das et Kuldeep Singh, « Early detection of depression through facial expression recognition and electroencephalogram-based artificial intelligence-assisted graphical user interface », Neural Computing and Applications, vol. 36, no 12,‎ , p. 6937–6954 (ISSN 0941-0643 et 1433-3058, DOI 10.1007/s00521-024-09437-z, lire en ligne, consulté le )
  24. (en) Ninad Mehendale, « Facial emotion recognition using convolutional neural networks (FERC) », SN Applied Sciences, vol. 2, no 3,‎ (ISSN 2523-3963 et 2523-3971, DOI 10.1007/s42452-020-2234-1, lire en ligne, consulté le )
  25. (en) Murugappan M. et Mutawa A., « Facial geometric feature extraction based emotional expression classification using machine learning algorithms », PLOS ONE, vol. 16, no 2,‎ , e0247131 (ISSN 1932-6203, PMID 33600467, PMCID PMC7891769, DOI 10.1371/journal.pone.0247131, lire en ligne, consulté le )
  26. Myunghoon Suk et Balakrishnan Prabhakaran, « Real-Time Facial Expression Recognition on Smartphones », 2015 IEEE Winter Conference on Applications of Computer Vision, IEEE,‎ (DOI 10.1109/wacv.2015.145, lire en ligne, consulté le )
  27. Katerina Tzafilkou, Anastasios A. Economides et Nikolaos Protogeros, « Mobile Sensing for Emotion Recognition in Smartphones: A Literature Review on Non-Intrusive Methodologies », International Journal of Human–Computer Interaction, vol. 38, no 11,‎ , p. 1037–1051 (ISSN 1044-7318 et 1532-7590, DOI 10.1080/10447318.2021979290, lire en ligne, consulté le )
  28. Asim Jan, Hongying Meng, Yona Falinie Binti A. Gaus et Fan Zhang, « Artificial Intelligent System for Automatic Depression Level Analysis Through Visual and Vocal Expressions », IEEE Transactions on Cognitive and Developmental Systems, vol. 10, no 3,‎ , p. 668–680 (ISSN 2379-8920 et 2379-8939, DOI 10.1109/tcds.2017.2721552, lire en ligne, consulté le )
  29. Mihalis A. Nicolaou, Stefanos Zafeiriou, Irene Kotsia et Guoying Zhao, « Editorial of Special Issue on Human Behaviour Analysis “In-the-Wild” », IEEE Transactions on Affective Computing, vol. 10, no 1,‎ , p. 4–6 (ISSN 1949-3045 et 2371-9850, DOI 10.1109/taffc.2019.2895141, lire en ligne, consulté le )
  30. (en) N. A. Lili, M. R. Nurul Amiraa, M. MasRina et N. Nurul Amelina, « Depression Level Detection from Facial Emotion Recognition Using Image Processing », {{Article}} : paramètre « périodique » manquant, Springer Singapore, vol. 835,‎ , p. 739–750 (ISBN 978-981-16-8514-9, DOI 10.1007/978-981-16-8515-6_56, lire en ligne, consulté le )
  31. Maya Mohan, A K Abhinav, Akarsh Ashok et A V Akhil, « Depression Detection using Facial Expression and Sentiment Analysis », {{Article}} : paramètre « périodique » manquant, IEEE,‎ , p. 1–6 (ISBN 978-1-7281-8402-9, DOI 10.1109/ASIANCON51346.2021.9544819, lire en ligne, consulté le )
  32. Yahui Nan, Jianguo Ju, Qingyi Hua et Haoming Zhang, « A-MobileNet: An approach of facial expression recognition », Alexandria Engineering Journal, vol. 61, no 6,‎ , p. 4435–4444 (ISSN 1110-0168, DOI 10.1016/j.aej.2021.09.066, lire en ligne, consulté le )
  33. Zhe Li, Tianfan Zhang, Xiao Jing et Youning Wang, « Facial expression-based analysis on emotion correlations, hotspots, and potential occurrence of urban crimes », Alexandria Engineering Journal, vol. 60, no 1,‎ , p. 1411–1420 (ISSN 1110-0168, DOI 10.1016/j.aej.2020.10.061, lire en ligne, consulté le )
  34. Kasiprasad Mannepalli, Panyam Narahari Sastry et Maloji Suman, « A novel Adaptive Fractional Deep Belief Networks for speaker emotion recognition », Alexandria Engineering Journal, vol. 56, no 4,‎ , p. 485–497 (ISSN 1110-0168, DOI 10.1016/j.aej.2016.09.002, lire en ligne, consulté le )
  35. Güray Tonguç et Betul Ozaydın Ozkara, « Automatic recognition of student emotions from facial expressions during a lecture », Computers & Education, vol. 148,‎ , p. 103797 (ISSN 0360-1315, DOI 10.1016/j.compedu.2019.103797, lire en ligne, consulté le )
  36. Sang‐Seok Yun, JongSuk Choi, Sung‐Kee Park et Gui‐Young Bong, « Social skills training for children with autism spectrum disorder using a robotic behavioral intervention system », Autism Research, vol. 10, no 7,‎ , p. 1306–1323 (ISSN 1939-3792 et 1939-3806, DOI 10.1002/aur.1778, lire en ligne, consulté le )
  37. H. Li, M. Sui, F. Zhao, Z. Zha, and F. Wu, “Mvt: Mask vision transformer for facial expression recognition in the wild,” arXiv preprint arXiv:2106.04520, 2021.
  38. Xingcan Liang, Linsen Xu, Wenxiang Zhang et Yan Zhang, « A convolution-transformer dual branch network for head-pose and occlusion facial expression recognition », The Visual Computer, vol. 39, no 6,‎ , p. 2277–2290 (ISSN 0178-2789 et 1432-2315, DOI 10.1007/s00371-022-02413-5, lire en ligne, consulté le )
  39. Mira Jeong et Byoung Chul Ko, « Driver's Facial Expression Recognition in Real-Time for Safe Driving », Sensors, vol. 18, no 12,‎ , p. 4270 (ISSN 1424-8220, DOI 10.3390/s18124270, lire en ligne, consulté le )
  40. Mohammad Rafayet Ali, Taylor Myers, Ellen Wagner et Harshil Ratnu, « Retraction Note: Facial expressions can detect Parkinson's disease: preliminary evidence from videos collected online », npj Digital Medicine, vol. 6, no 1,‎ (ISSN 2398-6352, DOI 10.1038/s41746-023-00761-7, lire en ligne, consulté le )
  41. Bhakti Sonawane et Priyanka Sharma, « Review of automated emotion-based quantification of facial expression in Parkinson's patients », The Visual Computer, vol. 37, no 5,‎ , p. 1151–1167 (ISSN 0178-2789 et 1432-2315, DOI 10.1007/s00371-020-01859-9, lire en ligne, consulté le )
  42. Young-Shin Lee et Won-Hyung Park, « Diagnosis of Depressive Disorder Model on Facial Expression Based on Fast R-CNN », Diagnostics, vol. 12, no 2,‎ , p. 317 (ISSN 2075-4418, DOI 10.3390/diagnostics12020317, lire en ligne, consulté le )
  43. Mengqian Li, Yuan Liu, Yan Liu et Changqin Pu, « Resting-state EEG-based convolutional neural network for the diagnosis of depression and its severity », Frontiers in Physiology, vol. 13,‎ (ISSN 1664-042X, PMID 36299253, PMCID PMC9589234, DOI 10.3389/fphys.2022.956254, lire en ligne, consulté le )
  44. (en) Betul Ay, Ozal Yildirim, Muhammed Talo et Ulas Baran Baloglu, « Automated Depression Detection Using Deep Representation and Sequence Learning with EEG Signals », Journal of Medical Systems, vol. 43, no 7,‎ (ISSN 0148-5598 et 1573-689X, DOI 10.1007/s10916-019-1345-y, lire en ligne, consulté le )
  45. (en) Mahdi Mohammadi, Fadwa Al-Azab, Bijan Raahemi et Gregory Richards, « Data mining EEG signals in depression for their diagnostic value », BMC Medical Informatics and Decision Making, vol. 15, no 1,‎ (ISSN 1472-6947, PMID 26699540, PMCID PMC4690290, DOI 10.1186/s12911-015-0227-6, lire en ligne, consulté le )
  46. (en) Yujie Li, Yingshan Shen, Xiaomao Fan et Xingxian Huang, « A novel EEG-based major depressive disorder detection framework with two-stage feature selection », BMC Medical Informatics and Decision Making, vol. 22, no 1,‎ (ISSN 1472-6947, PMID 35933348, PMCID PMC9357341, DOI 10.1186/s12911-022-01956-w, lire en ligne, consulté le )
  47. (en) Shih-Cheng Liao, Chien-Te Wu, Hao-Chuan Huang et Wei-Teng Cheng, « Major Depression Detection from EEG Signals Using Kernel Eigen-Filter-Bank Common Spatial Patterns », Sensors, vol. 17, no 6,‎ , p. 1385 (ISSN 1424-8220, PMID 28613237, PMCID PMC5492453, DOI 10.3390/s17061385, lire en ligne, consulté le )
  48. (en) Georg Starke, Eva De Clercq, Stefan Borgwardt et Bernice Simone Elger, « Computing schizophrenia: ethical challenges for machine learning in psychiatry », Psychological Medicine, vol. 51, no 15,‎ , p. 2515–2521 (ISSN 0033-2917 et 1469-8978, DOI 10.1017/S0033291720001683, lire en ligne, consulté le )
  49. (en) Christophe Gauld, Jean-Arthur Micoulaud-Franchi et Guillaume Dumas, « Comment on Starke et al.: ‘Computing schizophrenia: ethical challenges for machine learning in psychiatry': from machine learning to student learning: pedagogical challenges for psychiatry », Psychological Medicine, vol. 51, no 14,‎ , p. 2509–2511 (ISSN 0033-2917 et 1469-8978, DOI 10.1017/S0033291720003906, lire en ligne, consulté le )
  50. (en) Daniel Nixon, Viswanatha Vanjre Mallappa, Vishwanath Petli et Sangamesh HosgurMath, « A novel AI therapy for depression counseling using face emotion techniques », Global Transitions Proceedings, vol. 3, no 1,‎ , p. 190–194 (DOI 10.1016/j.gltp.2022.03.008, lire en ligne, consulté le )
  51. Maria Egger, Matthias Ley et Sten Hanke, « Emotion Recognition from Physiological Signal Analysis: A Review », Electronic Notes in Theoretical Computer Science, vol. 343,‎ , p. 35–55 (ISSN 1571-0661, DOI 10.1016/j.entcs.2019.04.009, lire en ligne, consulté le )
  52. « La révolution numérique en psychiatrie : un tournant vers une médecine de précision », sur Fondation FondaMental (consulté le )
  53. a b et c Guillaume Fond, Stéphanie Miot. [Nanopsychiatry. The potential role of nanotechnologies in the future of psychiatry. A systematic review.]. L'Encéphale, 2013, 39 (4), pp.252-257. ff10.1016/j.encep.2013.02.002ff. ffinserm-00813605f
  54. (en) Thomas R. Insel, « Digital phenotyping: a global tool for psychiatry », World Psychiatry, vol. 17, no 3,‎ , p. 276–277 (ISSN 1723-8617 et 2051-5545, PMID 30192103, PMCID PMC6127813, DOI 10.1002/wps.20550, lire en ligne, consulté le )
  55. (en) Zainab Jan, Noor AI-Ansari, Osama Mousa et Alaa Abd-alrazaq, « The Role of Machine Learning in Diagnosing Bipolar Disorder: Scoping Review », Journal of Medical Internet Research, vol. 23, no 11,‎ , e29749 (ISSN 1438-8871, PMID 34806996, PMCID PMC8663682, DOI 10.2196/29749, lire en ligne, consulté le )
  56. a et b Christos Hadjipanayi, Domna Banakou et Despina Michael-Grigoriou, « Art as therapy in virtual reality: A scoping review », Frontiers in Virtual Reality, vol. 4,‎ (ISSN 2673-4192, DOI 10.3389/frvir.2023.1065863, lire en ligne, consulté le )
  57. Pissini J (2020). Embodied by design: The presence of creativity, art-making, and self in virtual reality. PhD thesis. Université de Columbus (Ohio)
  58. Stéphanie Bertrand, Martha Vassiliadi, Paul Zikas et Efstratios Geronikolakis, « From Readership to Usership: Communicating Heritage Digitally Through Presence, Embodiment and Aesthetic Experience », Frontiers in Communication, vol. 6,‎ (ISSN 2297-900X, DOI 10.3389/fcomm.2021.676446, lire en ligne, consulté le )
  59. (en) Nick Yee et Jeremy Bailenson, « The Proteus Effect: The Effect of Transformed Self-Representation on Behavior », Human Communication Research, vol. 33, no 3,‎ , p. 271–290 (ISSN 0360-3989 et 1468-2958, DOI 10.1111/j.1468-2958.2007.00299.x, lire en ligne, consulté le )
  60. (en) Domna Banakou, Raphaela Groten et Mel Slater, « Illusory ownership of a virtual child body causes overestimation of object sizes and implicit attitude changes », Proceedings of the National Academy of Sciences, vol. 110, no 31,‎ , p. 12846–12851 (ISSN 0027-8424 et 1091-6490, PMID 23858436, PMCID PMC3732927, DOI 10.1073/pnas.1306779110, lire en ligne, consulté le )
  61. (en) Lara Maister, Mel Slater, Maria V. Sanchez-Vives et Manos Tsakiris, « Changing bodies changes minds: owning another body affects social cognition », Trends in Cognitive Sciences, vol. 19, no 1,‎ , p. 6–12 (DOI 10.1016/j.tics.2014.11.001, lire en ligne, consulté le )
  62. (en) Domna Banakou, Alejandro Beacco, Solène Neyret et Marta Blasco-Oliver, « Virtual body ownership and its consequences for implicit racial bias are dependent on social context », Royal Society Open Science, vol. 7, no 12,‎ , p. 201848 (ISSN 2054-5703, PMID 33489296, PMCID PMC7813259, DOI 10.1098/rsos.201848, lire en ligne, consulté le )
  63. (en) Christos Hadjipanayi et Despina Michael-Grigoriou, « Arousing a wide range of emotions within educational virtual reality simulation about major depressive disorder affects knowledge retention », Virtual Reality, vol. 26, no 1,‎ , p. 343–359 (ISSN 1359-4338 et 1434-9957, DOI 10.1007/s10055-021-00568-5, lire en ligne, consulté le )
  64. (en) Sofia Adelaide Osimo, Rodrigo Pizarro, Bernhard Spanlang et Mel Slater, « Conversations between self and self as Sigmund Freud—A virtual body ownership paradigm for self counselling », Scientific Reports, vol. 5, no 1,‎ (ISSN 2045-2322, PMID 26354311, PMCID PMC4564809, DOI 10.1038/srep13899, lire en ligne, consulté le )
  65. (en) Mel Slater, Solène Neyret, Tania Johnston et Guillermo Iruretagoyena, « An experimental study of a virtual reality counselling paradigm using embodied self-dialogue », Scientific Reports, vol. 9, no 1,‎ (ISSN 2045-2322, PMID 31358846, PMCID PMC6662659, DOI 10.1038/s41598-019-46877-3, lire en ligne, consulté le )