Aller au contenu

Utilisateur:Alenoach/Conscience artificielle

Une page de Wikipédia, l'encyclopédie libre.

La conscience artificielle[1], également connue sous le nom de conscience des machine ou de conscience synthétique, est un domaine de recherche visant à comprendre, modéliser ou tester la potentielle conscience dans les intelligences artificielles.

La conscience artificielle a également été étudiée en philosophie de l'intelligence artificielle.[2]

Points de vue philosophiques[modifier | modifier le code]

Il y a différents conscience. Dans la littérature philosophique, on distingue souvent en particulier la conscience « d'accès » et la conscience « phénoménale ». La conscience d'accès concerne les aspects de l'expérience qui permettent d'agir rationnellement et sui, selon David Chalmers, est « directement disponible pour un contrôle global ».[3] Tandis que la conscience phénoménale, aussi appelée qualia, correspond au ressenti subjectif ( Block 1997 ).

Débat sur la plausibilité[modifier | modifier le code]

Les théoriciens de l'identité esprit-cerveau et d'autres sceptiques soutiennent que la conscience ne peut être réalisée que dans des systèmes physiques particuliers parce que la conscience a des propriétés qui dépendent nécessairement de la constitution physique.[4],[5]

Selon Giorgio Buttazzo, une objection courante à la conscience artificielle est que « Travaillant en mode entièrement automatisé, ils [les ordinateurs] ne peuvent pas faire preuve de créativité, [...], d'émotions ou de libre arbitre. Un ordinateur, comme une machine à laver, est un esclave actionné par ses composants."[6]

Selon les fonctionnalistes cependant, la sentience est causée par certains types de traitement de l'information (de « rôles causaux »). Peu importe alors que le support physique de ce traitement de l'information soit biologique ou non.[7]

L'un des arguments les plus explicites en faveur de la conscience artificielle vient de David Chalmers. Il considère que les bons types de calculs sont suffisants pour la possession d'un esprit conscient. Dans l'esquisse, il défend ainsi sa demande : Les ordinateurs effectuent des calculs. Les calculs peuvent capturer l'organisation causale abstraite d'autres systèmes.

Éthique[modifier | modifier le code]

Si l'on soupçonnait qu'une machine particulière soit consciente, la question de ses droits deviendrait un problème éthique et légal. Mais la question de la conscience artificielle restant encore très abstraite et controversée, ces aspects éthiques ont reçu peu d'attention.

En 2021, le philosophe allemand Thomas Metzinger a plaidé pour un moratoire mondial sur la phénoménologie synthétique (un pause de la création d'IAs sentientes) jusqu'en 2050. Metzinger affirme que les humains ont un devoir de diligence envers toute IA sentiente qu'ils créent, et qu'aller trop vite risque de créer une « explosion de souffrance artificielle ».[8]

Méthodes de test[modifier | modifier le code]

La méthode la plus connue pour tester l'intelligence des machines est le test de Turing. Mais le test de Turing est rarement utilisé en pratique, notamment parce que pour être efficace, l'IA devrait imiter les diverses imperfections du comportement humain, et éviter d'être trop intelligente là où l'humain ne l'est pas.

D'autres tests, comme ConsScale, testent la présence de caractéristiques inspirées de systèmes biologiques, ou mesurent le développement cognitif de systèmes artificiels.

La conscience phénoménologique, ou qualia, est un phénomène intrinsèquement subjectif. Bien que divers comportement y soient corrélés, il n'existe à priori aucun moyen de tester directement la présence de qualia à la troisième personne. À cause de cela, et parce qu'il n'y a pas de définition empirique de la conscience,[9] il est peut être impossible de tester le qualia.

En 2014, Victor Argonov a suggéré un test de « non-Turing » pour la conscience artificiel, basé sur la capacité de la machine à produire des jugements philosophiques.[10] Il soutient qu'une machine déterministe doit être considérée comme consciente si elle est capable de produire des jugements sur toutes les propriétés problématiques de la conscience (telles que le qualia), en n'ayant aucune connaissance philosophique innée (préchargée) sur ces questions, aucune discussion philosophique pendant l'apprentissage, et aucun modèle informationnel d'autres créatures dans sa mémoire (de tels modèles peuvent implicitement ou explicitement contenir des connaissances sur la conscience de ces créatures). Cependant, ce test ne peut être utilisé que pour détecter, mais pas pour réfuter l'existence de la conscience. Un résultat positif prouve selon lui que la machine est consciente, mais un résultat négatif ne prouve rien. Par exemple, l'absence de jugements philosophiques peut être causée par le manque d'intellect de la machine plutôt que par l'absence de conscience.

En 2022, un ingénieur de Google nommé Blake Lemoine a fait une affirmation virale selon laquelle le chatbot LaMDA de Google était sentient. Lemoine a fourni comme preuve les réponses humaines du chatbot à plusieurs de ses questions. Cependant, le comportement du chatbot a été jugé par la communauté scientifique comme étant probablement une conséquence du mimétisme, plutôt que de la conscience de la machine. L'affirmation de Lemoine a été largement tournée en dérision.[11] Le philosophe Nick Bostrom a déclaré qu'il pensait que LaMDA n'était probablement pas conscient, mais a demandé comment on pourrait en être sûr. Il faudrait avoir accès à des informations non publiées sur l'architecture de LaMDA, et aussi comprendre comment fonctionne la conscience, puis trouver comment faire le lien entre la théorie philosophique et la machine : « (En l'absence de ces étapes), il semble que l'on doive être peut-être un peu incertain... il pourrait bien y avoir d'autres systèmes, maintenant ou dans un futur relativement proche, qui commenceraient à satisfaire les critères. »[12]

En 2022, David Chalmers s'intéresse à la question de la potentielle sentience des grands modèles de langage, qu'il estime personnellement avoir 10% de chances d'être sentients.[13] [[Catégorie:Conscience]] [[Catégorie:Intelligence artificielle]]

  1. Thaler, « The emerging intelligence and its critical look at us », Journal of Near-Death Studies, vol. 17, no 1,‎ , p. 21–29 (DOI 10.1023/A:1022990118714, S2CID 49573301)
  2. Stuart J. Russell et Peter Norvig, Artificial intelligence: a modern approach ; [the intelligent agent book], Prentice Hall, coll. « Prentice Hall series in artificial intelligence », (ISBN 978-0-13-790395-5)
  3. « Availability: The Cognitive Basis of Experience? », sur consc.net (consulté le )
  4. Schlagel, « Why not artificial consciousness or thought? », Minds and Machines, vol. 9, no 1,‎ , p. 3–28 (DOI 10.1023/a:1008374714117, S2CID 28845966)
  5. Searle, « Minds, brains, and programs », Behavioral and Brain Sciences, vol. 3, no 3,‎ , p. 417–457 (DOI 10.1017/s0140525x00005756, S2CID 55303721, lire en ligne)
  6. Computer, Institute of Electrical and Electronics Engineers (IEEE) (lire en ligne) :

    « Working in a fully automated mode, they [the computers] cannot exhibit creativity, unreprogrammation (which means can no longer be reprogrammed, from rethinking), emotions, or free will. A computer, like a washing machine, is a slave operated by its components. »

  7. Riccardo Manzotti et Antonio Chella, « Good Old-Fashioned Artificial Consciousness and the Intermediate Level Fallacy », Frontiers in Robotics and AI, vol. 5,‎ (ISSN 2296-9144, DOI 10.3389/frobt.2018.00039/full, lire en ligne, consulté le )
  8. Metzinger, « Artificial Suffering: An Argument for a Global Moratorium on Synthetic Phenomenology », Journal of Artificial Intelligence and Consciousness, vol. 08,‎ , p. 43–66 (DOI 10.1142/S270507852150003X, S2CID 233176465) :

    « explosion of artificial suffering »

  9. "Consciousness". In Honderich T. The Oxford companion to philosophy. Oxford University Press. (ISBN 978-0-19-926479-7)
  10. (en) Victor Argonov, « Experimental Methods for Unraveling the Mind-body Problem: The Phenomenal Judgment Approach », Journal of Mind and Behavior, vol. 35,‎ , p. 51–70 (lire en ligne)
  11. (en-GB) Amelia Tait, « ‘I am, in fact, a person’: can artificial intelligence ever be sentient? », The Observer,‎ (ISSN 0029-7712, lire en ligne, consulté le )
  12. (en-US) Sam Leith, « Nick Bostrom: How can we be certain a machine isn’t conscious? », sur The Spectator, (consulté le ) : « (In the absence of these steps), it seems like one should be maybe a little bit uncertain... there could well be other systems now, or in the relatively near future, that would start to satisfy the criteria. »
  13. (en) « AI could have 20% chance of sentience in 10 years, says philosopher David Chalmers », sur ZDNET (consulté le )