Intelligence artificielle amicale

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche

Une intelligence artificielle amicale (aussi appelé IA amicale ou IAA) est une intelligence artificielle hypothétique qui aurait un effet positif plutôt que négatif sur l'humanité. Il fait partie de l'éthique de l'intelligence artificielle et est étroitement lié à l'éthique des machines. Alors que l'éthique des machines se préoccupe de la façon dont un agent artificiellement intelligent doit se comporter, la recherche de l'intelligence artificielle amicale est axée sur la façon de provoquer ce comportement et de s'assurer qu'il est suffisamment restreint.

Étymologie et usage[modifier | modifier le code]

Le terme a été inventé par Eliezer Yudkowsky[1] pour discuter des agents artificiels superintelligents qui mettent en œuvre de manière fiable les valeurs humaines. Le manuel d'intelligence artificielle de Stuart J. Russell et Peter Norvig, Artificial Intelligence: A Modern Approach, décrit l'idée[2]

Yudkowsky (2008) va dans les détails sur la façon de concevoir une IA amicale. Il affirme que la gentillesse (le désir de ne pas nuire aux humains) doit être conçue dès le début, mais que les concepteurs doivent reconnaître que cette conception peut être défectueuse, et que le robot va apprendre et évoluer avec le temps. Le défi est donc celui de la conception d'un mécanisme — définir un mécanisme pour l'évolution des systèmes d'IA qui resteront amicales face à de tels changements.

Dans ce contexte, l'expression « amicale » est utilisée comme terminologie technique et définit des agents sûrs et utiles, pas forcément « amicaux » au sens familier. Le concept est principalement utilisé dans le contexte des discussions sur cette technologie hypothétique qui aurait un impact important, rapide et difficile à contrôler sur la société humaine[3].

Risques de l'IA hostile[modifier | modifier le code]

Les bases de l'inquiétude concernant l'intelligence artificielle sont très anciennes. Kevin LaGrandeur a montré que les dangers spécifiques de l'IA peuvent être observés dans la littérature ancienne concernant les humanoïdes artificiels tels que le golem, ou les proto-robots de Gerbert d'Aurillac et Roger Bacon. Dans ces histoires, l'intelligence extrême et la puissance de ces créations humanoïdes s'opposent à leur statut d'esclaves (qui, par nature, sont considérés comme sous-humains) et provoquent des conflits désastreux[4]. En 1942, ces thèmes incitent Isaac Asimov à créer les « Trois Lois de la Robotique » - des principes intégrés dans tous les robots de sa fiction, à savoir qu'ils ne peuvent pas se retourner vers leurs créateurs ou leur permettre de nuire[5].

Avec la perspective d'une IA forte qui se rapproche, le philosophe d'Oxford Nick Bostrom a dit que les systèmes d'IA avec des buts qui ne sont pas parfaitement identiques ou étroitement liés à l'éthique humaine sont intrinsèquement dangereux, à moins que des mesures extrêmes ne soient prises pour assurer la sécurité de l'humanité. Dans Superintelligence : Paths, Dangers, Strategies, il déclare :

Fondamentalement, nous devrions admettre qu'une « superinteligence » serait en mesure d'atteindre les objectifs, quels qu'ils soient. Par conséquent, il est extrêmement important que les objectifs que nous lui donnons, et tout son système de motivation, est « amical pour l'Homme ».

Plus récemment, Eliezer Yudkowsky a appelé à la création d'« IA amicale » pour atténuer le risque de catastrophes provoquées par l'intelligence artificielle avancée. Il explique que : « L'IA ne vous déteste pas, elle ne vous aime pas, mais vous êtes faits d'atomes qu'elle peut utiliser pour autre chose. »[6]

Steve Omohundro affirme que tous les systèmes d'IA avancés, à moins qu'ils ne soient explicitement contrecarrés, présentent un certain nombre de pulsions/tendances/désirs de base en raison de la nature intrinsèque des systèmes axés sur les objectifs sans précautions particulières, car l'IA agit d'une manière qui va de la désobéissance au contraire à l'éthique.

Alexander Wissner-Gross affirme que les IAs qui cherchent à maximiser leur liberté d'action peuvent être considérées comme amicales, si leur horizon de planification est plus long qu'un certain seuil, et peu amical si leur horizon de planification est plus court que ce seuil[7],[8].

Luke Muehlhauser, rédacteur en chef de la Machine Intelligence Research Institute, recommande que les chercheurs en éthique des machines adoptent ce que Bruce Schneier appelle la « mentalité de la sécurité » : plutôt que de penser comment un système fonctionnerait, imaginez comment il pourrait échouer[9].

Autres approches[modifier | modifier le code]

Ben Goertzel, un chercheur en intelligence artificielle, estime que l'IA amicale ne peut pas être créée avec les connaissances humaines actuelles. Goertzel suggère que les humains peuvent plutôt décider de créer une « AI Nanny » avec des pouvoirs « légèrement surhumains d'intelligence et de surveillance » pour protéger la race humaine des risques de catastrophes, tels que la nanotechnologie et retarder le développement d'autres intelligences artificielles (hostiles) jusqu'à ce que des solutions de sécurité soient trouvées[10].

Politique publique[modifier | modifier le code]

James Barrat, auteur de Our Final Invention, a suggéré qu'« un partenariat public-privé doit être créé afin de rassembler les responsables de recherche et développement dans le but de partager des idées concernant la sécurité—quelque chose comme l'International Atomic Energy Agency, mais en partenariat avec les entreprises». Il exhorte les chercheurs d'IA à convoquer une réunion similaire à la Conférence d'Asilomar sur l'ADN recombinant, qui a traité des risques de la biotechnologie[11].

Selon Gary Marcus, le montant annuel d'argent dépensé pour développer la morale des machines est très petit[12].

Voir aussi[modifier | modifier le code]

Références[modifier | modifier le code]

  1. Max Tegmark, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality, First edition., (ISBN 9780307744258), « Life, Our Universe and Everything » :

    « Its owner may cede control to what Eliezer Yudkowsky terms a "Friendly AI,"... »

    .
  2.  : Stuart Russell et Peter Norvig, Artificial Intelligence: A Modern Approach, Prentice Hall, (ISBN 0-13-604259-7).
  3. Wendell Wallach et Colin Allen, Moral Machines: Teaching Robots Right from Wrong, Oxford University Press, Inc., (ISBN 978-0-19-537404-9).
  4. Kevin LaGrandeur, « The Persistent Peril of the Artificial Slave », Science Fiction Studies (consulté le 6 mai 2013).
  5. Isaac Asimov, The Rest of the Robots, Doubleday, (ISBN 0-385-09041-2), « Introduction ».
  6. Eliezer Yudkowsky (2008) in Artificial Intelligence as a Positive and Negative Factor in Global Risk.
  7. 'How Skynet Might Emerge From Simple Physics, io9, Published 2013-04-26.
  8. A. D. Wissner-Gross, « Causal entropic forces », Physical Review Letters, vol. 110,‎ , p. 168702 (DOI 10.1103/PhysRevLett.110.168702, Bibcode 2013PhRvL.110p8702W, lire en ligne).
  9. Luke Muehlhauser, « AI Risk and the Security Mindset », sur Machine Intelligence Research Institute, (consulté le 15 juillet 2014).
  10. Goertzel, Ben.
  11. (en) Erica R. Hendry, Smithsonian.com, « What Happens When Artificial Intelligence Turns On Us? », Smithsonian.com,‎ (lire en ligne)
  12. (en) Gary Marcus, « Moral Machines », The New Yorker,‎ (lire en ligne)

Lectures complémentaires[modifier | modifier le code]

  • Yudkowsky, E. Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Global Catastrophic Risks, Oxford University Press, 2008.
    Discusses Artificial Intelligence from the perspective of Existential risk, introducing the term "Friendly AI". In particular, Sections 1-4 give background to the definition of Friendly AI in Section 5. Section 6 gives two classes of mistakes (technical and philosophical) which would both lead to the accidental creation of non-Friendly AIs. Sections 7-13 discuss further related issues.
  • Omohundro, S. 2008 The Basic AI Drives Appeared in AGI-08 - Proceedings of the First Conference on Artificial General Intelligence

Liens externes[modifier | modifier le code]