Eliezer Yudkowsky

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Eliezer Yudkowsky
Description de cette image, également commentée ci-après

Eliezer Yudkowsky au Singularity Summit (en) de Stanford en 2006

Naissance (37 ans)
Auteur
Langue d’écriture anglais

Eliezer Shlomo Yudkowsky (né le 11 septembre 1979) est un blogueur et écrivain américain, créateur et promoteur du concept d'intelligence artificielle « amicale ».

Biographie[modifier | modifier le code]

Eliezer Yudkowsky a participé très tôt à Internet ; il a écrit à ce sujet : « Vous devriez considérer que tout ce qui date d'avant 2001 a été écrit par une autre personne qui se trouve s'appeler aussi “Eliezer Yudkowsky” ; je ne partage pas ses opinions[1] ».

Il habite près de Berkeley, dans la région de la baie de San Francisco (San Francisco Bay Area). Largement autodidacte[2]:38, il est co-fondateur de l'organisation à but non lucratif Machine Intelligence Research Institute (auparavant, le Singularity Institute for Artificial Intelligence) en 2000 et continue à y être employé en tant que chercheur postdoctoral (Research Fellow) à plein temps[3]:599.

Travaux[modifier | modifier le code]

Les centres d'intérêt de Yudkowsky en Intelligence artificielle sont la théorie de la conscience (self-awareness (en)), et la notion d'amélioration récursive (en), ainsi que la théorie de la décision appliquée à des structures de motivation stables, et en particulier la notion d'intelligence artificielle amicale[3]:420. Ses travaux les plus récents portent sur les applications au paradoxe de Newcomb et à des problèmes analogues.

Yudkowsky a été, avec Robin Hanson, l'un des principaux contributeurs du blog Overcoming Bias[4], lequel a reçu le parrainage du Future of Humanity Institute de l'université d'Oxford. En février 2009, il a aidé à fonder LessWrong[5], un « blog collectif dédié à l'amélioration des outils de la rationalité »[2]:37. LessWrong a reçu une critique détaillée dans Business Insider[6], et les concepts centraux en ont été analysés dans des articles du Guardian[7],[8]. D'autre part, LessWrong a été mentionné dans des articles traitant de la singularité technologique et des travaux du Machine Intelligence Research Institute[9], ainsi que dans des articles sur des mouvements monarchistes et néo-réactionnaires en ligne[10].

Yudkowsky a contribué à deux chapitres[11] de Global Catastrophic Risks, un ouvrage publié par Nick Bostrom (philosophe à l'université d'Oxford) et Milan Ćirković[12].

Fanfiction[modifier | modifier le code]

Yudkowsky a aussi écrit plusieurs ouvrages de science-fiction ainsi que des textes moins classables[13]. Sa vaste fanfiction, Harry Potter and the Methods of Rationality, illustre des concepts venus des sciences cognitives et des théories de la rationalité[2]:37,[14],[15],[16],[17],[18],[19],[20] ; The New Yorker l'a décrite comme « une réécriture de l'histoire originale montrant Harry cherchant à expliquer la sorcellerie à l'aide de la méthode scientifique »[21].

Notes et références[modifier | modifier le code]

  1. (en) Site personnel d'Eliezer Yudkowsky
  2. a, b et c (en) Singularity Rising, par James Miller
  3. a et b (en) Ray Kurzweil, The Singularity Is Near, New York, US, Viking Penguin, (ISBN 0-670-03384-7)
  4. (en) « Overcoming Bias: About », Robin Hanson (consulté le 1er février 2012)
  5. (en) « Where did Less Wrong come from? (LessWrong FAQ) » (consulté le 11 septembre 2014)
  6. (en) James Miller, « You Can Learn How To Become More Rational », Business Insider, (consulté le 25 mars 2014)
  7. (en) Oliver Burkeman (en), « This column will change your life: Feel the ugh and do it anyway. Can the psychological flinch mechanism be beaten », The Guardian, (consulté le 25 mars 2014)
  8. (en) Oliver Burkeman, « This column will change your life: asked a tricky question? Answer an easier one. We all do it, all the time. So how can we get rid of this eccentricity? », The Guardian, (consulté le 25 mars 2014)
  9. (en) Natasha Tiku, « Faith, Hope, and Singularity: Entering the Matrix with New York's Futurist Set It's the end of the world as we know it, and they feel fine. », BetaBeat, (consulté le 25 mars 2014)
  10. (en) Klint Finley, « Geeks for Monarchy: The Rise of the Neoreactionaries », TechCrunch, (consulté le 25 mars 2014)
  11. (en) Cognitive Biases Potentially Affecting Judgment of Global Risks et Artificial Intelligence as a Positive and Negative Factor in Global Risk
  12. (en) Nick Bostrom et Milan M. Ćirković, Global Catastrophic Risks, Oxford, UK, Oxford University Press, , 91–119, 308–345 p. (ISBN 978-0-19-857050-9)
  13. (en) Liste de ses ouvrages non techniques
  14. (en) David Brin, « CONTRARY BRIN: A secret of college life... plus controversies and science! », Davidbrin.blogspot.com, (consulté le 31 août 2012)
  15. (en) "'Harry Potter' and the Key to Immortality", Daniel Snyder, The Atlantic
  16. (en) « Rachel Aaron interview (April 2012) », Fantasybookreview.co.uk, (consulté le 31 août 2012)
  17. (en) « Civilian Reader: An Interview with Rachel Aaron », Civilian-reader.blogspot.com, (consulté le 31 août 2012)
  18. (en) Robin Hanson, « Hyper-Rational Harry », Overcoming Bias, (consulté le 31 août 2012)
  19. (en) Aaron Swartz, « The 2011 Review of Books (Aaron Swartz's Raw Thought) », archive.org (consulté le 10 avril 2013)
  20. (en) « Harry Potter and the Methods of Rationality », Esr.ibiblio.org, (consulté le 31 août 2012)
  21. (en) "No Death, No Taxes: The libertarian futurism of a Silicon Valley billionaire" ; article centré sur les activités de Peter Thiel, ami de Yudkowsky.

Publications[modifier | modifier le code]

Les textes suivants de Eliezer Yudkowsky ont été publiés (en anglais) par le Machine Intelligence Research Institute :

Voir aussi[modifier | modifier le code]

  • (en) Douglas Mulhall, Our Molecular Future : How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World, , p. 321
  • (en) Damien Broderick, The Spike : How Our Lives Are Being Transformed By Rapidly Advancing Technologies, , pp. 236, 265–272, 289, 321, 324, 326, 337–339, 345, 353, 370

Liens externes[modifier | modifier le code]