Dan Hendrycks

Un article de Wikipédia, l'encyclopédie libre.
Dan Hendrycks
une illustration sous licence libre serait bienvenue
Biographie
Formation
Activité
Autres informations
Site web

Dan Hendrycks est un chercheur américain en apprentissage automatique. Il dirige le Center for AI Safety[1].

Éducation[modifier | modifier le code]

Hendrycks a obtenu un BSc de l'Université de Chicago en 2018 et un doctorat en informatique de l'Université de Californie à Berkeley en 2022[2].

Carrière et recherche[modifier | modifier le code]

Les recherches de Hendrycks se concentrent sur des sujets tels que la robustesse et la sûreté de l'IA ou l'éthique des machines.

En février 2022, Hendrycks a coécrit des recommandations pour le NIST aux États-Unis, afin d'informer la gestion des risques liés à l'intelligence artificielle[3],[4].

En septembre 2022, Hendrycks a rédigé un article fournissant un cadre pour analyser l'impact de la recherche en IA sur les risques sociétaux[5],[6]. Il a ensuite publié en mars 2023 un article examinant comment la sélection naturelle et les pressions compétitives pourraient façonner les objectifs des agents artificiels[7],[8],[9]. Plus tard, il copublie un article sur les risques catastrophiques liés à l'IA, qui traite de quatre catégories de risques : l'utilisation malveillante, les dynamique de course à l'IA, les risques organisationnels et les IAs aux objectifs mal alignés[10],[11].

En juillet 2023, Hendrycks est choisi pour conseiller la nouvelle entreprise xAI lancée par Elon Musk[12].

Hendrycks fait partie de la liste des 100 personnalités les plus influentes en intelligence artificielle publiée par le magazine Time en septembre 2023[13].

Notes et références[modifier | modifier le code]

  1. Fleur Brosseau, « Le « risque d’extinction » lié à l’IA est bien réel, selon les acteurs du secteur », sur Trust My Science, (consulté le )
  2. (en) « Dan Hendrycks », people.eecs.berkeley.edu (consulté le )
  3. (en) « Nvidia moves into A.I. services and ChatGPT can now use your credit card », Fortune (consulté le )
  4. (en) « Request for Information to the Update of the National Artificial Intelligence Research and Development Strategic Plan: Responses », National Artificial Intelligence Initiative,
  5. (en-US) Gendron, « An AI safety expert outlined a range of speculative doomsday scenarios, from weaponization to power-seeking behavior », Business Insider (consulté le )
  6. (en) Dan Hendrycks et Mantas Mazeika, « X-Risk Analysis for AI Research », .
  7. (en) Dan Hendrycks, « Natural Selection Favors AIs over Humans », .
  8. (en-US) Colton, « AI could go 'Terminator,' gain upper hand over humans in Darwinian rules of evolution, report warns », Fox News, (consulté le )
  9. (en-US) Ezra Klein, « Why A.I. Might Not Take Your Job or Supercharge the Economy », The New York Times,‎ (lire en ligne, consulté le )
  10. (en) Dan Hendrycks, Mantas Mazeika et Thomas Woodside, « An Overview of Catastrophic AI Risks », .
  11. David Scharfenberg, « Dan Hendrycks wants to save us from an AI catastrophe. He's not sure he'll succeed. », The Boston Globe,‎ (lire en ligne, consulté le )
  12. RPB, « Elon Musk lance xAI pour rivaliser avec ChatGPT », sur Presse-citron, (consulté le )
  13. (en) « TIME100 AI 2023: Dan Hendrycks », sur Time, (consulté le )