Timnit Gebru

Un article de Wikipédia, l'encyclopédie libre.
Timnit Gebru
Image dans Infobox.
Biographie
Nationalité
Formation
Activités
Autres informations
A travaillé pour
Domaines
Directeur de thèse
Site web
Œuvres principales
Black in AI (d), On the Dangers of Stochastic Parrots (d)Voir et modifier les données sur Wikidata

Timnit Gebru est une chercheuse spécialisée dans l'éthique de l'intelligence artificielle et notamment les biais algorithmiques.

Timnit Gebru est née à Addis-Abeba, Éthiopie. Elle émigre aux États-Unis à 16 ans et est admise à l'université Stanford[1], où elle poursuit des études en génie électrique. Elle obtient son doctorat en informatique dans le laboratoire d'intelligence artificielle de Stanford, avec Fei-Fei Li, en 2017[2]. Elle effectue ensuite un post-doctorat à Microsoft, dans le laboratoire FATE (Fairness, Accountability, Transparency and Ethics in AI), dédié à l'égalité, la transparence et l'éthique en intelligence artificielle[2].

Pendant sa thèse, Gebru co-fonde Black in AI, une organisation qui vise à augmenter la représentativité des personnes noires dans le domaine de l'intelligence artificielle[1].

Elle est notamment l'auteure avec Joy Buolamwini de l'étude Gender Shades qui montre les biais des algorithmes de reconnaissance faciale qui reconnaissent moins facilement les personnes de couleur[3]. En particulier, les femmes noires ont 35% moins de chances d'être reconnues que des hommes blancs[4]. L'étude a des conséquences pratiques importantes sur les recommandations et interdictions des systèmes de reconnaissance faciale aux états-unis.

Dans un article de 2018[5], Gebru et ses co-auteurs étudient les conditions de création et de maintenance des ensemble de données utilisés en apprentissage artificiel, et notent le manque de standardisation de la documentation de ces données. Plus généralement, Gebru s'interroge sur le fait que des questions comme: « cette tâche a-t-elle un sens ?  », À qui appartiennent les données ?, « comment sont-elles utilisées ? » ne sont que rarement posées, et que ce sont des questions sociales et non technologiques[6].

En décembre 2020, elle est licenciée par son employeur Google. Elle affirme que ce licenciement fait suite aux critiques qu'elle a émises sur la politique de recrutement des minorités de Google et les biais des systèmes d'intelligence artificielle[7]. Google conteste en répondant que son départ fait suite à un ultimatum de sa part[8],[9].

Publications[modifier | modifier le code]

  • (en) Emily Bender, Timnit Gebru, Angelina McMillan-Major et Shmargaret Shmitchell, « On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 », FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency,‎ , p. 610–623 (DOI 10.1145/3442188.3445922)

Notes et références[modifier | modifier le code]

  1. a et b « ai-innovators-how-one-woman-followed-her-passion-and-brought-diversity-to-ai »
  2. a et b « Understanding the limits of AI: When algorithm fails, »
  3. (en) Joy Buolamwini et Timnit Gebru, « Gender Shades: Intersectional Accuracy Disparities inCommercial Gender Classification – MIT Media Lab », Proceedings of Machine Learning Research,‎ (lire en ligne).
  4. (en-US) Steve Lohr, « Facial Recognition Is Accurate, if You're a White Guy » [archive du ], The New York Times, (ISSN 0362-4331, consulté le 9 janvier 2019)
  5. (en) « Datasheets for Datasets », ArXiv,‎ (lire en ligne)
  6. (en) « Dealing With Bias in Artificial Intelligence », sur THe New York Times,
  7. (en) « Google Researcher Says She Was Fired Over Paper Highlighting Bias in A.I. », The New York Times,‎ (lire en ligne).
  8. (en) Zoe Schiffer, « Timnit Gebru’s team at Google is going public with their side of the story », sur The Verge, (consulté le 8 décembre 2020)
  9. (en) « Google workers mobilize against firing of top Black female executive » [archive du ], sur NBC News (consulté le 5 décembre 2020).

Voir aussi[modifier | modifier le code]

Liens externes[modifier | modifier le code]