Biais algorithmique

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche
Les biais cognitifs.

Un biais algorithmique se produit lorsque les données utilisées pour entraîner un système d'apprentissage automatique reflètent les valeurs implicites des humains impliqués dans la collecte, la sélection, ou l'utilisation de ces données[1]. Les biais algorithmiques ont été identifiés et critiqués pour leur impact sur les résultats des moteurs de recherche[2], les services de réseautage social[3], le respect de la vie privée[4], et le profilage racial[5]. Dans les résultats de recherche, ce biais peut créer des résultats reflétant des biais racistes, sexistes ou d'autres biais sociaux, malgré la neutralité présumée des données[6]. Un exemple concret est celui des traducteurs en ligne qui traduisent systématiquement le terme anglais "nurse" (neutre) en "infirmière" (féminin) et le terme "doctor" (neutre) en "docteur" (masculin). L'étude des biais algorithmiques s'intéresse particulièrement aux algorithmes qui reflètent une discrimination « systématique et injuste »[7].

Le biais algorithmique n'est pas une volonté réelle du concepteur de l'algorithme de tromper son public. Il est d'autant plus important d'en avoir conscience que l'utilisation d'un algorithme biaisé que l'on suppose objectif peut fortement influencer l'opinion. Cette problématique pose la question du manque de rétrocontrôle des concepteurs d'algorithmes sur leur création déjà soulevée par les ingénieurs des grandes plateformes sur Internet[8].

Définitions[modifier | modifier le code]

Un algorithme est un ensemble de règles qui, appliquées à l'informatique, définissent un programme permettant de réaliser une tâche. Les appareils informatiques comme les ordinateurs ou les smartphones sont fondés en grande partie sur les algorithmes dans leur fonctionnement.

Causes[modifier | modifier le code]

Le phénomène de biais algorithmique est dû à l'apprentissage automatique (machine learning) : c'est le fait que l'algorithme soit nourri par les données, devenant ainsi de plus en plus intelligent mais les données dont il se nourrit peuvent contenir des biais que l'on retrouve par conséquent dans le fonctionnement de l'algorithme[9].

Lutte contre le biais algorithmique[modifier | modifier le code]

Il existe plusieurs possibilités pour lutter contre le biais algorithmique. Selon TechCrunch il faudrait créer des bases de données partagées et règlementées qui empêcheraient les individus de manipuler les données. En effet, les algorithmes ne sont pas encore assez intelligents pour se corriger eux-mêmes, en attendant qu'ils en soient capables il faut donc que les humains les contrôlent afin d'éviter qu'ils n'augmentent les orientations négatives résultant des données biaisées par lesquelles ils sont nourris[10].

Les biais éthiques de la reconnaissance faciale[modifier | modifier le code]

L'émergence de l'intelligence artificielle interroge la dimension éthique. En effet, les algorithmes peuvent avoir un comportement sexiste et ou raciste. Les algorithmes de reconnaissance faciale ont tendance à être plus efficaces pour les hommes blancs. Afin qu'ils puissent distinguer diverses caractéristiques, les ingénieurs soumettent des milliers de photographies aux algorithmes. Les biais éthiques sont le résultat de la responsabilité humaine des ingénieurs qui effectuent des choix partiels.

Biais sexistes[modifier | modifier le code]

Les femmes sont moins facilement reconnues par les algorithmes. Selon une étude du MIT en février 2018, les logiciels des trois entreprises IBM, Microsoft et Face ++ ont été plus efficaces pour reconnaître les hommes sur 127O portraits officiels de personnalités politiques qui leur ont été soumis. Par exemple, Face ++ a vu juste pour 99,3% des hommes, mais seulement 78,7% des femmes. Ainsi, 95,9% des erreurs de l'entreprise concernaient des femmes.

Biais racistes[modifier | modifier le code]

Régulations[modifier | modifier le code]

États-Unis[modifier | modifier le code]

Les États-Unis n'ont pas de législation d'ensemble qui régule le contrôle des biais algorithmiques. Le traitement de cette question peut se faire à l'échelle fédérale ou fédérée, et varie selon les secteurs, l'utilisation et l'industrie. En 2017, la ville de New York a voté une loi mettant en place un groupe de travail pour contrôler l'utilisation des algorithmes dans la ville.[11]

Références[modifier | modifier le code]

  1. (en) Helen Nissenbaum, « How computer systems embody values », Computer, vol. 34, no 3,‎ , p. 120–119 (DOI 10.1109/2.910905, lire en ligne)
  2. (en) Lucas Introna et Helen Nissenbaum, « Defining the Web: the politics of search engines », Computer, vol. 33, no 1,‎ , p. 54–62 (DOI 10.1109/2.816269, lire en ligne)
  3. (en) Kate Crawford, « Can an Algorithm be Agonistic? Ten Scenes from Life in Calculated Publics », Science, Technology, & Human Values, vol. 41, no 1,‎ , p. 77–92 (DOI 10.1177/0162243915589635)
  4. (en) Zeynep Tufekci, « Algorithmic Harms beyond Facebook and Google: Emergent Challenges of Computational Agency », Colorado Technology Law Journal Symposium Essays, vol. 13,‎ , p. 203–216 (lire en ligne)
  5. (en) Lisa Nakamura, The new media of surveillance, London, Routledge, , 149–162 p. (ISBN 9780415568128)
  6. (en) Laura Sydell, « Can Computers Be Racist? The Human-Like Bias Of Algorithms », sur NPR.org, National Public Radio / All Things Considered (consulté le 17 novembre 2017)
  7. (en) Batya Friedman et Helen Nissenbaum, « Bias in Computer Systems », ACM Transactions on Information Systems, vol. 14, no 3,‎ , p. 330–347 (lire en ligne)
  8. (en) Paul Lewis, « ‘Our minds can be hijacked’: the tech insiders who fear a smartphone dystopia », Daily,‎
  9. Aurélie Marmu, « https://rslnmag.fr/innovation/intelligence-artificielle-algorithmes-biais-comment-lutter/ », RSLN,‎
  10. « Comment lutter contre les biais algorithmiques ? », sur Microsoft RSLN, (consulté le 16 février 2018)
  11. (en) Julia Powles, « New York City’s Bold, Flawed Attempt to Make Algorithms Accountable », The New Yorker,‎ (ISSN 0028-792X, lire en ligne)