Aller au contenu

Utilisateur:Moritz fs/Brouillon

Une page de Wikipédia, l'encyclopédie libre.

Controverses techniques[modifier | modifier le code]

L’apprentissage automatique demande de grandes quantités de données pour fonctionner correctement. Il peut s’avérer difficile de contrôler l’intégrité des jeux de données, notamment dans le cas de données générées par les réseaux sociaux[1].

La qualité des « décisions » prises par un algorithme d’AA dépend non seulement de la qualité (donc de leur homogénéité, fiabilité, etc.) des données utilisées pour l’entrainement mais surtout de leur quantité. Donc, pour un jeu de données sociales collecté sans attention particulière à la représentation des minorités, l’AA est statistiquement injuste vis-à-vis de celles-ci. En effet, la capacité à prendre de « bonnes » décisions dépend de la taille des données, or celle-ci sera proportionnellement inférieure pour les minorités.

L’AA ne distingue actuellement pas cause et corrélation de par sa construction mathématique, et est incapable d’aller au-delà du cadre imposé par ses données, il n’a donc pas de capacité d’extrapolation. Un exemple : si on apprend à un algorithme de retourner le chiffre qu’on lui donne (application identité) en l’entraînant uniquement avec les nombres 1 à 5, il sera incapable de correctement répondre à 6. Il est donc incapable d’extrapoler.

L’utilisation d’algorithmes d’apprentissage automatique demande donc d’avoir conscience du cadre de données que l’on a utilisé pour l’apprentissage lors de leur utilisation. Il est donc prétentieux d’attribuer des vertus trop grandes aux algorithmes d’apprentissage automatique.[2]


Sociologie de l’Apprentissage automatique[modifier | modifier le code]

La voiture autonome semble atteignable grâce à l’apprentissage automatique et les énormes quantités de données générées par la flotte automobile, de plus en plus connectée. Contrairement aux algorithmes classiques (qui suivent un ensemble de règles prédéterminées), l’apprentissage automatique apprend ses propres règles.[3]

Les principaux innovateurs dans le domaine insistent que le progrès provient de l’automation des processus. Ceci présente le défaut que le processus d’apprentissage automatique devient privatisé et obscur. Privatisé, car les algorithmes d’AA constituent des gigantesques opportunités économiques, et obscurs car leur compréhension passe derrière leur optimisation. Cette évolution peut potentiellement nuire à la confiance du public envers l’apprentissage automatique, mais surtout au potentiel long-terme de technologies très prometteuses.[4]

La voiture autonome présente un cadre test pour affronter l’apprentissage automatique à la société. En effet, ce n’est pas seulement l’algorithme qui se forme à la circulation routière et ses règles, mais aussi l’inverse. Le principe de responsabilité est remis en cause par l’apprentissage automatique, car l’algorithme n’est plus écrit mais apprend et développe une sorte d’intuition numérique. Les créateurs d’algorithmes ne sont plus en mesure de comprendre les « décisions » prises par leurs algorithmes, ceci par construction mathématique même de l’algorithme d’apprentissage automatique.[5]

Dans le cas de l’AA et les voitures autonomes, la question de la responsabilité en cas d’accident se pose. La société doit apporter une réponse à cette question, avec différentes approches possibles. Aux Etats-Unis, il existe la tendance à juger une technologie par la qualité résultat qu’elle produit, alors qu’en Europe le principe de précaution est appliqué, et on y a plus tendance à juger une nouvelle technologie par rapport aux précédentes, en évaluant les différences par rapport à ce qui est déjà connu. Des processus d’évaluation de risques sont en cours en Europe et aux États-Unis.[4]

La question de responsabilité est d’autant plus compliquée que la priorité chez les concepteurs réside en la conception d’un algorithme optimal, et non pas de le comprendre. L’interprétabilité des algorithmes est nécessaire pour en comprendre les décisions, et lorsque ces décisions ont un impact profond sur la vie des individus. Cette notion d’interprétabilité, c’est à dire de la capacité de comprendre pourquoi et comment un algorithme agit, est aussi sujette à interprétation.

La question de l’accessibilité des données est sujette à controverses : dans le cas des voitures autonomes, certains défendent l’accès publique aux données, ce qui permettrait un meilleur apprentissage aux algorithmes et ne concentrerait pas cet « or numérique » dans les mains d’une poignée d’individus, de plus d’autres militent pour la privatisation des données au nom du libre marché, sans négliger le fait que des bonnes données constituent un avantage compétitif et donc économique.[4][6]

  1. (en) Danah Boyd Kate Crawford, « Critical Questions for Big Data », Information, Communication & Society,‎
  2. (en) Gary Marcus, Deep Learning, a Critical Appraisal, New York University (lire en ligne)
  3. (en) Lipson H and Kurman M ., « Driverless: Intelligent Cars and the Road Ahead », MIT Press,‎
  4. a b et c (en) Jack Stilgoe, « Machine learning, social learning and the governance of self-driving cars », Social Studies of Science,‎ (lire en ligne)
  5. Finn, Ed., What algorithms want : imagination in the age of computing (ISBN 9780262035927 et 0262035928, OCLC 958795990, lire en ligne)
  6. « Self-driving car makers don't sound super excited to share data with the federal government », The Verge, {{Article}} : paramètre « date » manquant (lire en ligne, consulté le )