« Vision par ordinateur » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
m Requête bot : renommage des paramètres de {{lien archive}}
Ajout des descriptions techniques de la vision par ordinateur (parties domaines connexes et Applications), ajout d'une partie centrée sur les STS (partie société)
Ligne 1 : Ligne 1 :
{{ébauche|informatique}}
{{ébauche|informatique}}


La vision par ordinateur est un domaine scientifique [[interdisciplinaire]] qui traite de la façon dont les [[Ordinateur|ordinateurs]] peuvent acquérir une compréhension de haut niveau à partir d'[[Image|images]] ou de [[Vidéo|vidéos numériques]]. Du point de vue de l'[[ingénierie]], il cherche à comprendre et à automatiser les tâches que le [[système visuel humain]] peut effectuer.<ref>{{Ouvrage|prénom1=Dana H.|nom1=Ballard|titre=Computer vision|éditeur=Prentice-Hall|date=1982|isbn=0-13-165316-4|isbn2=978-0-13-165316-0|oclc=7978044|lire en ligne=https://www.worldcat.org/oclc/7978044|consulté le=2021-05-18}}</ref> <ref>{{Ouvrage|prénom1=C. E.|nom1=Vandoni|titre=Proceedings : 1996 CERN School of Computing : Egmond aan Zee, the Netherlands, 8 September-21 September 1996|éditeur=CERN|date=1996|isbn=9789290830955|oclc=988737270|lire en ligne=https://www.worldcat.org/oclc/988737270|consulté le=2021-05-18}}</ref><ref>{{Ouvrage|prénom1=Milan|nom1=Sonka|prénom2=Roger|nom2=Boyle|titre=Image processing, analysis, and machine vision|éditeur=Thompson Learning|date=2008|isbn=0-495-08252-X|isbn2=978-0-495-08252-1|isbn3=978-0-495-24438-7|oclc=123776599|lire en ligne=https://www.worldcat.org/oclc/123776599|consulté le=2021-05-18}}</ref>
La '''vision par ordinateur''' (aussi appelée '''vision artificielle''' ou '''vision numérique''') est une branche de l'[[intelligence artificielle]] dont le principal but est de permettre à une machine d'analyser, traiter et comprendre une ou plusieurs images prises par un système d'acquisition (par exemple : [[caméra]]s, etc.)<ref>{{Lien archive|url=http://refrobot.org/?p=727|titre=Introduction à la vision par ordinateur pour débutants|horodatage archive=20141021105724}}, Refrobot.</ref>.


[[File:NASA Mars Rover.jpg|thumb|Vue d'artiste d'un ''Rover automatique'' explorant la surface de [[Planète Mars|Mars]]. Il est équipé sur son sommet de deux caméras vidéo lui conférant une vision stéréoscopique.]]
[[File:NASA Mars Rover.jpg|thumb|Vue d'artiste d'un ''Rover automatique'' explorant la surface de [[Planète Mars|Mars]]. Il est équipé sur son sommet de deux caméras vidéo lui conférant une vision stéréoscopique.]]


Les tâches de vision par ordinateur comprennent des procédés pour [[Acquisition de données|acquérir]], traiter, [[Analyse d'image|analyser]] et « comprendre » des images numériques, et extraire des données afin de produire des informations numériques ou symboliques, par ex. sous forme de décisions. <ref>{{Ouvrage|prénom1=Reinhard|nom1=Klette|titre=Concise computer vision : an introduction into theory and algorithms|date=2014|isbn=978-1-4471-6320-6|isbn2=1-4471-6320-6|isbn3=1-4471-6319-2|oclc=869222487|lire en ligne=https://www.worldcat.org/oclc/869222487|consulté le=2021-05-18}}</ref><ref>{{Ouvrage|prénom1=Shapiro, Linda|nom1=G.|titre=Computer vision|éditeur=Prentice Hall|date=2001|isbn=0-13-030796-3|isbn2=978-0-13-030796-5|oclc=247860912|lire en ligne=http://worldcat.org/oclc/247860912|consulté le=2021-05-18}}</ref><ref>{{Ouvrage|prénom1=Morris, Tim,|nom1=1960-|titre=Computer vision and image processing|éditeur=Palgrave Macmillan|date=2004|isbn=0-333-99451-5|isbn2=978-0-333-99451-1|oclc=52486158|lire en ligne=http://worldcat.org/oclc/52486158|consulté le=2021-05-18}}</ref><ref>{{Ouvrage|prénom1=Jähne, Bernd, 1953- Haussecker,|nom1=Horst.|titre=Computer vision and applications : a guide for students and practitioners|éditeur=Academic Press|date=2000|isbn=978-0-12-379777-3|isbn2=0-12-379777-2|oclc=162574303|lire en ligne=http://worldcat.org/oclc/162574303|consulté le=2021-05-18}}</ref>
Une approche consiste à tenter d'imiter la [[vision humaine]] ou animale (ex. : vision à larges champs de certains oiseaux, [[vision des insectes|de certains insectes]] par exemple dotés d'[[œil à facettes|yeux à facettes]], ou [[vision nocturne]]…) par le truchement de [[composants électroniques]]. Cette manière de procéder peut être perçue comme un traitement des données visuelles par le biais de modèles fondés sur la géométrie, la physique, la biologie, les statistiques et la théorie d’apprentissage. La vision par ordinateur a aussi été décrite comme une initiative dans l'[[automatisation]] et l’intégration d’une vaste gamme de processus et de modèles sur la [[perception visuelle]].

Dans ce contexte, la compréhension signifie la transformation d'images visuelles (l'entrée de la rétine) en descriptions du monde qui ont un sens pour les processus de pensée et peuvent susciter une action appropriée. Cette compréhension de l'image peut être vue comme l’acquisition d'informations symboliques à partir de données d'image à l'aide de modèles construits à l'aide de la [[géométrie]], de la [[physique]], des [[Statistique|statistiques]] et de la [[Théorie de l'apprentissage statistique|théorie de l'apprentissage]].<ref>{{Ouvrage|prénom1=Forsyth, David A.,|nom1=Auteur.|titre=Computer vision : a modern approach|isbn=978-1-292-01408-1|isbn2=1-292-01408-3|oclc=1156470337|lire en ligne=http://worldcat.org/oclc/1156470337|consulté le=2021-05-18}}</ref>

La [[discipline scientifique]] de la vision par ordinateur s'intéresse à la théorie des systèmes artificiels qui extraient des informations à partir d'images. Les données d'image peuvent prendre de nombreuses formes, telles que des séquences vidéo, des vues de plusieurs caméras, des données multidimensionnelles à partir d'un scanner 3D ou d'un appareil de numérisation médical. La discipline technologique de la vision par ordinateur cherche à appliquer les modèles théoriques développés à la construction de systèmes de vision par ordinateur.

Les sous-domaines de la vision par ordinateur comprennent la détection d'événements, le suivi vidéo, la [[Détection d'objet|reconnaissance d'objets]], l'apprentissage, l'indexation, [[Estimation de mouvement|l'estimation de mouvement]], la [[Modélisation tridimensionnelle|modélisation de scènes 3D]] et la restauration d'image

== Histoire ==
Le développement de la vision par ordinateur a commencé dans les universités pionnières de l'[[intelligence artificielle]] à la fin des années 1960. L’objectif était d’imiter le s[[Système visuel humain|ystème visuel humain]], première étape pour doter les robots d'un comportement intelligent. <ref>{{Article |prénom1=Richard |nom1=Szeliski |titre=Computer Vision |périodique=Texts in Computer Science |date=2011 |issn=1868-0941 |issn2=1868-095X |doi=10.1007/978-1-84882-935-0 |lire en ligne=http://dx.doi.org/10.1007/978-1-84882-935-0 |consulté le=2021-05-18 }}</ref> En 1966, on croyait que cela pouvait être réalisé grâce à un projet d'été, en attachant une caméra à un ordinateur et en lui faisant "décrire ce qu'il voyait". <ref>{{Chapitre|titre chapitre=Intelligent Vision|titre ouvrage=AI in the 1980s and Beyond|éditeur=The MIT Press|date=1989|isbn=978-0-262-25626-1|lire en ligne=http://dx.doi.org/10.7551/mitpress/1166.003.0010|consulté le=2021-05-18}}</ref><ref>{{Chapitre|langue=en|titre chapitre=Computer vision|titre ouvrage=Wikipedia|date=2021-05-10|lire en ligne=https://en.wikipedia.org/w/index.php?title=Computer_vision&oldid=1022441631|consulté le=2021-05-18}}</ref>

Ce qui distinguait la vision par ordinateur du domaine prédominant du traitement d'images numériques à cette époque était le désir d'extraire une structure tridimensionnelle d'images dans le but de parvenir à une compréhension complète de la scène. Des études dans les années 1970 ont formé les premières bases de nombreux algorithmes de vision par ordinateur qui existent aujourd'hui, y compris l'extraction des bords d'images, l'étiquetage des lignes, la modélisation non polyédrique et polyédrique, la représentation d'objets sous forme d'interconnexions de structures plus petites, le flux optique et estimation de mouvement. <ref>{{Ouvrage|prénom1=Takeo|nom1=Kanade|titre=Three-Dimensional Machine Vision|éditeur=Springer US|date=1987|isbn=978-1-4613-1981-8|isbn2=1-4613-1981-1|oclc=852791356|lire en ligne=https://www.worldcat.org/oclc/852791356|consulté le=2021-05-18}}</ref>

La décennie suivante a vu des études basées sur une analyse mathématique plus rigoureuse et des aspects quantitatifs de la vision par ordinateur. Ceux-ci incluent le concept d'espace d'échelle, l'inférence de la forme à partir de divers indices tels que l'ombrage, la texture et la mise au point, et les modèles de contour connus sous le nom de serpents. Les chercheurs ont également réalisé que bon nombre de ces concepts mathématiques pouvaient être traités dans le même cadre d'optimisation que la régularisation et les champs aléatoires de Markov.<ref>{{Ouvrage|prénom1=Nicu|nom1=Sebe|titre=Machine learning in computer vision|éditeur=Springer|date=2005|isbn=978-1-4020-3275-2|isbn2=1-4020-3275-7|isbn3=1-4020-3274-9|oclc=262677676|lire en ligne=https://www.worldcat.org/oclc/262677676|consulté le=2021-05-18}}</ref>

Dans les années 1990, certains des thèmes de recherche précédents sont devenus plus actifs que les autres. La recherche sur les reconstructions projectives 3D a permis de mieux comprendre l' étalonnage de caméras. Avec l'avènement des méthodes d'optimisation pour la calibration des caméras, on s'est rendu compte que de nombreuses idées avaient déjà été explorées dans la théorie de l'ajustement des faisceaux dans le domaine de la photogrammétrie. Cela a conduit à des méthodes pour des reconstructions 3D éparses de scènes à partir de plusieurs images. Des progrès ont été réalisés sur le problème de la correspondance stéréo dense et d'autres techniques stéréo à vues multiples. Dans le même temps, des variations de coupe graphique ont été utilisées pour résoudre la segmentation d'image.

Cette décennie a également marqué la première fois que des techniques d'apprentissage statistique ont été utilisées dans la pratique pour reconnaître les visages dans les images (voir Eigenface). Vers la fin des années 90, un changement important s'est produit avec l'interaction accrue entre les domaines de l'infographie et de la vision par ordinateur. Cela comprenait le rendu basé sur l'image, l'interpolation de vue, l'assemblage d'images panoramiques et le premier rendu de champ lumineux .

Des travaux récents ont vu la résurgence des méthodes basées sur les fonctionnalités, utilisées en conjonction avec des techniques d'apprentissage automatique et des cadres d'optimisation complexes <ref>{{Ouvrage|prénom1=Nicu|nom1=Sebe|titre=Machine learning in computer vision|éditeur=Springer|date=2005|isbn=978-1-4020-3275-2|isbn2=1-4020-3275-7|isbn3=1-4020-3274-9|oclc=262677676|lire en ligne=https://www.worldcat.org/oclc/262677676|consulté le=2021-05-18}}</ref><ref>{{Article |prénom1=William |nom1=Freeman |prénom2=Pietro |nom2=Perona |prénom3=Bernhard |nom3=Schölkopf |titre=Guest Editorial |périodique=International Journal of Computer Vision |volume=77 |numéro=1-3 |date=2008-02-15 |issn=0920-5691 |issn2=1573-1405 |doi=10.1007/s11263-008-0127-7 |lire en ligne=http://dx.doi.org/10.1007/s11263-008-0127-7 |consulté le=2021-05-18 |pages=1–1 }}</ref>, Les progrès des techniques d'apprentissage en profondeur ont donné une nouvelle vie au domaine de la vision par ordinateur. La précision des algorithmes d'apprentissage en profondeur sur plusieurs ensembles de données de vision par ordinateur de référence pour des tâches allant de la classification, de la segmentation et du flux optique a surpassé les méthodes antérieures.

== Domaines connexes ==

=== Physique du solide ===
La physique du solide est un domaine étroitement lié à la vision par ordinateur. La plupart des systèmes de vision par ordinateur reposent sur des capteurs d'image, qui détectent le rayonnement électromagnétique, qui se présente généralement sous la forme de lumière visible ou infrarouge. Les capteurs sont conçus en utilisant la physique quantique. Le processus par lequel la lumière interagit avec les surfaces est expliqué en utilisant la physique. La physique explique le comportement de l'optique qui est au cœur de la plupart des systèmes d'imagerie. Les capteurs d'image sophistiqués nécessitent même la mécanique quantique pour fournir une compréhension complète du processus de formation d'image9. En outre, divers problèmes de mesure en physique peuvent être résolus en utilisant la vision par ordinateur, par exemple le mouvement dans les fluides.

=== Neurobiologie ===
Un autre domaine qui joue un rôle important dans la vision par ordinateur est la neurobiologie, en particulier l'étude du système de vision biologique. Au cours du siècle dernier, une étude approfondie des yeux, des neurones et des structures cérébrales a été consacrée au traitement des stimuli visuels chez les humains et chez divers animaux. Cela a conduit à une description grossière, mais complexe, de la façon dont les systèmes de vision «réels» fonctionnent pour résoudre certaines tâches liées à la vision. Ces résultats ont conduit à un sous-domaine de la vision par ordinateur où les systèmes artificiels sont conçus pour imiter le traitement et le comportement des systèmes biologiques, à différents niveaux de complexité. En outre, certaines des méthodes basées sur l'apprentissage développées dans le cadre de la vision par ordinateur (par exemple, l'analyse et la classification d'images et de caractéristiques basées sur le réseau neuronal et l'apprentissage profond) ont leur expérience en biologie.Certains volets de la recherche sur la vision par ordinateur sont étroitement liés à l'étude de la vision biologique - en effet, tout comme de nombreux volets de la recherche sur l'IA sont étroitement liés à la recherche sur la conscience humaine et à l'utilisation des connaissances stockées pour interpréter, intégrer et utiliser les informations visuelles. Le domaine de la vision biologique étudie et modélise les processus physiologiques derrière la perception visuelle chez l'homme et d'autres animaux. La vision par ordinateur, quant à elle, étudie et décrit les processus mis en œuvre dans les logiciels et le matériel derrière les systèmes de vision artificielle. L'échange interdisciplinaire entre la vision biologique et la vision par ordinateur s'est avéré fructueux dans les deux domaines15.

=== Traitement du signal ===
Un troisième domaine lié à la vision par ordinateur est le traitement du signal. De nombreuses méthodes de traitement de signaux à une variable, typiquement des signaux temporels, peuvent être étendues de manière naturelle au traitement de signaux à deux variables ou de signaux à variables multiples en vision par ordinateur. Cependant, en raison de la nature spécifique des images, il existe de nombreuses méthodes développées dans le domaine de la vision par ordinateur qui n'ont pas d'équivalent dans le traitement de signaux à une variable. Avec la multi dimensionnalité du signal, cela définit un sous-champ dans le traitement du signal dans le cadre de la vision par ordinateur.

=== Navigation robotique ===
La navigation robotique traite parfois de la planification de chemin autonome pour que les systèmes robotiques naviguent dans un environnement16. Une compréhension détaillée de ces environnements est nécessaire pour les parcourir. Des informations sur l'environnement pourraient être fournies par un système de vision par ordinateur, agissant comme un capteur de vision et fournissant des informations de haut niveau sur l'environnement et le robot.

=== Autres domaines ===
De nombreuses méthodes de vision par ordinateur sont basées sur les statistiques, l'optimisation ou la géométrie.

Une part importante du domaine est consacrée à l’implémentation de la vision par ordinateur; comment les méthodes existantes peuvent être réalisées dans diverses combinaisons de logiciels et de matériel, ou comment ces méthodes peuvent être modifiées afin de gagner en vitesse de traitement sans perdre trop de performances. La vision par ordinateur est également utilisée dans le commerce électronique de la mode, la recherche de brevets, les meubles et l'industrie de la beauté.


== Applications ==
== Applications ==
Les applications vont de la [[vision industrielle]] (par exemple dans l’industrie de fabrication de bouteilles), à la recherche dans le domaine de l’intelligence artificielle et des ordinateurs ou [[robot]]s capables de « [[compréhension|comprendre]] » le monde qui les entoure. La vision par ordinateur et la vision industrielle sont des domaines qui se croisent ou se confondent assez souvent.
Les applications vont des tâches telles que les systèmes de vision industriels qui, par exemple, inspectent les bouteilles qui défilent sur une ligne de production, à la recherche sur l'intelligence artificielle et les ordinateurs ou robots capables de comprendre le monde qui les entoure. Dans de nombreuses applications de vision par ordinateur, les ordinateurs sont préprogrammés pour résoudre une tâche particulière, mais les méthodes basées sur l'apprentissage sont de plus en plus courantes.
* La vision par ordinateur recouvre la technologie centrale de l’[[analyse d'image]] automatique, qui est utilisée dans de nombreux contextes ;
* La vision industrielle fait plutôt référence à une combinaison de techniques d'analyse d’image automatique, de [[mise en correspondance]], de traitement de l'image acquise par caméra (éventuellement stéréoscopique) et de technologies d'acquisition d'image, par exemple, pour inspecter des objets ou des lieux, de façon automatique, afin d'orienter des robots ou de permettre le déroulement d'un processus industriel.


Des exemples d'applications de la vision par ordinateur comprennent des systèmes pour:
Dans les deux cas, l'image est parfois acquise dans des gammes de longueur d'onde que l'homme ne perçoit pas ([[infra-rouge]], [[ultraviolet]], [[rayon x]], etc.) ou à travers une paroi et parfois par des capteurs spéciaux, par exemple adaptés à des milieux extrêmes tels que l'intérieur de certaines installations nucléaires, fours industriels, accélérateur de particule, etc.).


- Inspection automatique, par exemple dans les applications de fabrication;
En tant que discipline scientifique, la vision par ordinateur traite de la théorie qui se trouve derrière les [[système de traitement de l'information|systèmes de traitement de l'information]] (information contenue dans les images ou pouvant être déduite d'une analyse plus contextuelle).
Les données extraites le sont sous différentes formes : séquences vidéo, vues depuis différentes caméras, données multidimensionnelles provenant d'un scanner ([[scanner médical]] ou industriel).<br />


- Aider les humains dans les tâches d'identification, par exemple, un système d'identification des espèces17;
En tant que discipline technologique, la vision par ordinateur cherche à appliquer ses théories et ses modèles à différents systèmes. Quelques exemples de systèmes d’application de la vision par ordinateur :<br />


- Contrôle des processus, par exemple, un robot industriel;
* Procédés de contrôle, p. ex. dans la [[robotique industrielle]] ;
* Navigation, p. ex. dans un véhicule autonome ou un robot mobile ;
* Détection d’événements, p. ex. pour la surveillance ou le comptage automatique de personnes ;
* Organisation d'informations, p. ex. pour indexer des bases de données d’images et de suites d’images ;
* Modélisation d'objets ou d'environnements, p. ex. dans l’analyse d’image médicale ou la topographie ;
* Interaction, p. ex. en tant que dispositif d’entrée pour une [[interaction homme-machine]] ;
* Inspection automatique, p. ex. dans des domaines de production.


- Détection d'événements, par exemple pour la surveillance visuelle ou le comptage de personnes, par exemple dans l'industrie de la restauration; - Interaction, par exemple en tant qu'entrée d'un dispositif d'interaction ordinateur-homme;
On considère comme sous-domaines de la vision par ordinateur la reconstruction de scène, la détection d’événements, la [[détection d'intrusion]], le [[match moving]], la [[reconnaissance d'objet]]s, l’[[estimation de mouvement]], ainsi que certaines formes d'[[apprentissage automatique]], d'[[indexation]], de restauration d'image, etc.<br />


- Modélisation d'objets ou d'environnements, par exemple, analyse d'images médicales ou modélisation topographique;
Dans la plupart des applications pratiques de la vision par ordinateur, les ordinateurs sont préprogrammés pour effectuer une certaine tâche, mais les méthodes fondées sur l’apprentissage sont de plus en plus populaires.


- Navigation, par exemple par un véhicule autonome ou un robot mobile; et
Les problèmes posés par la modélisation de la vision sont loin d'être résolus.


- Organisation des informations, par exemple pour l'indexation de bases de données d'images et de séquences d'images.
== Techniques utilisées en vision par ordinateur ==
* [[Transformée de Hough]]
* [[Théorème de Radon|Transformée de Radon]]
* [[Transformée de Fourier]]
* [[Apprentissage profond]]


L'apprentissage des formes 3D a été une tâche difficile en vision par ordinateur. Les progrès récents de l'apprentissage en profondeur ont permis aux chercheurs de créer des modèles capables de générer et de reconstruire des formes 3D à partir de cartes de profondeur ou de silhouettes à une ou plusieurs vues de manière transparente et efficace.
== Disciplines connexes ==
* [[Traitement d'image]]
**[[Reconnaissance de formes & localisation]] : La reconnaissance de forme consiste en l'apprentissage d'une forme de référence suivie de sa recherche dans une image. Cette technique peut être utilisée afin de vérifier la conformité d'une forme ou bien afin de localiser une forme dans le but de faire un [[Recalage d'images|recalage]].
** Vérification de caractères ([[OCV]]) : Cette technique consiste à vérifier si la chaîne de caractères présente dans une image est bien conforme à la chaîne de référence. Ne pas confondre avec [[Reconnaissance optique de caractères|OCR]].
** [[Reconnaissance optique de caractères]] : Contrairement à l'[[OCV]], ici il n'existe pas de chaîne de référence. L'image est analysée afin de déterminer quelle chaîne de caractères s'y trouve.
** [[Mesure physique|Mesure]] : À partir de l'image d'un objet, il est possible de mesurer sa taille en [[pixel]]s. Si le système dispose d'un étalonnage, il sera alors aussi en mesure de donner un résultat en unités réelles telles que le millimètre, le pouce...
** [[Détection de zones d'intérêt]]
**[[Reconnaissance de visage]]
**[[Reconnaissance de l'iris]]
**[[Segmentation d'image]]
* [[Photogrammétrie]]
* [[Vision industrielle]]


== Notes et références ==
=== Médecine ===
L'un des domaines d'application les plus importants est la vision par ordinateur médicale, ou traitement d'images médicales, caractérisé par l'extraction d'informations à partir de données d'image pour diagnostiquer un patient. On peut l’utiliser dans la détection de tumeurs, d'artériosclérose ou d'autres changements malins; les mesures des dimensions des organes, du débit sanguin, etc. en sont un autre exemple. La vision par la recherche médicale en fournissant de nouvelles informations: par exemple, sur la structure du cerveau ou sur la qualité des traitements médicaux. Les applications de la vision par ordinateur dans le domaine médical incluent également l'amélioration des images interprétées par l'homme - images ultrasonores ou radiographiques par exemple - pour réduire l'influence du bruit.
{{Références}}


=== Vision industrielle ===
Un deuxième domaine de l’application de la de la vision par ordinateur est l’industrie, parfois appelée vision industrielle, où des informations sont extraites dans le but de soutenir un processus de fabrication. Un exemple est le contrôle de la qualité de produits finis ou en cours de finalité dans le but de détecter des défauts. Un autre exemple est la mesure de la position et l’orientation de différents produits qui ont besoin d’être saisis par un bras de robot. La vision industrielle est également largement utilisée dans les processus agricoles pour éliminer les aliments de certains matériaux en vrac, processus appelé tri optique18.

=== Militaire ===
Les applications militaires sont probablement l'un des domaines les plus importants de la vision par ordinateur. Les exemples évidents sont la détection de soldats ou de véhicules ennemis et le guidage de missiles. Des systèmes plus avancés de guidage de missile envoient le missile vers une zone plutôt qu'une cible spécifique, et la sélection de la cible est effectuée lorsque le missile atteint la zone grâce à des données d'image acquises localement. Les concepts militaires modernes, tels que la «conscience du champ de bataille», impliquent que divers capteurs, y compris des capteurs d'image, fournissent un ensemble riche d'informations sur une scène de combat qui peuvent ensuite être utilisées pour prendre des décisions stratégiques. Dans ce cas, le traitement automatique des données est utilisé pour réduire la complexité et pour fusionner les informations de plusieurs capteurs dans le but d’augmenter la fiabilité.

=== Véhicules autonomes ===
L'un des nouveaux domaines d'application est celui des véhicules autonomes, qui comprennent les submersibles, les véhicules terrestres (petits robots avec roues, voitures ou camions), les véhicules aériens et les véhicules aériens sans pilote (UAV). Le niveau d'autonomie va de véhicules entièrement autonomes (sans pilote) à des véhicules où différents systèmes basés sur la vision par ordinateur aide dans certaines situations particulières le pilote ou conducteur. Les véhicules entièrement autonomes utilisent généralement la vision par ordinateur pour la navigation, par ex. pour savoir où il se trouve, ou pour produire une carte de son environnement (SLAM) et pour détecter les obstacles. Il peut également être utilisé pour détecter certains événements spécifiques à un domaine particulier, par exemple, un UAV à la recherche d'incendies de forêt. Des exemples de systèmes de soutien sont les systèmes d'avertissement d'obstacles dans les voitures et les systèmes d'atterrissage autonome des avions. Plusieurs constructeurs automobiles ont fait la démonstration de systèmes de conduite autonome de voitures, mais cette technologie n'a toujours pas atteint un niveau où elle peut être mise sur le marché. Il existe de nombreux exemples de véhicules militaires autonomes allant à des missiles avancés aux drones pour des missions de reconnaissance ou le guidage de missiles. L'exploration spatiale est déjà en cours avec des véhicules autonomes utilisant la vision par ordinateur, par exemple, Curiosity de la NASA et le rover Yutu-2 de la CNSA.

=== Détection tactile ===
Des matériaux tels que le caoutchouc et le silicium sont utilisés pour créer des capteurs qui permettent des applications telles que la détection de micro-ondulations et l'étalonnage des mains robotiques. Le caoutchouc peut être utilisé afin de créer un moule qui peut être placé sur un doigt, à l'intérieur de ce moule se trouve plusieurs jauges de contrainte.

Le moule à doigt et les capteurs pourraient alors être placés sur une petite feuille de caoutchouc contenant un réseau de broches en caoutchouc. Un utilisateur peut alors porter le moule à doigt et tracer une surface. Un ordinateur peut alors lire les données des jauges de contrainte et mesurer si une ou plusieurs broches sont poussées vers le haut. Si une épingle est poussée vers le haut, l'ordinateur peut la reconnaître comme une imperfection de la surface. Ce type de technologie est utile pour recevoir des données précises sur les imperfections sur une très grande surface19. Une autre variante de ce capteur de moule de doigt sont des capteurs qui contiennent une caméra suspendue en silicium. Le silicium forme un dôme autour de l'extérieur de la caméra et dans le silicium on a des marqueurs ponctuels qui sont également espacés. Ces caméras peuvent ensuite être placées sur des appareils tels que des mains robotisées afin de permettre à l'ordinateur de recevoir des données tactiles très précises.20

=== Autre domaines d'applications ===
- Prise en charge de la création d'effets visuels pour le cinéma et la diffusion, par exemple, suivi de caméra. - Surveillance.

- Détection de somnolence du conducteur.

- Suivi et comptage des organismes dans les sciences biologiques (21).

== Société ==

=== Utilisation de la vision par ordinateur pour la détection de violations de droits humains ===
Avec l’utilisation croissante des médias sociaux, la disponibilité d’internet et l’extension de la couverture de la téléphonie mobile, la place des médias citoyens dans la documentation des crimes de guerre, de la répression gouvernementale et plus généralement des violations des droits de l’homme s’est considérablement agrandie22.

L’analyse de tous les documents vidéos et images requiert beaucoup de personnel, ce qui peut avoir un cout important. Il faut aussi noter que les compétences linguistiques et les connaissances culturelles et géographiques peuvent limiter le nombre de chercheurs capables d’effectuer cette analyse et qu’il peut être émotionnellement difficile de regarder des vidéos dépeignant des scènes de guerre ou d’agressions23.

Dans la majorité des cas, le travail manuel des analystes reste nécessaire. Cependant, les techniques de vision par ordinateur sont de plus en plus utilisées par les spécialistes24 (par exemple: Carnegie Mellon University Center for Human Rights Science, Human Rights Watch, New York University Human Rights Methodology Lab, Carr Center for Human Rights de l'Université Harvard,...)

En effet, ces techniques offrent des possibilités inédites. Premièrement, la vision par ordinateur offre la capacité de rechercher rapidement dans de grands volumes de vidéos des incidents ou des événements spécifiques. Elle permet par exemple de détecter de nombreux types d’objets qui intéressent les chercheurs en droits de l’homme comme les hélicoptères, les avions et autres véhicules militaires25. Cette technique est également en mesure détecter des sons particuliers comme des coups de feu ou des explosions.

Ensuite, la vision par ordinateur permet de mieux comprendre les relations entre différents incidents grâce à une analyse globale de grandes collections d’événements26.L’utilisation de la vision par ordinateur dans ce contexte permet donc aux enquêteurs de ne pas devoir s’appuyer sur une seule vidéo pour la compréhension d’un événement. Elle permet aussi d’augmenter la quantité de données utilisées pour placer l’événement dans son contexte.

Cependant, il est important de noter que la vision par ordinateur ne peut pas remplacer totalement l’activité humaine dans ce domaine2728. Tout d’abord, la reconstruction et l’analyse d’événements seront toujours limitées par la qualité et la quantité des données. Ensuite, le jugement humain est important pour donner un sens et un contexte au travail effectué par le système de vision par ordinateur. Un exemple29 important qui souligne l’importance du jugement humain est l’analyse de la provenance des vidéos. Même si les algorithmes de vision par ordinateur sont capables d’analyser de grandes collections de vidéos pour éviter le détournement d’événements, il faut pouvoir prendre en compte le contexte d’origine de la vidéo.

Ce phénomène est très présent sur les réseaux sociaux où les acteurs ne sont généralement pas neutres et ont tendance à publier en masse des vidéos supportant une cause précise.30 Il est donc important de placer les actions décrites dans leur contexte pour pouvoir pleinement les comprendre. Cela nécessite d’avoir des archives vidéos complètes et d'utiliser des formes plus traditionnelles de preuves médico-légales et de témoignages humains. Par exemple, dans les cas de violence policière, il est important de connaître les interactions antérieures entre les policiers et les personnes concernées. La capacité d’analyser de grands volumes de vidéos ne garantit donc pas que la vérité soit découverte car les vidéos ne fournissent toujours qu’une perspective sur les événements, pas une vue omnisciente ou un récit maître.31

=== Voitures autonomes ===
Le fonctionnement des voitures autonomes repose sur la capacité d’analyse visuelle du milieu dans lequel elles se déplacent. Cette analyse est permise par des techniques de vision par ordinateur. L’utilisation de la vision par ordinateur et des technologies connexes dans ce domaine soulève plusieurs problématiques et souligne l’importance de la responsabilité dans les décisions prises par des programmes informatiques assistant la conduite.32

En mai 2016, un automobiliste est décédé au volant d’une Tesla modèle S33 alors que sa voiture était en mode auto-pilote. Cet événement tragique est considéré comme le premier accident mortel vérifié d’une voiture en conduite autonome. La voiture n’avait pas été en mesure de détecter un tracteur qui traversait la route à un croisement. L’analyse des données fournies par la voiture, retraçant le parcours de l’automobiliste avant l’accident ont permis de déterminer que la voiture roulait trop vite et que le conducteur répondait aux stimulations périodiques de la voiture. Les données informatiques34 ne comprenaient cependant aucune explication des décisions prises par le pilotage automatique dans les instants précédant l’accident ou détails sur la façon précise dont l’information visuelle avait été traitée35.

Dans un premier temps, lorsqu’un accident de la route est inévitable, le système informatique indique, après analyse de l’environnement, le comportement que la voiture doit adopter. En utilisant les informations dont il dispose grâce au système de vision par ordinateur (prédiction des déplacements pouvant mener à des blessures graves, trajectoires bloquées p.ex.), le programme informatique pourrait être amené à choisir entre privilégier la survie des passagers de la voiture ou des personnes externes36. Ces décisions de vie ou de mort en cas d’accident sont centrales dans le domaine de l’éthique des algorithmes. Elles constituent l’une des préoccupations de gouvernance37 principale et rappellent également l’importance d’apporter un cadre légal où les constructeurs et les concepteurs peuvent être tenus responsables.

Les voitures (partiellement) autonomes sont contrôlées par des systèmes informatiques construits autour de diverses techniques d’apprentissage comme l’apprentissage profond et l’apprentissage adaptatif. Les données traitées par ces programmes sont acquises par différents types de capteurs (radar, Lidar, GPS,). L’utilisation extensive de l’apprentissage profond38 pourrait transférer l’ensemble des décisions vers la machine et rendre la responsabilité éventuelle des concepteurs des modèles peu évidente à prouver39. On observe un phénomène analogue à celui d’une boite noire40, dans laquelle la réaction observée dans une certaine situation est prédite mais l’explication précise du raisonnement à l’origine de l’action reste opaque.

Plusieurs acteurs importants du marché de l’automobile impliqués dans des projets d’automatisation de la conduite utilisent des combinaisons de structures informatiques et logicielles différentes. Ces approches distinctes ainsi que les désaccords techniques entre les différents constructeurs soulignent l’importance de développer un cadre législatif 41suffisant pour définir les standards relatifs à l’intégration de certaines technologies dans le domaine de la conduite assistée.

Un autre enjeu lié à l’utilisation des voitures autonomes est la vulnérabilité du code informatique qui régit le mouvement de la voiture42. Si un tiers parvient à accéder au code informatique, il peut accéder aux algorithmes responsables du fonctionnement et détecter les éventuelles faiblesses. En 2016, la chaîne américaine ME-tv annonçait que des pirates informatiques avaient réussi à modifier le programme informatique d’une Tesla modèle S43. Ils avaient supprimé tous les avertissements que le système envoyait à l’utilisateur, indiquant entre autres au pilote de mettre ses mains sur le volant44.

=== La vision par ordinateur dans l’art ===

==== Histoire ====
Il existe une longue histoire d'utilisation de l'imagerie dans l’étude de l’art.4546 Peu de temps après la découverte des rayons X au 19e siècle, ceux-ci ont été utilisés pour révéler des sous-dessins et des pentimenti. Plus tard, la photographie infrarouge et la réflectographie ont été exploitées à des fins similaires. Des techniques comme l’imagerie multi-spectre et l’analyse de la fluorescence sont utilisées encore aujourd’hui pour révéler des caractéristiques des œuvres comme la composition des pigments. 4748Historiquement, les images résultantes produites par ces techniques ainsi que les données générées par les instruments étaient analysées par des spécialistes de l’art.49

Au cours des dernières décennies, un certain nombre de chercheurs formés en vision par ordinateur, en traitement d'image, en infographie et en histoire de l'art ont développé des méthodes informatiques rigoureuses pour résoudre un grand nombre de problèmes de l’histoire de l’art.

On constate que le recours à l'imagerie numérique dans l'étude de l’art est en forte croissance.50

Ces méthodes permettent d’étudier certaines caractéristiques difficiles à analyser à l’œil nu. Elles ont notamment permis de mieux comprendre les relations entre la structure des coups de pinceaux et les différentes échelles et couleurs dans la Sainte famille ou de détecter des anomalies de perspective dans le portrait Arnolfini de van Eyck.51

La puissance de ces méthodes informatiques provient entre autres des points ci-dessous:

- Les méthodes informatiques utilisent un langage objectif, qui permet aux spécialistes d’art d’ajouter des éléments quantitatifs et universels dans leur analyse. Ceci diminue le risque d’ambiguïté lié à l’utilisation exclusive de termes subjectifs pour l’analyse des œuvres.52

- Elles permettent de présenter des angles de vue alternatifs de l’œuvre grâce à des procédés d’infographie tridimensionnelle. Ce type de perspective ne peut être obtenu qu’à l’aide d’outils informatiques.53

- Possibilité d'acquérir une grande quantité de différents types de données, bien supérieure à celle qui est aujourd’hui accessible aux spécialistes. 54

Les méthodes couramment utilisées dans le domaine comprennent : les procédures basées sur les pixels individuels, les surfaces, l’analyse de perspectives, les méthodes de déformation de l’art courbe, l’analyse informatique de l’éclairage, des coups de pinceaux, de la craquelure, l’analyse graphique simple et des méthodes optiques.55

==== The next Rembrandt ====
Un exemple assez probant de l’utilisation des diverses méthodes de vision par ordinateur dans l’étude de l’art est le « Next Rembrandt Project ».<ref>{{Lien web |titre=The Next Rembrandt |url=https://www.nextrembrandt.com/ |site=The Next Rembrandt |consulté le=2021-05-18}}</ref>

The Next Rembrandt est un projet issu d’une collaboration entre Microsoft, ING et la TU DELFT qui avait pour but de créer une peinture originale imitant le style du peintre Rembrandt Van Rijn en utilisant des techniques d’analyse d’image des œuvres existantes.

La première étape consistait en l’analyse de l’ensemble des œuvres existantes à l’aide de scans tridimensionnels à haute résolution. Les images ont été traitées avec des algorithmes d’apprentissage automatique pour augmentation leur résolution. Ceci a permis de générer une base de données numériques de 150 giga byte qui a servi de base de données pour le reste du projet.

Après une analyse informatique extensive de la démographie des personnes représentées dans son œuvre , les chercheurs ont déterminé les caractéristiques les plus communes. Les caractéristiques étudiées comprenaient l’orientation de la tête, la présence de barbe/moustache, le type d’habits et l’âge. Après analyse de la base des données, les chercheurs ont conclu que le profil le plus commun était un homme caucasien entre trente et quarante habillé en noir avec un col blanc et avec le visage orienté vers la droite.

Les chercheurs ont ensuite développé un modèle générant des traits de visage se basant sur les caractéristiques des œuvres de Rembrandt. Les spécificités comprennent l’utilisation fréquente du contraste entre la lumière et l’obscurité, le type de géométrie utilisé par le peintre pour représenter les visages, la composition et la géométrie du matériel de peinture. Enfin, après avoir généré la peinture en deux dimensions, une analyse du relief et des types de coups de pinceaux des œuvres existantes de Rembrandt a permis de recréer une texture similaire.

Les chercheurs ont créé une carte de hauteur à l'aide de deux algorithmes différents qui ont trouvé des modèles de texture des surfaces de toile et des couches de peinture. Les informations ont été transformées en données de hauteur, ce qui a permis d'imiter les coups de pinceau utilisés par Rembrandt

=== La vision par ordinateur dans le diagnostic médical ===
Les domaines d’application principaux de la vision par ordinateur médicale sont la radiologie, la dermatologie, la pathologie ou l’ophtalmologie.

L’introduction d’appareils qui utilisent des algorithmes de vision par ordinateur dans le contexte clinique a soulevé la question de la responsabilité légale en cas d’erreur. Certains acteurs soulignent la nécessité d’adapter le cadre légal de ce domaine.<ref>{{Lien web |langue=en |titre=Machine Vision, Medical AI, and Malpractice |url=https://jolt.law.harvard.edu/digest/machine-vision-medical-ai-and-malpractice |site=Harvard Journal of Law & Technology |consulté le=2021-05-18}}</ref> Les questions soulevées concernent principalement le contexte d'utilisation de ces techniques, leur degré d’intervention ou encore les responsabilités des différents acteurs lors de potentiels accidents. Ces acteurs<ref>{{Lien web |langue=en |titre=Machine Vision, Medical AI, and Malpractice |url=https://jolt.law.harvard.edu/digest/machine-vision-medical-ai-and-malpractice |site=Harvard Journal of Law & Technology |consulté le=2021-05-18}}</ref> soulignent l'importance de la transparence des algorithmes qui régissent les machines de vision par ordinateur. D’un point de vue légal, la plupart des fautes professionnelles sont prononcées lorsque le médecin s’est écarté des pratiques médicales classiques.<ref>{{Article |prénom1=BEN A. |nom1=RICH |titre=Medical Custom and Medical Ethics: Rethinking the Standard of Care |périodique=Cambridge Quarterly of Healthcare Ethics |volume=14 |numéro=01 |date=2005-01 |issn=0963-1801 |issn2=1469-2147 |doi=10.1017/s0963180105050048 |lire en ligne=http://dx.doi.org/10.1017/s0963180105050048 |consulté le=2021-05-18 }}</ref>

Un autre point souligné par ces acteurs est l'importance de la justification du raisonnement ayant mené à un diagnostic médical. Il existe de nombreuses techniques qui permettent aux modèles d'apprentissage automatique médicaux de justifier leurs décisions. Une de ces techniques consiste en la superposition informatique d’une carte thermique avec l'image médicale analysée. Ceci permet de confirmer que les algorithmes de vision par ordinateur basent leur diagnostic sur l'analyse de parties pertinentes de l'image. Les cartes thermiques sont générées en utilisant diverses techniques d’apprentissage automatique comme la visualisation d’activation de classe<ref>{{Article |prénom1=Pranav |nom1=Rajpurkar |prénom2=Jeremy |nom2=Irvin |prénom3=Robyn L. |nom3=Ball |prénom4=Kaylie |nom4=Zhu |titre=Deep learning for chest radiograph diagnosis: A retrospective comparison of the CheXNeXt algorithm to practicing radiologists |périodique=PLOS Medicine |volume=15 |numéro=11 |date=2018-11-20 |issn=1549-1676 |doi=10.1371/journal.pmed.1002686 |lire en ligne=http://dx.doi.org/10.1371/journal.pmed.1002686 |consulté le=2021-05-18 |pages=e1002686 }}</ref> ou la cartographie de la saillance<ref>{{Article |prénom1=Andre |nom1=Esteva |prénom2=Brett |nom2=Kuprel |prénom3=Roberto A. |nom3=Novoa |prénom4=Justin |nom4=Ko |titre=Dermatologist-level classification of skin cancer with deep neural networks |périodique=Nature |volume=542 |numéro=7639 |date=2017-01-25 |issn=0028-0836 |issn2=1476-4687 |doi=10.1038/nature21056 |lire en ligne=http://dx.doi.org/10.1038/nature21056 |consulté le=2021-05-18 |pages=115–118 }}</ref>. Des méthodes de générations permettent également de prendre en considération le contexte médical en listant les principaux facteurs, diagnostics, et analyses démographiques qui ont contribué à cette décision.<ref>{{Lien web |langue=en |titre=Machine Vision, Medical AI, and Malpractice |url=https://jolt.law.harvard.edu/digest/machine-vision-medical-ai-and-malpractice |site=Harvard Journal of Law & Technology |consulté le=2021-05-18}}</ref>

La question de la responsabilité et la qualification des algorithmes et des dispositifs de vision par ordinateur en tant que produit ou service est centrale sur le plan juridique. En effet, le traitement juridique varie sensiblement en fonction du statut accordé.<ref>{{Article |prénom1=BEN A. |nom1=RICH |titre=Medical Custom and Medical Ethics: Rethinking the Standard of Care |périodique=Cambridge Quarterly of Healthcare Ethics |volume=14 |numéro=01 |date=2005-01 |issn=0963-1801 |issn2=1469-2147 |doi=10.1017/s0963180105050048 |lire en ligne=http://dx.doi.org/10.1017/s0963180105050048 |consulté le=2021-05-18 }}</ref> Les algorithmes de vision par ordinateur destinés à automatiser une tache clinique sont généralement catégorisés<ref>{{Article |langue=en |prénom1=Center for Devices and Radiological |nom1=Health |titre=Artificial Intelligence and Machine Learning in Software as a Medical Device |périodique=FDA |date=2021-01-11 |lire en ligne=https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-software-medical-device |consulté le=2021-05-18 }}</ref> par la FDA comme des dispositifs médicaux. Ils sont soit incorporés comme dispositifs médicaux traditionnels ou soit classifiés en tant que logiciels de guide de dispositif médical.

=== Reconnaissance faciale ===
Une des utilisations les plus fréquentes de la vision par ordinateur est la reconnaissance faciale. Cette technique permet de déterminer si des visages apparaissant sur des images différentes correspondent à la même personne. Si les images ont été prises dans les mêmes conditions (distance, éclairage, expression, ...), alors le problème se simplifie à la mesure de quelques caractéristiques du visage. Dans des situations réelles, ce n’est généralement pas le cas et les informaticiens ont dû utiliser la vision par ordinateur pour développer des méthodes afin d’identifier les visages présents dans les documents audio-visuels. <ref>{{Lien web |langue=en |prénom=Adam |nom=Geitgey |titre=Machine Learning is Fun! |url=https://medium.com/@ageitgey/machine-learning-is-fun-80ea3ec3c471 |site=Medium |date=2018-11-07 |consulté le=2021-05-18}}</ref>

==== Utilisation de la reconnaissance faciale dans la détection de violations des droits humains ====
Les technologies de reconnaissance faciale deviennent de plus en plus efficaces pour reconnaître des visages humains dans des vidéos de haute résolution.

Dans le contexte des droits de l’homme, les vidéos sont généralement de basse qualité et leur faible résolution ne permet pas de générer assez de données pour que les systèmes de reconnaissance faciale puissent mesurer suffisamment de caractéristiques du visage et identifier la personne.<ref>{{Article |prénom1=Jay D. |nom1=Aronson |titre=Computer Vision and Machine Learning for Human Rights Video Analysis: Case Studies, Possibilities, Concerns, and Limitations |périodique=Law & Social Inquiry |volume=43 |numéro=04 |date=2018 |issn=0897-6546 |issn2=1747-4469 |doi=10.1111/lsi.12353 |lire en ligne=http://dx.doi.org/10.1111/lsi.12353 |consulté le=2021-05-18 |pages=1188–1209 }}</ref>

Dans de nombreuses vidéos liées au contexte des violations de droits humains, les visages sont masqués par des accessoires tels que des couvre-chefs. Ceux-ci ne laissent qu’une faible partie du visage libre et rendent les identifications beaucoup plus compliquées. Il existe des groupes de recherche qui se basent intégralement sur l’analyse de telles images et créent des algorithmes pour reconnaître une personne en se basant uniquement sur une petite partie visible du visage, mais ces systèmes ne sont pas encore assez développés pour une utilisation généralisée.<ref>{{Article |prénom1=Felix |nom1=Juefei-Xu |prénom2=Khoa |nom2=Luu |prénom3=Marios |nom3=Savvides |titre=<italic>Spartans</italic>: Single-Sample Periocular-Based Alignment-Robust Recognition Technique Applied to Non-Frontal Scenarios |périodique=IEEE Transactions on Image Processing |volume=24 |numéro=12 |date=2015-12 |issn=1057-7149 |issn2=1941-0042 |doi=10.1109/tip.2015.2468173 |lire en ligne=http://dx.doi.org/10.1109/tip.2015.2468173 |consulté le=2021-05-18 |pages=4780–4795 }}</ref>Un autre facteur qui peut compliquer l’identification est le dégât qu’un traumatisme peuvent laisser au visage.<ref>{{Article |prénom1=Oliver W |nom1=Morgan |prénom2=Pongruk |nom2=Sribanditmongkol |prénom3=Clifford |nom3=Perera |prénom4=Yeddi |nom4=Sulasmi |titre=Mass Fatality Management following the South Asian Tsunami Disaster: Case Studies in Thailand, Indonesia, and Sri Lanka |périodique=PLoS Medicine |volume=3 |numéro=6 |date=2006-06-06 |issn=1549-1676 |doi=10.1371/journal.pmed.0030195 |lire en ligne=http://dx.doi.org/10.1371/journal.pmed.0030195 |consulté le=2021-05-18 |pages=e195 }}</ref>

==== Biais des algorithmes de reconnaissance faciale ====
Bien que la précision de la technologie de reconnaissance faciale ait augmenté ces dernières années, il existe des différences de performance entre certains groupes démographiques. Des tests de l'Institut national des normes et de la technologie des Etats-Unis ont montré que les techniques de reconnaissance faciale fonctionnent généralement mieux sur les hommes à la peau claire et fonctionnent généralement moins bien sur les enfants, les personnes âgées et les femmes à la peau plus foncée. Ces différences peuvent entraîner des erreurs telles que l’identification erronée d’un acheteur en tant que voleur à l’étalage. En 2019, une étude réalisée par le Government Accountability Office des Etats-Unis sur 189 algorithmes de reconnaissance faciale utilisés dans le milieu commercial a conclu que les hommes blancs avaient le plus faible taux de faux positifs, tandis que les femmes noires avaient le taux le plus élevé, près de dix fois supérieur.

Actuellement, il n'y a pas de consensus sur les causes des différences de performance, y compris les facteurs environnementaux (tels que l'éclairage) ou les facteurs liés à la création ou au fonctionnement de la technologie. Par contre, beaucoup d’académiques supposent que cette différence d’efficacité est due, en partie, aux ensembles de données utilisés qui n’incluent pas suffisamment de données de certains groupes démographiques.<ref>{{Article |prénom1=P Jonathon |nom1=Phillips |prénom2=Fang |nom2=Jiang |prénom3=Abhijit |nom3=Narvekar |prénom4=Julianne |nom4=Ayyad |titre=An other race effect for face recognition algorithms |éditeur=National Institute of Standards and Technology |date=2010 |lire en ligne=http://dx.doi.org/10.6028/nist.ir.7666 |consulté le=2021-05-18 }}</ref>

Il existe diverses méthodes qui peuvent potentiellement diminuer ces différences de performance.<ref>{{Lien web |langue=en |prénom=U. S. Government Accountability |nom=Office |titre=Facial Recognition Technology: Privacy and Accuracy Issues Related to Commercial Uses |url=https://www.gao.gov/products/gao-20-522 |site=www.gao.gov |consulté le=2021-05-18}}</ref> Par exemple, des ensembles de données plus larges et plus représentatifs permettraient de développer la technologie de manière similaire pour les différents groupes démographiques. Pour faire cela, les experts conseillent l’utilisation de techniques permettant de supprimer aléatoirement les images d’un groupe surreprésenté.<ref>{{Lien web |langue=en |prénom=U. S. Government Accountability |nom=Office |titre=Facial Recognition Technology: Privacy and Accuracy Issues Related to Commercial Uses |url=https://www.gao.gov/products/gao-20-522 |site=www.gao.gov |consulté le=2021-05-18}}</ref> Ensuite, la qualité de l’image étant un facteur clé dans l’évaluation de la performance de ces algorithmes, de nombreux experts pensent qu’il faudrait un meilleur contrôle des facteurs physiques et le respect de normes de qualité d’image. Une étude réalisée par des évaluateurs indépendants et mentionnée dans le rapport du Government Accountability Office des Etats-Unis de 2020 sur la reconnaissance faciale a montré qu’un mauvais éclairage rendait les analyses de reconnaissance faciale moins efficaces sur les femmes à peau foncée.

==== Utilisation commerciale de la reconnaissance faciale ====
La technique de reconnaissance faciale est de plus en plus utilisée dans le milieu commercial. Des exemples d’utilisation sont expliqués ci-dessous.

Certaines entreprises peuvent utiliser la reconnaissance faciale à des fins de sûreté et de sécurité. Par exemple, certains casinos utilisent des systèmes de reconnaissance faciale pour identifier les tricheurs connus et aussi pour permettre aux personnes ayant une dépendance aux jeux de s’inscrire volontairement dans un programme d’aide. <ref>{{Lien web |langue=en |titre=National Retail Security Survey 2019 |url=https://nrf.com/research/national-retail-security-survey-2019 |site=NRF |consulté le=2021-05-18}}</ref>

Pour le marketing, certaines entreprises utilisent la reconnaissance faciale pour identifier les clients importants et leur envoyer des publicités ciblées. Des fournisseurs aux Etats-Unis utilisent par exemple cette technologie pour accélérer l’identification de l’âge d’un client qui essaie d’acheter de l’alcool. <ref>{{Lien web |langue=en |prénom=U. S. Government Accountability |nom=Office |titre=Facial Recognition Technology: Privacy and Accuracy Issues Related to Commercial Uses |url=https://www.gao.gov/products/gao-20-522 |site=www.gao.gov |consulté le=2021-05-18}}</ref>

Depuis quelques années, la reconnaissance faciale est aussi utilisée pour le suivi de la présence d’étudiants ou employés à des événements. Par exemple, les universités américaines utilisent cette technologie pour identifier les étudiants présents en classe et suivre leur assiduité aux cours. Certaines entreprises l’utilisent par exemple pour suivre la présence des employés à des conférences ou des événements.<ref>{{Lien web |langue=en |prénom=U. S. Government Accountability |nom=Office |titre=Facial Recognition Technology: Privacy and Accuracy Issues Related to Commercial Uses |url=https://www.gao.gov/products/gao-20-522 |site=www.gao.gov |consulté le=2021-05-18}}</ref>

Plus récemment, certaines entreprises ont commencé à utiliser cette technologie pour surveiller la propagation du Covid-2019 et identifier les personnes entrées en contact avec des personnes présentant le symptôme. <ref>{{Lien web |langue=en |prénom=U. S. Government Accountability |nom=Office |titre=Facial Recognition Technology: Privacy and Accuracy Issues Related to Commercial Uses |url=https://www.gao.gov/products/gao-20-522 |site=www.gao.gov |consulté le=2021-05-18}}</ref>

Des agences gouvernementales, des universités et certains représentants de l’industrie ont souligné les problèmes de confidentialité et de sécurité des données concernant les utilisations commerciales de la reconnaissance faciale, en particulier quand ces technologies sont utilisées sans législation adéquate. La préoccupation principale est que les données recueillies par les entreprises pourraient être utilisées, partagées ou vendues sans le consentement des consommateurs.<ref>{{Lien web |langue=en |prénom=U. S. Government Accountability |nom=Office |titre=Facial Recognition Technology: Privacy and Accuracy Issues Related to Commercial Uses |url=https://www.gao.gov/products/gao-20-522 |site=www.gao.gov |consulté le=2021-05-18}}</ref>

=== Dans la culture populaire ===
L’intérêt envers le domaine des algorithmes de vision par ordinateur a augmenté de manière importante à partir des années 2015. De nombreux acteurs cinématographiques et médiatiques participent à la vulgarisation de cette technologie, entre autres Netflix avec le documentaire « Coded Bias »<ref>{{Lien web |langue=fr |titre=Le documentaire "Coded Bias" révèle la discrimination des algorithmes |url=https://www.rts.ch/info/culture/cinema/12108682-le-documentaire-coded-bias-revele-la-discrimination-des-algorithmes.html |site=rts.ch |date=2021-04-16 |consulté le=2021-05-18}}</ref> présenté au festival de Sundace à Zurich et au Festival du film et forum international sur les droits humains de Genève (FIFDH) en 2020. « Coded Biais » est un documentaire traitant des différentes conséquences indésirables de l’utilisation d’algorithmes de vision par ordinateur. Le téléspectateur est invité à suivre Joy Buolamwin, une chercheuse du MIT, qui, après s’être rendue compte qu’un logiciel de reconnaissance faciale ne reconnaissait pas les visages de personnes noires mais bien celui de personnes blanches, investigue l’origine de ce problème. L’enquête de la chercheuse indique une réelle omniprésence de biais dans les algorithmes de vision par ordinateur, touchant majoritairement les femmes ainsi que les personnes de couleurs. L’algorithme utilisé par Amazon pour trier les candidatures d’application pour des offres de travail, des algorithmes offrant de meilleurs accès aux soins et à des meilleurs crédits immobiliers à des personnes blanches qu’à des personnes de couleurs sont pointés du doigt. Le documentaire s’intéresse également à l'utilisation de ces algorithmes dans des perspectives commerciales et de surveillance de masse. Par exemple, le gouvernement central chinois a utilisé des algorithmes de vision par ordinateur pour identifier les manifestants indépendantistes à Hong-Kong en 2019. Le film se base sur des témoignages de différentes personnes victimes de ces biais au quotidien. La réalisatrice met en avant l’importance que ces technologies soit d’une part bien plus soumises à des juridictions strictes mais aussi la nécessité que ces algorithmes soient développés par des entreprises à but non lucratif, ce qui permettrait notamment une plus large acceptation de ces technologies par les populations.<ref>{{Lien web |langue=fr |prénom=Elina |nom=S |titre=Coded Bias : un film Netflix sur le racisme de l’intelligence artificielle |url=https://www.lebigdata.fr/coded-bias-film-racisme-ia |site=LeBigData.fr |date=2021-03-23 |consulté le=2021-05-18}}</ref>

== Notes et références ==
== Voir aussi ==
== Voir aussi ==
=== Articles connexes ===
=== Articles connexes ===

Version du 18 mai 2021 à 20:35

La vision par ordinateur est un domaine scientifique interdisciplinaire qui traite de la façon dont les ordinateurs peuvent acquérir une compréhension de haut niveau à partir d'images ou de vidéos numériques. Du point de vue de l'ingénierie, il cherche à comprendre et à automatiser les tâches que le système visuel humain peut effectuer.[1] [2][3]

Vue d'artiste d'un Rover automatique explorant la surface de Mars. Il est équipé sur son sommet de deux caméras vidéo lui conférant une vision stéréoscopique.

Les tâches de vision par ordinateur comprennent des procédés pour acquérir, traiter, analyser et « comprendre » des images numériques, et extraire des données afin de produire des informations numériques ou symboliques, par ex. sous forme de décisions. [4][5][6][7]

Dans ce contexte, la compréhension signifie la transformation d'images visuelles (l'entrée de la rétine) en descriptions du monde qui ont un sens pour les processus de pensée et peuvent susciter une action appropriée. Cette compréhension de l'image peut être vue comme l’acquisition d'informations symboliques à partir de données d'image à l'aide de modèles construits à l'aide de la géométrie, de la physique, des statistiques et de la théorie de l'apprentissage.[8]

La discipline scientifique de la vision par ordinateur s'intéresse à la théorie des systèmes artificiels qui extraient des informations à partir d'images. Les données d'image peuvent prendre de nombreuses formes, telles que des séquences vidéo, des vues de plusieurs caméras, des données multidimensionnelles à partir d'un scanner 3D ou d'un appareil de numérisation médical. La discipline technologique de la vision par ordinateur cherche à appliquer les modèles théoriques développés à la construction de systèmes de vision par ordinateur.

Les sous-domaines de la vision par ordinateur comprennent la détection d'événements, le suivi vidéo, la reconnaissance d'objets, l'apprentissage, l'indexation, l'estimation de mouvement, la modélisation de scènes 3D et la restauration d'image

Histoire

Le développement de la vision par ordinateur a commencé dans les universités pionnières de l'intelligence artificielle à la fin des années 1960. L’objectif était d’imiter le système visuel humain, première étape pour doter les robots d'un comportement intelligent. [9] En 1966, on croyait que cela pouvait être réalisé grâce à un projet d'été, en attachant une caméra à un ordinateur et en lui faisant "décrire ce qu'il voyait". [10][11]

Ce qui distinguait la vision par ordinateur du domaine prédominant du traitement d'images numériques à cette époque était le désir d'extraire une structure tridimensionnelle d'images dans le but de parvenir à une compréhension complète de la scène. Des études dans les années 1970 ont formé les premières bases de nombreux algorithmes de vision par ordinateur qui existent aujourd'hui, y compris l'extraction des bords d'images, l'étiquetage des lignes, la modélisation non polyédrique et polyédrique, la représentation d'objets sous forme d'interconnexions de structures plus petites, le flux optique et estimation de mouvement. [12]

La décennie suivante a vu des études basées sur une analyse mathématique plus rigoureuse et des aspects quantitatifs de la vision par ordinateur. Ceux-ci incluent le concept d'espace d'échelle, l'inférence de la forme à partir de divers indices tels que l'ombrage, la texture et la mise au point, et les modèles de contour connus sous le nom de serpents. Les chercheurs ont également réalisé que bon nombre de ces concepts mathématiques pouvaient être traités dans le même cadre d'optimisation que la régularisation et les champs aléatoires de Markov.[13]

Dans les années 1990, certains des thèmes de recherche précédents sont devenus plus actifs que les autres. La recherche sur les reconstructions projectives 3D a permis de mieux comprendre l' étalonnage de caméras. Avec l'avènement des méthodes d'optimisation pour la calibration des caméras, on s'est rendu compte que de nombreuses idées avaient déjà été explorées dans la théorie de l'ajustement des faisceaux dans le domaine de la photogrammétrie. Cela a conduit à des méthodes pour des reconstructions 3D éparses de scènes à partir de plusieurs images. Des progrès ont été réalisés sur le problème de la correspondance stéréo dense et d'autres techniques stéréo à vues multiples. Dans le même temps, des variations de coupe graphique ont été utilisées pour résoudre la segmentation d'image.

Cette décennie a également marqué la première fois que des techniques d'apprentissage statistique ont été utilisées dans la pratique pour reconnaître les visages dans les images (voir Eigenface). Vers la fin des années 90, un changement important s'est produit avec l'interaction accrue entre les domaines de l'infographie et de la vision par ordinateur. Cela comprenait le rendu basé sur l'image, l'interpolation de vue, l'assemblage d'images panoramiques et le premier rendu de champ lumineux .

Des travaux récents ont vu la résurgence des méthodes basées sur les fonctionnalités, utilisées en conjonction avec des techniques d'apprentissage automatique et des cadres d'optimisation complexes [14][15], Les progrès des techniques d'apprentissage en profondeur ont donné une nouvelle vie au domaine de la vision par ordinateur. La précision des algorithmes d'apprentissage en profondeur sur plusieurs ensembles de données de vision par ordinateur de référence pour des tâches allant de la classification, de la segmentation et du flux optique a surpassé les méthodes antérieures.

Domaines connexes

Physique du solide

La physique du solide est un domaine étroitement lié à la vision par ordinateur. La plupart des systèmes de vision par ordinateur reposent sur des capteurs d'image, qui détectent le rayonnement électromagnétique, qui se présente généralement sous la forme de lumière visible ou infrarouge. Les capteurs sont conçus en utilisant la physique quantique. Le processus par lequel la lumière interagit avec les surfaces est expliqué en utilisant la physique. La physique explique le comportement de l'optique qui est au cœur de la plupart des systèmes d'imagerie. Les capteurs d'image sophistiqués nécessitent même la mécanique quantique pour fournir une compréhension complète du processus de formation d'image9. En outre, divers problèmes de mesure en physique peuvent être résolus en utilisant la vision par ordinateur, par exemple le mouvement dans les fluides.

Neurobiologie

Un autre domaine qui joue un rôle important dans la vision par ordinateur est la neurobiologie, en particulier l'étude du système de vision biologique. Au cours du siècle dernier, une étude approfondie des yeux, des neurones et des structures cérébrales a été consacrée au traitement des stimuli visuels chez les humains et chez divers animaux. Cela a conduit à une description grossière, mais complexe, de la façon dont les systèmes de vision «réels» fonctionnent pour résoudre certaines tâches liées à la vision. Ces résultats ont conduit à un sous-domaine de la vision par ordinateur où les systèmes artificiels sont conçus pour imiter le traitement et le comportement des systèmes biologiques, à différents niveaux de complexité. En outre, certaines des méthodes basées sur l'apprentissage développées dans le cadre de la vision par ordinateur (par exemple, l'analyse et la classification d'images et de caractéristiques basées sur le réseau neuronal et l'apprentissage profond) ont leur expérience en biologie.Certains volets de la recherche sur la vision par ordinateur sont étroitement liés à l'étude de la vision biologique - en effet, tout comme de nombreux volets de la recherche sur l'IA sont étroitement liés à la recherche sur la conscience humaine et à l'utilisation des connaissances stockées pour interpréter, intégrer et utiliser les informations visuelles. Le domaine de la vision biologique étudie et modélise les processus physiologiques derrière la perception visuelle chez l'homme et d'autres animaux. La vision par ordinateur, quant à elle, étudie et décrit les processus mis en œuvre dans les logiciels et le matériel derrière les systèmes de vision artificielle. L'échange interdisciplinaire entre la vision biologique et la vision par ordinateur s'est avéré fructueux dans les deux domaines15.

Traitement du signal

Un troisième domaine lié à la vision par ordinateur est le traitement du signal. De nombreuses méthodes de traitement de signaux à une variable, typiquement des signaux temporels, peuvent être étendues de manière naturelle au traitement de signaux à deux variables ou de signaux à variables multiples en vision par ordinateur. Cependant, en raison de la nature spécifique des images, il existe de nombreuses méthodes développées dans le domaine de la vision par ordinateur qui n'ont pas d'équivalent dans le traitement de signaux à une variable. Avec la multi dimensionnalité du signal, cela définit un sous-champ dans le traitement du signal dans le cadre de la vision par ordinateur.

Navigation robotique

La navigation robotique traite parfois de la planification de chemin autonome pour que les systèmes robotiques naviguent dans un environnement16. Une compréhension détaillée de ces environnements est nécessaire pour les parcourir. Des informations sur l'environnement pourraient être fournies par un système de vision par ordinateur, agissant comme un capteur de vision et fournissant des informations de haut niveau sur l'environnement et le robot.

Autres domaines

De nombreuses méthodes de vision par ordinateur sont basées sur les statistiques, l'optimisation ou la géométrie.

Une part importante du domaine est consacrée à l’implémentation de la vision par ordinateur; comment les méthodes existantes peuvent être réalisées dans diverses combinaisons de logiciels et de matériel, ou comment ces méthodes peuvent être modifiées afin de gagner en vitesse de traitement sans perdre trop de performances. La vision par ordinateur est également utilisée dans le commerce électronique de la mode, la recherche de brevets, les meubles et l'industrie de la beauté.

Applications

Les applications vont des tâches telles que les systèmes de vision industriels qui, par exemple, inspectent les bouteilles qui défilent sur une ligne de production, à la recherche sur l'intelligence artificielle et les ordinateurs ou robots capables de comprendre le monde qui les entoure. Dans de nombreuses applications de vision par ordinateur, les ordinateurs sont préprogrammés pour résoudre une tâche particulière, mais les méthodes basées sur l'apprentissage sont de plus en plus courantes.

Des exemples d'applications de la vision par ordinateur comprennent des systèmes pour:

- Inspection automatique, par exemple dans les applications de fabrication;

- Aider les humains dans les tâches d'identification, par exemple, un système d'identification des espèces17;

- Contrôle des processus, par exemple, un robot industriel;

- Détection d'événements, par exemple pour la surveillance visuelle ou le comptage de personnes, par exemple dans l'industrie de la restauration; - Interaction, par exemple en tant qu'entrée d'un dispositif d'interaction ordinateur-homme;

- Modélisation d'objets ou d'environnements, par exemple, analyse d'images médicales ou modélisation topographique;

- Navigation, par exemple par un véhicule autonome ou un robot mobile; et

- Organisation des informations, par exemple pour l'indexation de bases de données d'images et de séquences d'images.

L'apprentissage des formes 3D a été une tâche difficile en vision par ordinateur. Les progrès récents de l'apprentissage en profondeur ont permis aux chercheurs de créer des modèles capables de générer et de reconstruire des formes 3D à partir de cartes de profondeur ou de silhouettes à une ou plusieurs vues de manière transparente et efficace.

Médecine

L'un des domaines d'application les plus importants est la vision par ordinateur médicale, ou traitement d'images médicales, caractérisé par l'extraction d'informations à partir de données d'image pour diagnostiquer un patient. On peut l’utiliser dans la détection de tumeurs, d'artériosclérose ou d'autres changements malins; les mesures des dimensions des organes, du débit sanguin, etc. en sont un autre exemple. La vision par la recherche médicale en fournissant de nouvelles informations: par exemple, sur la structure du cerveau ou sur la qualité des traitements médicaux. Les applications de la vision par ordinateur dans le domaine médical incluent également l'amélioration des images interprétées par l'homme - images ultrasonores ou radiographiques par exemple - pour réduire l'influence du bruit.

Vision industrielle

Un deuxième domaine de l’application de la de la vision par ordinateur est l’industrie, parfois appelée vision industrielle, où des informations sont extraites dans le but de soutenir un processus de fabrication. Un exemple est le contrôle de la qualité de produits finis ou en cours de finalité dans le but de détecter des défauts. Un autre exemple est la mesure de la position et l’orientation de différents produits qui ont besoin d’être saisis par un bras de robot. La vision industrielle est également largement utilisée dans les processus agricoles pour éliminer les aliments de certains matériaux en vrac, processus appelé tri optique18.

Militaire

Les applications militaires sont probablement l'un des domaines les plus importants de la vision par ordinateur. Les exemples évidents sont la détection de soldats ou de véhicules ennemis et le guidage de missiles. Des systèmes plus avancés de guidage de missile envoient le missile vers une zone plutôt qu'une cible spécifique, et la sélection de la cible est effectuée lorsque le missile atteint la zone grâce à des données d'image acquises localement. Les concepts militaires modernes, tels que la «conscience du champ de bataille», impliquent que divers capteurs, y compris des capteurs d'image, fournissent un ensemble riche d'informations sur une scène de combat qui peuvent ensuite être utilisées pour prendre des décisions stratégiques. Dans ce cas, le traitement automatique des données est utilisé pour réduire la complexité et pour fusionner les informations de plusieurs capteurs dans le but d’augmenter la fiabilité.

Véhicules autonomes

L'un des nouveaux domaines d'application est celui des véhicules autonomes, qui comprennent les submersibles, les véhicules terrestres (petits robots avec roues, voitures ou camions), les véhicules aériens et les véhicules aériens sans pilote (UAV). Le niveau d'autonomie va de véhicules entièrement autonomes (sans pilote) à des véhicules où différents systèmes basés sur la vision par ordinateur aide dans certaines situations particulières le pilote ou conducteur. Les véhicules entièrement autonomes utilisent généralement la vision par ordinateur pour la navigation, par ex. pour savoir où il se trouve, ou pour produire une carte de son environnement (SLAM) et pour détecter les obstacles. Il peut également être utilisé pour détecter certains événements spécifiques à un domaine particulier, par exemple, un UAV à la recherche d'incendies de forêt. Des exemples de systèmes de soutien sont les systèmes d'avertissement d'obstacles dans les voitures et les systèmes d'atterrissage autonome des avions. Plusieurs constructeurs automobiles ont fait la démonstration de systèmes de conduite autonome de voitures, mais cette technologie n'a toujours pas atteint un niveau où elle peut être mise sur le marché. Il existe de nombreux exemples de véhicules militaires autonomes allant à des missiles avancés aux drones pour des missions de reconnaissance ou le guidage de missiles. L'exploration spatiale est déjà en cours avec des véhicules autonomes utilisant la vision par ordinateur, par exemple, Curiosity de la NASA et le rover Yutu-2 de la CNSA.

Détection tactile

Des matériaux tels que le caoutchouc et le silicium sont utilisés pour créer des capteurs qui permettent des applications telles que la détection de micro-ondulations et l'étalonnage des mains robotiques. Le caoutchouc peut être utilisé afin de créer un moule qui peut être placé sur un doigt, à l'intérieur de ce moule se trouve plusieurs jauges de contrainte.

Le moule à doigt et les capteurs pourraient alors être placés sur une petite feuille de caoutchouc contenant un réseau de broches en caoutchouc. Un utilisateur peut alors porter le moule à doigt et tracer une surface. Un ordinateur peut alors lire les données des jauges de contrainte et mesurer si une ou plusieurs broches sont poussées vers le haut. Si une épingle est poussée vers le haut, l'ordinateur peut la reconnaître comme une imperfection de la surface. Ce type de technologie est utile pour recevoir des données précises sur les imperfections sur une très grande surface19. Une autre variante de ce capteur de moule de doigt sont des capteurs qui contiennent une caméra suspendue en silicium. Le silicium forme un dôme autour de l'extérieur de la caméra et dans le silicium on a des marqueurs ponctuels qui sont également espacés. Ces caméras peuvent ensuite être placées sur des appareils tels que des mains robotisées afin de permettre à l'ordinateur de recevoir des données tactiles très précises.20

Autre domaines d'applications

- Prise en charge de la création d'effets visuels pour le cinéma et la diffusion, par exemple, suivi de caméra. - Surveillance.

- Détection de somnolence du conducteur.

- Suivi et comptage des organismes dans les sciences biologiques (21).

Société

Utilisation de la vision par ordinateur pour la détection de violations de droits humains

Avec l’utilisation croissante des médias sociaux, la disponibilité d’internet et l’extension de la couverture de la téléphonie mobile, la place des médias citoyens dans la documentation des crimes de guerre, de la répression gouvernementale et plus généralement des violations des droits de l’homme s’est considérablement agrandie22.

L’analyse de tous les documents vidéos et images requiert beaucoup de personnel, ce qui peut avoir un cout important. Il faut aussi noter que les compétences linguistiques et les connaissances culturelles et géographiques peuvent limiter le nombre de chercheurs capables d’effectuer cette analyse et qu’il peut être émotionnellement difficile de regarder des vidéos dépeignant des scènes de guerre ou d’agressions23.

Dans la majorité des cas, le travail manuel des analystes reste nécessaire. Cependant, les techniques de vision par ordinateur sont de plus en plus utilisées par les spécialistes24 (par exemple: Carnegie Mellon University Center for Human Rights Science, Human Rights Watch, New York University Human Rights Methodology Lab, Carr Center for Human Rights de l'Université Harvard,...)

En effet, ces techniques offrent des possibilités inédites. Premièrement, la vision par ordinateur offre la capacité de rechercher rapidement dans de grands volumes de vidéos des incidents ou des événements spécifiques. Elle permet par exemple de détecter de nombreux types d’objets qui intéressent les chercheurs en droits de l’homme comme les hélicoptères, les avions et autres véhicules militaires25. Cette technique est également en mesure détecter des sons particuliers comme des coups de feu ou des explosions.

Ensuite, la vision par ordinateur permet de mieux comprendre les relations entre différents incidents grâce à une analyse globale de grandes collections d’événements26.L’utilisation de la vision par ordinateur dans ce contexte permet donc aux enquêteurs de ne pas devoir s’appuyer sur une seule vidéo pour la compréhension d’un événement. Elle permet aussi d’augmenter la quantité de données utilisées pour placer l’événement dans son contexte.

Cependant, il est important de noter que la vision par ordinateur ne peut pas remplacer totalement l’activité humaine dans ce domaine2728. Tout d’abord, la reconstruction et l’analyse d’événements seront toujours limitées par la qualité et la quantité des données. Ensuite, le jugement humain est important pour donner un sens et un contexte au travail effectué par le système de vision par ordinateur. Un exemple29 important qui souligne l’importance du jugement humain est l’analyse de la provenance des vidéos. Même si les algorithmes de vision par ordinateur sont capables d’analyser de grandes collections de vidéos pour éviter le détournement d’événements, il faut pouvoir prendre en compte le contexte d’origine de la vidéo.

Ce phénomène est très présent sur les réseaux sociaux où les acteurs ne sont généralement pas neutres et ont tendance à publier en masse des vidéos supportant une cause précise.30 Il est donc important de placer les actions décrites dans leur contexte pour pouvoir pleinement les comprendre. Cela nécessite d’avoir des archives vidéos complètes et d'utiliser des formes plus traditionnelles de preuves médico-légales et de témoignages humains. Par exemple, dans les cas de violence policière, il est important de connaître les interactions antérieures entre les policiers et les personnes concernées. La capacité d’analyser de grands volumes de vidéos ne garantit donc pas que la vérité soit découverte car les vidéos ne fournissent toujours qu’une perspective sur les événements, pas une vue omnisciente ou un récit maître.31

Voitures autonomes

Le fonctionnement des voitures autonomes repose sur la capacité d’analyse visuelle du milieu dans lequel elles se déplacent. Cette analyse est permise par des techniques de vision par ordinateur. L’utilisation de la vision par ordinateur et des technologies connexes dans ce domaine soulève plusieurs problématiques et souligne l’importance de la responsabilité dans les décisions prises par des programmes informatiques assistant la conduite.32

En mai 2016, un automobiliste est décédé au volant d’une Tesla modèle S33 alors que sa voiture était en mode auto-pilote. Cet événement tragique est considéré comme le premier accident mortel vérifié d’une voiture en conduite autonome. La voiture n’avait pas été en mesure de détecter un tracteur qui traversait la route à un croisement. L’analyse des données fournies par la voiture, retraçant le parcours de l’automobiliste avant l’accident ont permis de déterminer que la voiture roulait trop vite et que le conducteur répondait aux stimulations périodiques de la voiture. Les données informatiques34 ne comprenaient cependant aucune explication des décisions prises par le pilotage automatique dans les instants précédant l’accident ou détails sur la façon précise dont l’information visuelle avait été traitée35.

Dans un premier temps, lorsqu’un accident de la route est inévitable, le système informatique indique, après analyse de l’environnement, le comportement que la voiture doit adopter. En utilisant les informations dont il dispose grâce au système de vision par ordinateur (prédiction des déplacements pouvant mener à des blessures graves, trajectoires bloquées p.ex.), le programme informatique pourrait être amené à choisir entre privilégier la survie des passagers de la voiture ou des personnes externes36. Ces décisions de vie ou de mort en cas d’accident sont centrales dans le domaine de l’éthique des algorithmes. Elles constituent l’une des préoccupations de gouvernance37 principale et rappellent également l’importance d’apporter un cadre légal où les constructeurs et les concepteurs peuvent être tenus responsables.

Les voitures (partiellement) autonomes sont contrôlées par des systèmes informatiques construits autour de diverses techniques d’apprentissage comme l’apprentissage profond et l’apprentissage adaptatif. Les données traitées par ces programmes sont acquises par différents types de capteurs (radar, Lidar, GPS,). L’utilisation extensive de l’apprentissage profond38 pourrait transférer l’ensemble des décisions vers la machine et rendre la responsabilité éventuelle des concepteurs des modèles peu évidente à prouver39. On observe un phénomène analogue à celui d’une boite noire40, dans laquelle la réaction observée dans une certaine situation est prédite mais l’explication précise du raisonnement à l’origine de l’action reste opaque.

Plusieurs acteurs importants du marché de l’automobile impliqués dans des projets d’automatisation de la conduite utilisent des combinaisons de structures informatiques et logicielles différentes. Ces approches distinctes ainsi que les désaccords techniques entre les différents constructeurs soulignent l’importance de développer un cadre législatif 41suffisant pour définir les standards relatifs à l’intégration de certaines technologies dans le domaine de la conduite assistée.

Un autre enjeu lié à l’utilisation des voitures autonomes est la vulnérabilité du code informatique qui régit le mouvement de la voiture42. Si un tiers parvient à accéder au code informatique, il peut accéder aux algorithmes responsables du fonctionnement et détecter les éventuelles faiblesses. En 2016, la chaîne américaine ME-tv annonçait que des pirates informatiques avaient réussi à modifier le programme informatique d’une Tesla modèle S43. Ils avaient supprimé tous les avertissements que le système envoyait à l’utilisateur, indiquant entre autres au pilote de mettre ses mains sur le volant44.

La vision par ordinateur dans l’art

Histoire

Il existe une longue histoire d'utilisation de l'imagerie dans l’étude de l’art.4546 Peu de temps après la découverte des rayons X au 19e siècle, ceux-ci ont été utilisés pour révéler des sous-dessins et des pentimenti. Plus tard, la photographie infrarouge et la réflectographie ont été exploitées à des fins similaires. Des techniques comme l’imagerie multi-spectre et l’analyse de la fluorescence sont utilisées encore aujourd’hui pour révéler des caractéristiques des œuvres comme la composition des pigments. 4748Historiquement, les images résultantes produites par ces techniques ainsi que les données générées par les instruments étaient analysées par des spécialistes de l’art.49

Au cours des dernières décennies, un certain nombre de chercheurs formés en vision par ordinateur, en traitement d'image, en infographie et en histoire de l'art ont développé des méthodes informatiques rigoureuses pour résoudre un grand nombre de problèmes de l’histoire de l’art.

On constate que le recours à l'imagerie numérique dans l'étude de l’art est en forte croissance.50

Ces méthodes permettent d’étudier certaines caractéristiques difficiles à analyser à l’œil nu. Elles ont notamment permis de mieux comprendre les relations entre la structure des coups de pinceaux et les différentes échelles et couleurs dans la Sainte famille ou de détecter des anomalies de perspective dans le portrait Arnolfini de van Eyck.51

La puissance de ces méthodes informatiques provient entre autres des points ci-dessous:

- Les méthodes informatiques utilisent un langage objectif, qui permet aux spécialistes d’art d’ajouter des éléments quantitatifs et universels dans leur analyse. Ceci diminue le risque d’ambiguïté lié à l’utilisation exclusive de termes subjectifs pour l’analyse des œuvres.52

- Elles permettent de présenter des angles de vue alternatifs de l’œuvre grâce à des procédés d’infographie tridimensionnelle. Ce type de perspective ne peut être obtenu qu’à l’aide d’outils informatiques.53

- Possibilité d'acquérir une grande quantité de différents types de données, bien supérieure à celle qui est aujourd’hui accessible aux spécialistes. 54

Les méthodes couramment utilisées dans le domaine comprennent : les procédures basées sur les pixels individuels, les surfaces, l’analyse de perspectives, les méthodes de déformation de l’art courbe, l’analyse informatique de l’éclairage, des coups de pinceaux, de la craquelure, l’analyse graphique simple et des méthodes optiques.55

The next Rembrandt

Un exemple assez probant de l’utilisation des diverses méthodes de vision par ordinateur dans l’étude de l’art est le « Next Rembrandt Project ».[16]

The Next Rembrandt est un projet issu d’une collaboration entre Microsoft, ING et la TU DELFT qui avait pour but de créer une peinture originale imitant le style du peintre Rembrandt Van Rijn en utilisant des techniques d’analyse d’image des œuvres existantes.

La première étape consistait en l’analyse de l’ensemble des œuvres existantes à l’aide de scans tridimensionnels à haute résolution. Les images ont été traitées avec des algorithmes d’apprentissage automatique pour augmentation leur résolution. Ceci a permis de générer une base de données numériques de 150 giga byte qui a servi de base de données pour le reste du projet.

Après une analyse informatique extensive de la démographie des personnes représentées dans son œuvre , les chercheurs ont déterminé les caractéristiques les plus communes. Les caractéristiques étudiées comprenaient l’orientation de la tête, la présence de barbe/moustache, le type d’habits et l’âge. Après analyse de la base des données, les chercheurs ont conclu que le profil le plus commun était un homme caucasien entre trente et quarante habillé en noir avec un col blanc et avec le visage orienté vers la droite.

Les chercheurs ont ensuite développé un modèle générant des traits de visage se basant sur les caractéristiques des œuvres de Rembrandt. Les spécificités comprennent l’utilisation fréquente du contraste entre la lumière et l’obscurité, le type de géométrie utilisé par le peintre pour représenter les visages, la composition et la géométrie du matériel de peinture. Enfin, après avoir généré la peinture en deux dimensions, une analyse du relief et des types de coups de pinceaux des œuvres existantes de Rembrandt a permis de recréer une texture similaire.

Les chercheurs ont créé une carte de hauteur à l'aide de deux algorithmes différents qui ont trouvé des modèles de texture des surfaces de toile et des couches de peinture. Les informations ont été transformées en données de hauteur, ce qui a permis d'imiter les coups de pinceau utilisés par Rembrandt

La vision par ordinateur dans le diagnostic médical

Les domaines d’application principaux de la vision par ordinateur médicale sont la radiologie, la dermatologie, la pathologie ou l’ophtalmologie.

L’introduction d’appareils qui utilisent des algorithmes de vision par ordinateur dans le contexte clinique a soulevé la question de la responsabilité légale en cas d’erreur. Certains acteurs soulignent la nécessité d’adapter le cadre légal de ce domaine.[17] Les questions soulevées concernent principalement le contexte d'utilisation de ces techniques, leur degré d’intervention ou encore les responsabilités des différents acteurs lors de potentiels accidents. Ces acteurs[18] soulignent l'importance de la transparence des algorithmes qui régissent les machines de vision par ordinateur. D’un point de vue légal, la plupart des fautes professionnelles sont prononcées lorsque le médecin s’est écarté des pratiques médicales classiques.[19]

Un autre point souligné par ces acteurs est l'importance de la justification du raisonnement ayant mené à un diagnostic médical. Il existe de nombreuses techniques qui permettent aux modèles d'apprentissage automatique médicaux de justifier leurs décisions. Une de ces techniques consiste en la superposition informatique d’une carte thermique avec l'image médicale analysée. Ceci permet de confirmer que les algorithmes de vision par ordinateur basent leur diagnostic sur l'analyse de parties pertinentes de l'image. Les cartes thermiques sont générées en utilisant diverses techniques d’apprentissage automatique comme la visualisation d’activation de classe[20] ou la cartographie de la saillance[21]. Des méthodes de générations permettent également de prendre en considération le contexte médical en listant les principaux facteurs, diagnostics, et analyses démographiques qui ont contribué à cette décision.[22]

La question de la responsabilité et la qualification des algorithmes et des dispositifs de vision par ordinateur en tant que produit ou service est centrale sur le plan juridique. En effet, le traitement juridique varie sensiblement en fonction du statut accordé.[23] Les algorithmes de vision par ordinateur destinés à automatiser une tache clinique sont généralement catégorisés[24] par la FDA comme des dispositifs médicaux. Ils sont soit incorporés comme dispositifs médicaux traditionnels ou soit classifiés en tant que logiciels de guide de dispositif médical.

Reconnaissance faciale

Une des utilisations les plus fréquentes de la vision par ordinateur est la reconnaissance faciale. Cette technique permet de déterminer si des visages apparaissant sur des images différentes correspondent à la même personne. Si les images ont été prises dans les mêmes conditions (distance, éclairage, expression, ...), alors le problème se simplifie à la mesure de quelques caractéristiques du visage. Dans des situations réelles, ce n’est généralement pas le cas et les informaticiens ont dû utiliser la vision par ordinateur pour développer des méthodes afin d’identifier les visages présents dans les documents audio-visuels. [25]

Utilisation de la reconnaissance faciale dans la détection de violations des droits humains

Les technologies de reconnaissance faciale deviennent de plus en plus efficaces pour reconnaître des visages humains dans des vidéos de haute résolution.

Dans le contexte des droits de l’homme, les vidéos sont généralement de basse qualité et leur faible résolution ne permet pas de générer assez de données pour que les systèmes de reconnaissance faciale puissent mesurer suffisamment de caractéristiques du visage et identifier la personne.[26]

Dans de nombreuses vidéos liées au contexte des violations de droits humains, les visages sont masqués par des accessoires tels que des couvre-chefs. Ceux-ci ne laissent qu’une faible partie du visage libre et rendent les identifications beaucoup plus compliquées. Il existe des groupes de recherche qui se basent intégralement sur l’analyse de telles images et créent des algorithmes pour reconnaître une personne en se basant uniquement sur une petite partie visible du visage, mais ces systèmes ne sont pas encore assez développés pour une utilisation généralisée.[27]Un autre facteur qui peut compliquer l’identification est le dégât qu’un traumatisme peuvent laisser au visage.[28]

Biais des algorithmes de reconnaissance faciale

Bien que la précision de la technologie de reconnaissance faciale ait augmenté ces dernières années, il existe des différences de performance entre certains groupes démographiques. Des tests de l'Institut national des normes et de la technologie des Etats-Unis ont montré que les techniques de reconnaissance faciale fonctionnent généralement mieux sur les hommes à la peau claire et fonctionnent généralement moins bien sur les enfants, les personnes âgées et les femmes à la peau plus foncée. Ces différences peuvent entraîner des erreurs telles que l’identification erronée d’un acheteur en tant que voleur à l’étalage. En 2019, une étude réalisée par le Government Accountability Office des Etats-Unis sur 189 algorithmes de reconnaissance faciale utilisés dans le milieu commercial a conclu que les hommes blancs avaient le plus faible taux de faux positifs, tandis que les femmes noires avaient le taux le plus élevé, près de dix fois supérieur.

Actuellement, il n'y a pas de consensus sur les causes des différences de performance, y compris les facteurs environnementaux (tels que l'éclairage) ou les facteurs liés à la création ou au fonctionnement de la technologie. Par contre, beaucoup d’académiques supposent que cette différence d’efficacité est due, en partie, aux ensembles de données utilisés qui n’incluent pas suffisamment de données de certains groupes démographiques.[29]

Il existe diverses méthodes qui peuvent potentiellement diminuer ces différences de performance.[30] Par exemple, des ensembles de données plus larges et plus représentatifs permettraient de développer la technologie de manière similaire pour les différents groupes démographiques. Pour faire cela, les experts conseillent l’utilisation de techniques permettant de supprimer aléatoirement les images d’un groupe surreprésenté.[31] Ensuite, la qualité de l’image étant un facteur clé dans l’évaluation de la performance de ces algorithmes, de nombreux experts pensent qu’il faudrait un meilleur contrôle des facteurs physiques et le respect de normes de qualité d’image. Une étude réalisée par des évaluateurs indépendants et mentionnée dans le rapport du Government Accountability Office des Etats-Unis de 2020 sur la reconnaissance faciale a montré qu’un mauvais éclairage rendait les analyses de reconnaissance faciale moins efficaces sur les femmes à peau foncée.

Utilisation commerciale de la reconnaissance faciale

La technique de reconnaissance faciale est de plus en plus utilisée dans le milieu commercial. Des exemples d’utilisation sont expliqués ci-dessous.

Certaines entreprises peuvent utiliser la reconnaissance faciale à des fins de sûreté et de sécurité. Par exemple, certains casinos utilisent des systèmes de reconnaissance faciale pour identifier les tricheurs connus et aussi pour permettre aux personnes ayant une dépendance aux jeux de s’inscrire volontairement dans un programme d’aide. [32]

Pour le marketing, certaines entreprises utilisent la reconnaissance faciale pour identifier les clients importants et leur envoyer des publicités ciblées. Des fournisseurs aux Etats-Unis utilisent par exemple cette technologie pour accélérer l’identification de l’âge d’un client qui essaie d’acheter de l’alcool. [33]

Depuis quelques années, la reconnaissance faciale est aussi utilisée pour le suivi de la présence d’étudiants ou employés à des événements. Par exemple, les universités américaines utilisent cette technologie pour identifier les étudiants présents en classe et suivre leur assiduité aux cours. Certaines entreprises l’utilisent par exemple pour suivre la présence des employés à des conférences ou des événements.[34]

Plus récemment, certaines entreprises ont commencé à utiliser cette technologie pour surveiller la propagation du Covid-2019 et identifier les personnes entrées en contact avec des personnes présentant le symptôme. [35]

Des agences gouvernementales, des universités et certains représentants de l’industrie ont souligné les problèmes de confidentialité et de sécurité des données concernant les utilisations commerciales de la reconnaissance faciale, en particulier quand ces technologies sont utilisées sans législation adéquate. La préoccupation principale est que les données recueillies par les entreprises pourraient être utilisées, partagées ou vendues sans le consentement des consommateurs.[36]

Dans la culture populaire

L’intérêt envers le domaine des algorithmes de vision par ordinateur a augmenté de manière importante à partir des années 2015. De nombreux acteurs cinématographiques et médiatiques participent à la vulgarisation de cette technologie, entre autres Netflix avec le documentaire « Coded Bias »[37] présenté au festival de Sundace à Zurich et au Festival du film et forum international sur les droits humains de Genève (FIFDH) en 2020. « Coded Biais » est un documentaire traitant des différentes conséquences indésirables de l’utilisation d’algorithmes de vision par ordinateur. Le téléspectateur est invité à suivre Joy Buolamwin, une chercheuse du MIT, qui, après s’être rendue compte qu’un logiciel de reconnaissance faciale ne reconnaissait pas les visages de personnes noires mais bien celui de personnes blanches, investigue l’origine de ce problème. L’enquête de la chercheuse indique une réelle omniprésence de biais dans les algorithmes de vision par ordinateur, touchant majoritairement les femmes ainsi que les personnes de couleurs. L’algorithme utilisé par Amazon pour trier les candidatures d’application pour des offres de travail, des algorithmes offrant de meilleurs accès aux soins et à des meilleurs crédits immobiliers à des personnes blanches qu’à des personnes de couleurs sont pointés du doigt. Le documentaire s’intéresse également à l'utilisation de ces algorithmes dans des perspectives commerciales et de surveillance de masse. Par exemple, le gouvernement central chinois a utilisé des algorithmes de vision par ordinateur pour identifier les manifestants indépendantistes à Hong-Kong en 2019. Le film se base sur des témoignages de différentes personnes victimes de ces biais au quotidien. La réalisatrice met en avant l’importance que ces technologies soit d’une part bien plus soumises à des juridictions strictes mais aussi la nécessité que ces algorithmes soient développés par des entreprises à but non lucratif, ce qui permettrait notamment une plus large acceptation de ces technologies par les populations.[38]

Notes et références

Voir aussi

Articles connexes

  1. Dana H. Ballard, Computer vision, Prentice-Hall, (ISBN 0-13-165316-4 et 978-0-13-165316-0, OCLC 7978044, lire en ligne)
  2. C. E. Vandoni, Proceedings : 1996 CERN School of Computing : Egmond aan Zee, the Netherlands, 8 September-21 September 1996, CERN, (ISBN 9789290830955, OCLC 988737270, lire en ligne)
  3. Milan Sonka et Roger Boyle, Image processing, analysis, and machine vision, Thompson Learning, (ISBN 0-495-08252-X, 978-0-495-08252-1 et 978-0-495-24438-7, OCLC 123776599, lire en ligne)
  4. Reinhard Klette, Concise computer vision : an introduction into theory and algorithms, (ISBN 978-1-4471-6320-6, 1-4471-6320-6 et 1-4471-6319-2, OCLC 869222487, lire en ligne)
  5. Shapiro, Linda G., Computer vision, Prentice Hall, (ISBN 0-13-030796-3 et 978-0-13-030796-5, OCLC 247860912, lire en ligne)
  6. Morris, Tim, 1960-, Computer vision and image processing, Palgrave Macmillan, (ISBN 0-333-99451-5 et 978-0-333-99451-1, OCLC 52486158, lire en ligne)
  7. Jähne, Bernd, 1953- Haussecker, Horst., Computer vision and applications : a guide for students and practitioners, Academic Press, (ISBN 978-0-12-379777-3 et 0-12-379777-2, OCLC 162574303, lire en ligne)
  8. Forsyth, David A., Auteur., Computer vision : a modern approach (ISBN 978-1-292-01408-1 et 1-292-01408-3, OCLC 1156470337, lire en ligne)
  9. Richard Szeliski, « Computer Vision », Texts in Computer Science,‎ (ISSN 1868-0941 et 1868-095X, DOI 10.1007/978-1-84882-935-0, lire en ligne, consulté le )
  10. « Intelligent Vision », dans AI in the 1980s and Beyond, The MIT Press, (ISBN 978-0-262-25626-1, lire en ligne)
  11. (en) « Computer vision », dans Wikipedia, (lire en ligne)
  12. Takeo Kanade, Three-Dimensional Machine Vision, Springer US, (ISBN 978-1-4613-1981-8 et 1-4613-1981-1, OCLC 852791356, lire en ligne)
  13. Nicu Sebe, Machine learning in computer vision, Springer, (ISBN 978-1-4020-3275-2, 1-4020-3275-7 et 1-4020-3274-9, OCLC 262677676, lire en ligne)
  14. Nicu Sebe, Machine learning in computer vision, Springer, (ISBN 978-1-4020-3275-2, 1-4020-3275-7 et 1-4020-3274-9, OCLC 262677676, lire en ligne)
  15. William Freeman, Pietro Perona et Bernhard Schölkopf, « Guest Editorial », International Journal of Computer Vision, vol. 77, nos 1-3,‎ , p. 1–1 (ISSN 0920-5691 et 1573-1405, DOI 10.1007/s11263-008-0127-7, lire en ligne, consulté le )
  16. « The Next Rembrandt », sur The Next Rembrandt (consulté le )
  17. (en) « Machine Vision, Medical AI, and Malpractice », sur Harvard Journal of Law & Technology (consulté le )
  18. (en) « Machine Vision, Medical AI, and Malpractice », sur Harvard Journal of Law & Technology (consulté le )
  19. BEN A. RICH, « Medical Custom and Medical Ethics: Rethinking the Standard of Care », Cambridge Quarterly of Healthcare Ethics, vol. 14, no 01,‎ (ISSN 0963-1801 et 1469-2147, DOI 10.1017/s0963180105050048, lire en ligne, consulté le )
  20. Pranav Rajpurkar, Jeremy Irvin, Robyn L. Ball et Kaylie Zhu, « Deep learning for chest radiograph diagnosis: A retrospective comparison of the CheXNeXt algorithm to practicing radiologists », PLOS Medicine, vol. 15, no 11,‎ , e1002686 (ISSN 1549-1676, DOI 10.1371/journal.pmed.1002686, lire en ligne, consulté le )
  21. Andre Esteva, Brett Kuprel, Roberto A. Novoa et Justin Ko, « Dermatologist-level classification of skin cancer with deep neural networks », Nature, vol. 542, no 7639,‎ , p. 115–118 (ISSN 0028-0836 et 1476-4687, DOI 10.1038/nature21056, lire en ligne, consulté le )
  22. (en) « Machine Vision, Medical AI, and Malpractice », sur Harvard Journal of Law & Technology (consulté le )
  23. BEN A. RICH, « Medical Custom and Medical Ethics: Rethinking the Standard of Care », Cambridge Quarterly of Healthcare Ethics, vol. 14, no 01,‎ (ISSN 0963-1801 et 1469-2147, DOI 10.1017/s0963180105050048, lire en ligne, consulté le )
  24. (en) Center for Devices and Radiological Health, « Artificial Intelligence and Machine Learning in Software as a Medical Device », FDA,‎ (lire en ligne, consulté le )
  25. (en) Adam Geitgey, « Machine Learning is Fun! », sur Medium, (consulté le )
  26. Jay D. Aronson, « Computer Vision and Machine Learning for Human Rights Video Analysis: Case Studies, Possibilities, Concerns, and Limitations », Law & Social Inquiry, vol. 43, no 04,‎ , p. 1188–1209 (ISSN 0897-6546 et 1747-4469, DOI 10.1111/lsi.12353, lire en ligne, consulté le )
  27. Felix Juefei-Xu, Khoa Luu et Marios Savvides, « <italic>Spartans</italic>: Single-Sample Periocular-Based Alignment-Robust Recognition Technique Applied to Non-Frontal Scenarios », IEEE Transactions on Image Processing, vol. 24, no 12,‎ , p. 4780–4795 (ISSN 1057-7149 et 1941-0042, DOI 10.1109/tip.2015.2468173, lire en ligne, consulté le )
  28. Oliver W Morgan, Pongruk Sribanditmongkol, Clifford Perera et Yeddi Sulasmi, « Mass Fatality Management following the South Asian Tsunami Disaster: Case Studies in Thailand, Indonesia, and Sri Lanka », PLoS Medicine, vol. 3, no 6,‎ , e195 (ISSN 1549-1676, DOI 10.1371/journal.pmed.0030195, lire en ligne, consulté le )
  29. P Jonathon Phillips, Fang Jiang, Abhijit Narvekar et Julianne Ayyad, « An other race effect for face recognition algorithms », {{Article}} : paramètre « périodique » manquant, National Institute of Standards and Technology,‎ (lire en ligne, consulté le )
  30. (en) U. S. Government Accountability Office, « Facial Recognition Technology: Privacy and Accuracy Issues Related to Commercial Uses », sur www.gao.gov (consulté le )
  31. (en) U. S. Government Accountability Office, « Facial Recognition Technology: Privacy and Accuracy Issues Related to Commercial Uses », sur www.gao.gov (consulté le )
  32. (en) « National Retail Security Survey 2019 », sur NRF (consulté le )
  33. (en) U. S. Government Accountability Office, « Facial Recognition Technology: Privacy and Accuracy Issues Related to Commercial Uses », sur www.gao.gov (consulté le )
  34. (en) U. S. Government Accountability Office, « Facial Recognition Technology: Privacy and Accuracy Issues Related to Commercial Uses », sur www.gao.gov (consulté le )
  35. (en) U. S. Government Accountability Office, « Facial Recognition Technology: Privacy and Accuracy Issues Related to Commercial Uses », sur www.gao.gov (consulté le )
  36. (en) U. S. Government Accountability Office, « Facial Recognition Technology: Privacy and Accuracy Issues Related to Commercial Uses », sur www.gao.gov (consulté le )
  37. « Le documentaire "Coded Bias" révèle la discrimination des algorithmes », sur rts.ch, (consulté le )
  38. Elina S, « Coded Bias : un film Netflix sur le racisme de l’intelligence artificielle », sur LeBigData.fr, (consulté le )