ImageNet

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche
ImageNet
Producteur
ImageNet
Licence
BSD-3-Clause
Site web

ImageNet est une base de données d'images annotées produit par l'organisation du même nom, à destination des travaux de recherche en vision par ordinateur. En 2016, plus de dix millions d'URLs ont été annotées à la main pour indiquer quels objets sont représentés dans l'image ; plus d'un million d'images bénéficient en plus de boîtes englobantes autour des objets. La base de données d'annotations sur des URL d'images tierces est disponible librement, ImageNet ne possédant cependant pas les images elles-mêmes. Depuis 2010, le projet ImageNet organise un concours annuel : ImageNet Large Scale Visual Recognition Challenge (ILSVRC), ou "Compétition ImageNet de Reconnaissance Visuelle à Grande Échelle". Elle consiste en une compétition logicielle dont le but est de détecter et classifier précisément des objets et des scènes dans les images naturelles.

Historique[modifier | modifier le code]

La base de données ImageNet a été présentée pour la première fois lors des sessions de présentation de posters en 2009 à la Conférence sur la Vision par Ordinateur et Reconnaissance de formes (CVPR) en Floride, par des chercheurs du département d'Informatique à l'Université de Princeton[1],[2].

Le jeu de données[modifier | modifier le code]

ImageNet utilise la production participative dans son processus d'annotation. L'annotation à l'échelle de l'image indique la présence ou l'absence d'une classe d'objet dans celle-ci, par exemple "il y a des tigres dans cette image" ou "il n'y a pas de tigres dans cette image". Pour l'annotation d'objets, il s'agit de fournir une boîte englobante autour de l'objet ou de sa partie visible. ImageNet utilise une variante de la structure WordNet de catégorisation d'objets, augmentée de 120 catégories de races de chiens, afin de présenter la classification sémantique fine[3].

La compétition ILSVRC[modifier | modifier le code]

Lancée en 2010, ILSVRC est une compétition annuelle où des équipes de recherche évaluent leurs algorithmes de traitement d'images sur le jeu de données ImageNet (un jeu de validation non accessible), et concourent pour obtenir la meilleure précision sur plusieurs tâches de vision par ordinateur. Le but d'ILSVRC est de suivre l'exemple du challenge à plus petite échelle PASCAL VOC, créé en 2005 et qui contient seulement environ 20 000 images et une vingtaine de classes d'objets. Les années 2010 ont vu des progrès spectaculaires dans le domaine du traitement d'images. En 2011, les plus faibles taux d'erreur de classification de la compétition ILSVRC étaient d'environ 25%. En 2012, la révolution de l'apprentissage profond permet de faire baisser subitement ce record à 16%. Les deux années suivantes verront le taux d'erreur baisser drastiquement à quelques pourcents[4]. Les chercheurs[Qui ?] estiment alors qu'en 2015, les algorithmes seront capables de dépasser les performances d'opérateurs humains sur les tâches du challenge ILSVRC.[5] Cependant, comme l'un des organisateurs du défi, Olga Russakovsky, l'a souligné en 2015, les algorithmes n'ont qu'à discriminer un nombre de classes de l'ordre du millier alors que les humains peuvent en discriminer un nombre bien plus grand. De plus, l'opérateur humain peut comprendre facilement le contexte d'une image ce qui n'est pas le cas des solutions automatisées[6].

En 2014, plus de cinquante institutions ont participé à la compétition ILSVRC. En 2015, des scientifiques de Baidu ont été bannis un an pour l'utilisation de comptes multiples afin de dépasser très largement la valeur limite de deux soumissions par semaine[7],[8]. Baidu a déclaré plus tard que le chef de l'équipe impliquée a été destitué et qu'il mettrait en place un groupe de conseil scientifique[9].

Voir aussi[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. (en) Dave Gershgorn, « The data that transformed AI research—and possibly the world », sur Quartz, Atlantic Media Co., (consulté le 26 juillet 2017)
  2. Jia Deng, Wei Dong, Richard Socher, Li-Jia Li, Kai Li et Li Fei-Fei, 2009 conference on Computer Vision and Pattern Recognition,
  3. Olga Russakovsky*, Jia Deng*, Hao Su, Jonathan Krause, Sanjeev Satheesh, Sean Ma, Zhiheng Huang, Andrej Karpathy, Aditya Khosla, Michael Bernstein, Alexander C. Berg and Li Fei-Fei. (* = equal contribution) ImageNet Large Scale Visual Recognition Challenge.
  4. (en) Martin Robbins, « Does an AI need to make love to Rembrandt's girlfriend to make art? », The Guardian,‎ (lire en ligne)
  5. (en) John Markoff, « A Learning Advance in Artificial Intelligence Rivals Human Abilities », The New York Times,‎ (lire en ligne)
  6. (en) Jacob Aron, « Forget the Turing test – there are better ways of judging AI », New Scientist,‎ (lire en ligne)
  7. (en) John Markoff, « Computer Scientists Are Astir After Baidu Team Is Barred From A.I. Competition », The New York Times,‎ (lire en ligne)
  8. (en) « Chinese search giant Baidu disqualified from AI test », BBC News,‎ (lire en ligne)
  9. (en) « Baidu fires researcher involved in AI contest flap », PCWorld,‎ (lire en ligne)