Aller au contenu

CIFAR-10

Un article de Wikipédia, l'encyclopédie libre.

L'ensemble de données CIFAR-10 est une collection d'images couramment utilisées pour former des algorithmes d'apprentissage automatique et de vision par ordinateur. C'est l'un des jeu de données ((en)dataset) les plus largement utilisés pour la recherche en apprentissage automatique[1],[2]. Il a été créer par l'Institut canadien de recherches avancées (acronyme: CIFAR), et contient 60 000 images de 10 classes d'objets différents (avions, voitures, oiseaux, chats, cerfs, chiens, grenouilles, chevaux, navires et camions). La répartition entre chaque classes est égale (6 000 images pour chaque classe). Les images sont en couleurs, mais en basse résolution (32x32 pixels)[3],[4].

Les algorithmes informatiques permettant de reconnaître des objets sur des photos apprennent souvent par l'exemple. Ce dataset sert donc souvent à apprendre à un ordinateur à reconnaître des objets. Étant donné que les images du CIFAR-10 sont en basse résolution (32 x 32), cet ensemble de données peut permettre aux chercheurs d’essayer rapidement différents algorithmes en phase d'expérimentation de leurs modèles de réseaux de neurones.

CIFAR-10, publié en 2009, est un sous-ensemble de données étiquetés ((en) labeled data) lui-même issue de l'ensemble de données 80 Million Tiny Images (en) de 2008. Lorsque l’ensemble de données a été créé, les étudiants ont été payés pour étiqueter toutes les images[5].

Différents types de réseaux de neurones convolutifs ont tendance à être les meilleurs pour reconnaître les images du CIFAR-10.

Articles de recherche ayant utilisé CIFAR-10

[modifier | modifier le code]

Il s'agit d'un tableau de certains des articles de recherche qui ont utilisé CIFARD-10 et ont revendiqués des résultats innovent pour la vision par ordinateur (et par extension, l'intelligence artificiel). Tous les articles ne sont pas standardisés sur les mêmes techniques de prétraitement, comme le retournement ou le décalage d'image. Pour ces raisons, il est possible que le taux d'erreur déclaré d'un article ne soit pas comparable a un autre.

Titre de l'article non traduit traduction française Taux d'erreur (%) Date de publication
Convolutional Deep Belief Networks on CIFAR-10[6] Réseaux de croyances profondes convolutionnelles en CIFAR-10 21,1 août 2010
Maxout Networks[7] Réseau de Maxout 9,38 13 février 2013
Wide Residual Networks[8] Réseaux Larges Résiduels 4,0 23 mai 2016
Neural Architecture Search with Reinforcement Learning[9] Recherche d'architecture neurale avec apprentissage de renforcement 3,65 4 novembre 2016
Fractional Max-Pooling[10] Fractionnement Max-Pooling 3,47 18 décembre 2014
Densely Connected Convolutional Networks[11] Réseaux convolutionnels fortement reliés 3,46 24 aout 2016
Shake-Shake regularization[12] 2,86 21 mai 2017
Coupled Ensembles of Neural Networks[13] Ensembles de réseaux neuronaux couplés 2,68 18 september 2017
ShakeDrop regularization[14] 2,67 7 février 2018
Improved Regularization of Convolutional Neural Networks with Cutout[15] Amélioration de la régularisation des réseaux neuronaux convolutionnels avec réduction 2,56 15 août 2017
Regularized Evolution for Image Classifier Architecture Search[16] Évolution régularisée pour la recherche de l'architecture de classificateur d'image 2,13 6 février 2018
Rethinking Recurrent Neural Networks and other Improvements for Image Classification[17] Repenser les réseaux neuronaux récurrents et autres améliorations pour la classification des images 1,64 31 juillet 2020
AutoAugment: Learning Augmentation Policies from Data[18] Auto-augmentation: Choix d'amélioration de l'apprentissage à partir de données 1,48 24 mai 2018
A Survey on Neural Architecture Search[19] Sondage sur la recherche de l'architecture neuronale 1,33 4 mai 2019
GPipe: Efficient Training of Giant Neural Networks using Pipeline Parallelism[20] GPipe: Entraînement efficace de réseaux neuronaux géants utilisant les calculs paralléles 1,00 16 novembre 2018
Reduction of Class Activation Uncertainty with Background Information[21] Réduction de l'incertitude d'activation de classe avec des informations de base 0,95 5 mai 2023
An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale[22] Une image vaut 16x16 Mots: Transformateurs pour la reconnaissance d'images à l'échelle 0,5 2021

CIFAR-10 est également utilisé comme référence de performance pour les équipes en compétition pour exécuter des réseaux neuronaux plus rapidement et à moindre coût. DAWNBench dispose de données de référence sur son site Web.

Voir également

[modifier | modifier le code]

Références

[modifier | modifier le code]
  1. « AI Progress Measurement », Electronic Frontier Foundation,‎ (lire en ligne, consulté le )
  2. « Popular Datasets Over Time | Kaggle », www.kaggle.com (consulté le )
  3. Tom Hope, Yehezkel S. Resheff et Itay Lieder, Learning TensorFlow: A Guide to Building Deep Learning Systems, O'Reilly Media, Inc., , 64– (ISBN 9781491978481, lire en ligne)
  4. Plamen Angelov, Alexander Gegov, Chrisina Jayne et Qiang Shen, Advances in Computational Intelligence Systems: Contributions Presented at the 16th UK Workshop on Computational Intelligence, September 7–9, 2016, Lancaster, UK, Springer International Publishing, , 441– (ISBN 9783319465623, lire en ligne)
  5. Krizhevsky, « Learning Multiple Layers of Features from Tiny Images »,
  6. « Convolutional Deep Belief Networks on CIFAR-10 »
  7. (en) Ian J. Goodfellow, David Warde-Farley, Mehdi Mirza, Aaron Courville et Yoshua Bengio, « Maxout Networks », .
  8. (en) Sergey Zagoruyko et Nikos Komodakis, « Wide Residual Networks », .
  9. (en) Barret Zoph et Quoc V. Le, « Neural Architecture Search with Reinforcement Learning », .
  10. (en) Benjamin Graham, « Fractional Max-Pooling », .
  11. (en) Gao Huang, Zhuang Liu, Kilian Q. Weinberger et Laurens van der Maaten, « Densely Connected Convolutional Networks », .
  12. (en) Xavier Gastaldi, « Shake-Shake regularization », .
  13. (en) Anuvabh Dutt, « Coupled Ensembles of Neural Networks », .
  14. Yoshihiro Yamada, Masakazu Iwamura et Koichi Kise, « Shakedrop Regularization for Deep Residual Learning », IEEE Access, vol. 7,‎ , p. 186126–186136 (DOI 10.1109/ACCESS.2019.2960566, arXiv 1802.02375, S2CID 54445621)
  15. (en) DeVries Terrance et Taylor, Graham W., « Improved Regularization of Convolutional Neural Networks with Cutout », .
  16. (en) Esteban Real, Alok Aggarwal, Yanping Huang et Quoc V. Le, « Regularized Evolution for Image Classifier Architecture Search with Cutout », .
  17. (en) Huu P. Nguyen et Bernardete Ribeiro, « Rethinking Recurrent Neural Networks and other Improvements for Image Classification », .
  18. (en) Ekin D. Cubuk, Barret Zoph, Dandelion Mane, Vijay Vasudevan et Quoc V. Le, « AutoAugment: Learning Augmentation Policies from Data », .
  19. (en) Martin Wistuba, Ambrish Rawat et Tejaswini Pedapati, « A Survey on Neural Architecture Search », .
  20. (en) Yanping Huang, Yonglong Cheng, Dehao Chen, HyoukJoong Lee, Jiquan Ngiam et al., « GPipe: Efficient Training of Giant Neural Networks using Pipeline Parallelism », .
  21. (en) Hussain Kabir, « Reduction of Class Activation Uncertainty with Background Information », .
  22. (en) Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit et Neil Houlsby, « An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale », International Conference on Learning Representations,‎ (arXiv 2010.11929, lire en ligne)

Liens externes

[modifier | modifier le code]

Ensembles de données similaires

[modifier | modifier le code]