Théorie de Vapnik-Chervonenkis

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
image illustrant les mathématiques image illustrant les probabilités et la statistique image illustrant l’informatique
Cet article est une ébauche concernant les mathématiques, les probabilités et la statistique et l’informatique.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

La forme ou le fond de cet article scientifique est à vérifier. (indiquez la date de pose grâce au paramètre date)

Améliorez-le, ou discuter des points à vérifier. Si vous venez d'apposer le bandeau, merci d'indiquer ici les points à vérifier.

Ce modèle est-il pertinent ? Cliquez pour en voir d'autres.
Cet article ne cite pas suffisamment ses sources (juin 2007).

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références » (modifier l'article, comment ajouter mes sources ?).

La théorie de Vapnik-Chervonenkis (également connue sous le nom de théorie VC) est une théorie mathématique et informatique développée dans les années 1960-1990 par Vladimir Vapnik et Alexey Chervonenkis. C'est une forme de théorie de l'apprentissage automatique, qui tente d'expliquer l'apprentissage d'un point de vue statistique.

Présentation[modifier | modifier le code]

La théorie VC est liée à la théorie d'étude statistique. On peut désigner quatre notions importantes[réf. souhaitée] :

  • Uniformité des apprentissages, qui correspond à la question : quelles sont les conditions (nécessaires et suffisantes) pour l'uniformité d'un apprentissage basé sur le principe de la minimisation du risque empirique?
  • Taux de convergence des apprentissages, qui correspond à la question : Quelle est la vitesse de la convergence de l'apprentissage ?
  • Contrôle de la capacité d'apprentissage automatique, qui correspond à la question : comment commander le taux de convergence (la capacité de généralisation) de l'apprentissage automatique ?
  • Construction des machines à apprentissage automatique, qui correspond à la question : comment créer des algorithmes qui peuvent commander cet apprentissage ?

Concepts importants et relations avec d'autres domaines[modifier | modifier le code]

La théorie VC contient des concepts importants tels que la dimension VC et la minimisation structurale du risque. Cette théorie est directement liée à certains sujets mathématiques, comme la théorie des espaces de Hilbert à noyau reproduisant, les réseaux de régularisation, les kernels et les processus empiriques (en).

Articles connexes[modifier | modifier le code]

Sources[modifier | modifier le code]