Théorie de Vapnik-Chervonenkis

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

La théorie de Vapnik-Chervonenkis (également connue sous le nom de théorie VC) est une théorie mathématique et informatique développée dans les années 1960-1990 par Vladimir Vapnik et Alexey Chervonenkis. C'est une forme de théorie de l'apprentissage automatique, qui tente d'expliquer l'apprentissage d'un point de vue statistique.

La théorie VC est liée à la théorie d'étude statistique et aux processus empiriques. Richard M. Dudley, R.S. Wenocur et Vladimir Vapnik lui-même, entre autres, appliquèrent cette théorie aux processus empiriques.

Cette théorie est basée sur quatre questions fondamentales :

  • Théorie d'uniformité des apprentissages
    • Quelles sont les conditions (nécessaires et suffisantes) pour l'uniformité d'un apprentissage basé sur le principe empirique de minimisation du risque ?
  • Théorie du taux de convergence des apprentissages
    • Quelle est la vitesse de la convergence de l'apprentissage ?
  • Théorie du contrôle de la capacité d'apprentissage automatique
    • Comment commander le taux de convergence (la capacité de généralisation) de l'apprentissage automatique ?
  • Théorie de construction des machines à apprentissage automatique
    • Comment créer des algorithmes qui peuvent commander cet apprentissage ?

La théorie VC et la dimension VC sont indissociables dans la théorie des processus empiriques.

La dernière partie de la théorie présente un algorithme bien connu dans le monde de l'intelligence artificielle : la machine à vecteurs de support.

La théorie VC contient des concepts importants tels que la dimension VC et la minimisation structurale du risque. Cette théorie est directement liée à certains sujets mathématiques :

Articles connexes[modifier | modifier le code]

Sources[modifier | modifier le code]