Théorie de Vapnik-Chervonenkis

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

La théorie de Vapnik-Chervonenkis (également connue sous le nom de théorie VC) est une théorie mathématique et informatique développée dans les années 1960-1990 par Vladimir Vapnik et Alexey Chervonenkis. C'est une forme de théorie de l'apprentissage automatique, qui tente d'expliquer l'apprentissage d'un point de vue statistique.

Présentation[modifier | modifier le code]

La théorie VC est liée à la théorie d'étude statistique et aux processus empiriques. Richard M. Dudley, R.S. Wenocur et Vladimir Vapnik lui-même, entre autres, appliquèrent cette théorie aux processus empiriques.

Cette théorie est basée sur quatre questions fondamentales :

  • Théorie d'uniformité des apprentissages
    • Quelles sont les conditions (nécessaires et suffisantes) pour l'uniformité d'un apprentissage basé sur le principe empirique de minimisation du risque ?
  • Théorie du taux de convergence des apprentissages
    • Quelle est la vitesse de la convergence de l'apprentissage ?
  • Théorie du contrôle de la capacité d'apprentissage automatique
    • Comment commander le taux de convergence (la capacité de généralisation) de l'apprentissage automatique ?
  • Théorie de construction des machines à apprentissage automatique
    • Comment créer des algorithmes qui peuvent commander cet apprentissage ?

Concepts importants[modifier | modifier le code]

La théorie VC contient des concepts importants tels que la dimension VC et la minimisation structurale du risque. Cette théorie est directement liée à certains sujets mathématiques :

Articles connexes[modifier | modifier le code]

Sources[modifier | modifier le code]