Vladimir Vapnik

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Vladimir Vapnik
Defaut 2.svg
Naissance
Nationalité
Activités
Employeurs
Royal Holloway, Facebook Inc. (à partir du ), AT&T Labs (en) (-) +
Distinctions
prix Dennis Gabor (en) ()
prix Paris Kanellakis () +

Vladimir Naumovich Vapnik (6 décembre 1935) est un mathématicien et un informaticien, célèbre pour avoir développé les machines à support vectoriel, être l'un des principaux contributeurs à la théorie de Vapnik-Chervonenkis et de la théorie de l'apprentissage statistique (en).

Biographie[modifier | modifier le code]

Né en Union Soviétique, il obtient en 1958 un mastère de mathématiques à l'Université d'État d'Ouzbékistan, à Samarkand, en Ouzbékistan, puis obtient en 1964 un doctorat de statistiques à l'Institut des Sciences de Contrôle, à Moscou. Il travaille dans ce même institut de 1961 à 1990, et en devient le directeur du département de recherche en informatique.

En 1995, il est nommé professeur d'informatique et de statistiques au Royal Holloway College, à l'Université de Londres. Aux laboratoires Bell d'AT&T de 1991 à 2001?, Vladimir Vapnik et ses collègues développent la théorie des machines à support vectoriel (aussi appelées « machines à vecteurs de support », ou encore « séparateurs à vaste marge »), dont ils démontrent l'intérêt dans nombre des problématiques importantes de l'apprentissage des machines et des réseaux de neurones, tels que la reconnaissance de caractères.

Il travaille ensuite aux laboratoires NEC de Princeton, dans le New Jersey, aux États-Unis, ainsi qu'à l'université Columbia, à New York.

En 2006, Vladimir Vapnik est admis à l'Académie nationale d'ingénierie des États-Unis.

En novembre 2014, il rejoint le laboratoire de recherche sur l'intelligence artificielle de Facebook où il travaille avec Jason Weston, Ronan Collobert et Yann LeCun[1].

Bibliographie[modifier | modifier le code]

  • On the uniform convergence of relative frequencies of events to their probabilities (De la convergence uniforme des fréquences relatives des évènements vers leur probabilité), avec A. Y. Chervonenkis, 1971
  • Necessary and sufficient conditions for the uniform convergence of means to their expectations (Conditions nécessaires et suffisantes pour la convergence uniforme des moyennes vers leur espérance), avec A. Y. Chervonenkis, 1981
  • Estimation of Dependences Based on Empirical Data (Estimation des dépendances à partir de données empiriques), 1982
  • The Nature of Statistical Learning Theory (La nature de la théorie de l'apprentissage statistique), 1995
  • Statistical Learning Theory (Théorie de l'apprentissage statistique), 1998
  • Estimation of Dependences Based on Empirical Data (Estimation des dépendances à partir de données empiriques), réédition 2006 (Springer), qui contient également un essai philisophique sur la Science de l'inférence empirique (Empirical Inference Science), 2006

Notes et références[modifier | modifier le code]

  1. (en) « Facebook’s AI team hires Vladimir Vapnik, father of the popular support vector machine algorithm », VentureBeat,‎ (lire en ligne)

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]