Utilisateur:FannyS03/Brouillon

Une page de Wikipédia, l'encyclopédie libre.
Hugo Larochelle

Hugo Larochelle est un chercheur canadien en intelligence artificielle qui se spécialise en apprentissage profond.[1][2][3] Il effectue présentement des recherches dans les domaines des réseaux de neurones profonds, des modèles graphiques probabilistes, de la vision par ordinateur ainsi que du traitement automatique du language naturel.[1] Hugo Larochelle est classé parmi les 100 plus grandes références dans le domaine des réseaux de neurones.[4]

Éducation[modifier | modifier le code]

Éducation formelle[modifier | modifier le code]

Hugo Larochelle a débuté son éducation post-secondaire, en 1999, au cégep de Saint-Hyacinthe, après avoir fait ses études secondaires à la Polyvalente Hyacinthe-Delorme. Avec son diplôme pré-universitaire en sciences pures, il a pu, en 2001, poursuivre ses études au baccalauréat en mathématiques et informatique à l'Université de Montréal. Obtenant son diplôme en 2004, il poursuivit ses études dans le même établissement scolaire pour obtenir sa maitrise en 2006 ainsi que son doctorat en 2009. [5]

De 2004 à 2009, Hugo Larochelle a effectué ses recherches sous la tutelle de Yoshua Bengio et c'est en 2008 qu'Hugo Larochelle a présenté sa thèse de doctorat. Sa thèse intitulée, "Étude de techniques d’apprentissage non-supervisé pour l’amélioration de l’entraînement supervisé de modèles connexionnistes", a été évaluée par un jury composé entre autres de Yoshua Bengio ainsi que Geoffrey Hinton, tous deux des scientifiques reconnus mondialement dans le domaine de l'apprentissage profond.[6]

Par la suite, Hugo Larochelle a effectué un stage postdoctoral sous la supervision de Geoffrey Hinton, qu'il a terminé en 2011.[1][5]

Directeurs de recherche[modifier | modifier le code]

Geoffrey Hinton at UBC

Yoshua Bengio est un chercheur reconnu dans le domaine de l'apprentissage profond qui a reçu, entre autres, le prix Urgel-Archambault pour ses recherches en intelligence artificielle.[1][5][7] L'apprentissage profond est une branche de l'apprentissage automatique qui étudie plus précisément les réseaux de neurones à multiples couches cachées.[8][9] Des exemples classiques de l'apprentissage profond sont les logiciels de reconnaissance de caractères, reconnaissance faciale, reconnaissance vocale, traduction automatique, etc.[9] Plus récemment, le programme AlphaGo (Google DeepMind), un joueur artificiel du jeu Go, a changé les perspectives du domaine en remportant la victoire contre le champion du monde de Go, Lee Sedol.[9][10]

Geoffrey Hinton est reconnu dans la communauté scientifique pour ses recherches sur les réseaux de neurones liés à l'apprentissage automatique. Geoffrey Hinton est même mentionné comme étant "the godfather of ‘deep learning’".[10] Il a reçu un doctorat honoris causa de l'Université de Sherbrooke, son troisième doctorat d'honneur institutionnel.[11][12] Son travail lui a aussi valu l'honneur d'être le tout premier récipiendaire du prix Rumelhart. Ce prix est depuis remis pendant une rencontre annuelle de la communauté scientifique sur la science cognitive.[13][14]

Carrière[modifier | modifier le code]

Hugo Larochelle, chercheur pour Twitter depuis juin 2015, fait partie de Twitter Cortex, une équipe d'ingénieurs, de chercheurs en apprentissage automatique ainsi que de scientifiques de données numériques qui travaillent de concert afin de construire une représentation unifiée du contenu retrouvé sur Twitter.[4][5][15][16]

Hugo est aussi un professeur adjoint à l'Université de Sherbrooke depuis juillet 2016. Il y était assistant professeur depuis juillet 2011.[5] Hugo Larochelle a enseigné plusieurs cours, dont le cours d'intelligence artificielle, d'apprentissage automatique, de traitement automatique des langues et de réseaux de neurones. [13][17][18] Ses cours théoriques sont d'ailleurs disponibles sur internet sur sa page YouTube, ici, où on peut retrouver plus de 350 vidéos contenant des lectures, des tutoriels, des cours théoriques, etc. Il a été superviseur de nombreux projets d'étudiants au baccalauréat à l'Université de Sherbrooke ainsi que 10 étudiants de deuxième et troisième cycle.[18]

Étudiants Ph.D. Niveau d'étude Co-superviseurs
Stanislas Lauly Ph.D. (Diplômé)
Mohammad Havaei Ph.D. Pierre-Marc Jodoin
Marc-Alexandre Côté Ph.D. Maxime Descoteaux
Adam Salvail-Bérard Ph.D. Jean-Pierre Dussault
Sarath Chandar Ph.D. Yoshua Bengio
Alex Boulanger M.Sc. (Diplômé)
Félix-Antoine Ouellet M.Sc. (Diplômé)
Philippe Poulin M.Sc.
Yin Zheng M.Sc. (Diplômé) Yu-Jin Shang
Mathieu Germain M.Sc. (Diplômé)

Recherches[modifier | modifier le code]

Travail de recherche chez Twitter[modifier | modifier le code]

Twitter logo

L'apprentissage automatique consiste, entre autres, à développer des modèles mathématiques et des algorithmes afin d'automatiser, avec ou sans supervision, la constitution d'un réseau de neurones.[19] Les réseaux de neurones profond sont des modèles très efficaces d'apprentissage automatique. Chez Twitter, l'équipe Twitter Cortex, dont fait partie Hugo Larochelle, utilise ses techniques afin d'approfondir la compréhension à la fois du contenu et des champs d'intérêts des utilisateurs du réseau social.[15] Cette nouvelle compréhension servira, entre autres, à afficher le contenu le plus pertinent pour chaque utilisateur du site.[15][20] L'analyse des données, sur les textes, se fait en identifiant les sujets abordés dans ceux-ci. Avec les images et les vidéos, le but est de les classer par intérêts et sujets sans toujours nécessité l'aide des annotations. L'analyse des données se fait même grâce aux interactions entre utilisateurs.[15][19]

Le traitement automatique du language naturel est utilisé dans l'analyse des textes des Tweets envoyés par les utilisateurs, ce qui permet grossièrement à l'ordinateur de lire et d'analyser des textes, tout comme ils utilisent la vision par ordinateur pour l'analyse des images et photos.[21][22] Les modèles graphiques probabilistes sont utilisés afin de déterminer les sujets abordés dans une image naturelle ainsi que les différents champs d'intérêts qui y sont associés.[23] En effet, grâce à des graphiques probabilistes et autres techniques d'apprentissage automatique, un réseau de neurones profonds peut être créé.[23][24] Ce réseau pourra servir à associer des ensembles de mots à des sujets potentiels sans nécessiter une supervision humaine.[23][25]

Artificial Neural Network

Le but de l'intelligence artificielle est de la rendre aussi performante qu'un cerveau humain.[15] Un réseau de neurones standard peut contenir jusqu'à quelques millions de neurones tandis que le cerveau humain en contient quelques dizaines de milliards.[13] Dans le but de palier à cette différence, ils ont développés les réseaux de neurones profonds qui sont constitués de plusieurs étages superposés d'ensembles de neurones, où les différents paliers sont reliés entre-eux.[13][15] Chaque neurone de la couche de sortie peut représenter un mot et, grâce à des modèles graphiques probabilistes, on peut établir des liens entre ceux-ci quand le logiciel en entraînement rencontre ces mots utilisés ensemble. Plus l'entrainement d'un logiciel est fait sur une vaste base de données diversifiées, plus le réseau de neurones sera fiable et précis. Un autre point commun entre un réseau de neurones et le cerveau humain est leur capacité d'adaptation ainsi que leur capacité continue d'apprendre.[13] Le réseau apprendra le comportement désiré grâce à son algorithme d'apprentissage.[13][26]

Un des logiciels utilisés chez Twitter afin d'implémenter les modèles mathématiques et les algorithmes d'apprentissage précédemment mentionnés tel que Torch Autograd est accessible au public.[27] C'est une librairie qui peut être utilisée afin de rapidement implémenter des modèles d'apprentissage profond et d'accélérer l'entrainement de ces modèles qui sont effectués sur des bases de données d'envergures.[15][27]

Travaux actuels[modifier | modifier le code]

Hugo Larochelle travaille à l'amélioration de la vision artificielle. Actuellement, la plupart des systèmes de vision par ordinateur créés ne peuvent pas simuler adéquatement la vision humaine car ceux-ci ont la capacité d'enregistrer tout ce qu'ils ont dans leurs champs de vision. Un humain, lui, analysera intelligemment son environnement pour concentrer son regard seulement sur les objets les plus importants dans son champ de vision. Ainsi, pour que la vision artificielle soit plus semblable à l'attention visuelle humaine, Il étudie des algorithmes d'apprentissage automatique afin d’entraîner le simulateur à orienter son regard à des endroits précis et contrôlés.[13]

Hugo Larochelle continu aussi les recherches sur l'apprentissage profond qu'il a débuté dans sa thèse. Il a dit "For me, AI is centered around a goal to achieve. Deep learning concentrates instead on a particular type of technique or methodology for doing machine learning [...]."[16] ce qui résume bien le but de ses recherches: améliorer les techniques et les méthodologies utilisées afin d'effectuer l'entrainement d'un réseau de neurones artificiels profond.[13]

Thèse de doctorat[modifier | modifier le code]

Hugo Larochelle propose dans sa thèse une composition d'apprentissage supervisé et non supervisé à utiliser avec la machine de Boltzmann restreinte. L'apprentissage non supervisé sur un ensemble de données sert à regrouper celles similaires ensemble tout en séparant les données qui sont différentes. Cette méthode d'entrainement offrirait de meilleures performances que d'autres types de représentation des données, tel qu'un réseau de neurones standard ou qu'une machine à vecteurs de support.[28]

Dans sa thèse, il a aussi étudié les performances des réseaux de neurones profonds sur différents problèmes de classification et a proposé quelques modifications sur la procédure d'entrainement d'un réseau autoassociateur.[28]

Dans sa thèse, Hugo Larochelle cherche à évaluer l'impact du nombre de couches dans un réseau de neurones ainsi que la quantité de neurones sur chacune d'elles afin d'optimiser leurs utilisations.[28] Par exemple, la machine de Boltzmann restreinte est un réseau à une seule couche de neurones cachée. Un réseau de neurones profonds, lui, est composé de plusieurs couches superposées de neurones.[13][15]

Publications[modifier | modifier le code]

An Infinite Restricted Boltzmann Machine par Marc-Alexandre Côté et Hugo Larochelle, Neural Computation, 2016

Domain-Adversarial Training of Neural Networks par Yaroslav Ganin, Evgeniya Ustinova, Hana Ajakan, Pascal Germain, Hugo Larochelle, François Laviolette, Mario Marchand et Victor Lempitsky, Journal of Machine Learning Research, 2016

Correlational Neural Networks par Sarath Chandar, Mitesh M. Khapra, Hugo Larochelle et Balaraman Ravindran, Neural Computation, 2016

A Deep and Autoregressive Approach for Topic Modeling of Multimodal Data par Yin Zheng, Yu-Jin Zhang and Hugo Larochelle, IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016

Within-Brain Classification for Brain Tumor Segmentation par Mohammad Havaei, Hugo Larochelle, Philippe Poulin et Pierre-Marc Jodoin, International Journal of Computer Assisted Radiology and Surgery, 2015

A Neural Autoregressive Approach to Attention-based Recognition par Yin Zheng, Richard Zemel, Yu-Jin Zhang et Hugo Larochelle, International Journal of Computer Vision, 2015

PhenoVar: a phenotype-driven approach in clinical genomics for the diagnosis of polymalformative syndromes par Yannis J Trakadis, Caroline Buote, Jean-François Therriault, Pierre-Étienne Jacques, Hugo Larochelle et Sébastien Lévesque, BMC Medical Genomics, 2014

Nonparametric Guidance of Autoencoder Representations using Label Information par Jasper Snoek, Ryan P. Adams et Hugo Larochelle, Journal of Machine Learning Research, 13 septembre 2012

Learning Where to Attend With Deep Architectures for Image Tracking par Misha Denil, Loris Bazzani, Hugo Larochelle et Nando de Freitas, Neural Computation, 2012

Learning Algorithms for the Classification Restricted Boltzmann Machine par Hugo Larochelle, Michael Mandel, Razvan Pascanu et Yoshua Bengio, Journal of Machine Learning Research, 13 mars 2012

Detonation Classification from Acoustic Signature with the Restricted Boltzmann Machine par Yoshua Bengio, Nicolas Chapados, Olivier Delalleau, Hugo Larochelle, Xavier Saint-Mleux, Christian Hudon et Jérôme Louradour, Computational Intelligence, 2012

Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion par Pascal Vincent, Hugo Larochelle, Isabelle Lajoie, Yoshua Bengio et Pierre-Antoine Manzagol, Journal of Machine Learning Research, 11 décembre 2010

Tractable Multivariate Binary Density Estimation and the Restricted Boltzmann Forest par Hugo Larochelle, Yoshua Bengio et Joseph Turian, Neural Computation, 2010

Études de techniques d'appentissage non-supervisé pour l'amélioration de l'entraînement supervisé de modèles connexionnistes par Hugo Larochelle, Thèse de doctorat, Université de Montréal, 2009

Exploring Strategies for Training Deep Neural Networks par Hugo Larochelle, Yoshua Bengio, Jérôme Louradour et Pascal Lamblin, Journal of Machine Learning Research, 10 janvier 2009

Non-Local Estimation of Manifold Structure par Yoshua Bengio, Martin Monperrus et Hugo Larochelle, Neural Computation, 2006

Prix et honneurs[modifier | modifier le code]

L'affiche Classification using Discriminative Restricted Boltzmann Machines par Hugo Larochelle et Yoshua Bengio a reçu la 3e place au poster competition de la MITACS Second Canada-France Congress à Montréal en 2008.[29]

L'article de conférence The Neural Autoregressive Distribution Estimator par Hugo Larochelle et Iain Murray a reçu le AISTATS Notable Paper Award, en 2011.[30][29]

Il est aussi récipiendaire de la bourse NSERC Discovery Grant en 2012 [30]

Hugo Larochelle a reçu à deux reprises le Google Faculty Research Award, en 2012 et 2013 [30]

Vie personnelle[modifier | modifier le code]

Hugo Larochelle est né le 19 octobre 1981 à Saint-Hyacinthe, une ville au sud de Montréal au Québec, Canada. Il est marié depuis 2006 à Angèle St-Pierre, une biologiste canadienne. Ils vivent maintenant, avec leurs quatre enfants, à Arlington, dans le Massachusetts aux États-Unis d'Amérique.[4][31]

Références[modifier | modifier le code]

  1. a b c et d « Hugo Larochelle - Faculté des sciences - Université de Sherbrooke », sur www.usherbrooke.ca (consulté le )
  2. « Top 5 arXiv Deep Learning Papers, Explained », sur www.kdnuggets.com (consulté le )
  3. « Hugo Larochelle (@hugo_larochelle) | Twitter », sur twitter.com (consulté le )
  4. a b et c « Agilience Authority », sur Agilience Authority (consulté le )
  5. a b c d et e (en) « Hugo Larochelle CV », sur http://usherbrooke.ca/ (consulté le )
  6. (en) Hugo Larochelle, Étude de techniques d’apprentissage non-supervisé pour l’amélioration de l’entraînement supervisé de modèles connexionnistes, Université de Montréal, , 237 p. (lire en ligne), p. 213
  7. « Yoshua Bengio », Wikipédia,‎ (lire en ligne, consulté le )
  8. Nielsen, Michael A., « Neural Networks and Deep Learning », {{Article}} : paramètre « périodique » manquant,‎ (lire en ligne, consulté le )
  9. a b et c « Apprentissage profond: Raisons qui nous ont fait reconsidérer les réseaux de neurones. », sur http://www2.ift.ulaval.ca, (consulté le )
  10. a et b (en-US) « Geoffrey Hinton, the 'godfather' of deep learning, on AlphaGo », Macleans.ca,‎ (lire en ligne, consulté le )
  11. « La Faculté des sciences confère le titre de docteur honoris causa à Geoffrey Hinton », Université de Sherbrooke,‎ (lire en ligne, consulté le )
  12. (en) « Geoffrey Hinton », sur http://www.cs.toronto.edu (consulté le )
  13. a b c d e f g h et i « Hugo Larochelle, l'informatique inspirée du cerveau humain — Site », sur info.usherbrooke.ca (consulté le )
  14. (en-US) « Coursera | Online Courses From Top Universities. Join for Free », sur Coursera (consulté le )
  15. a b c d e f g et h (en-GB) « Deep Learning with Hugo Larochelle, Twitter Cortex », RE•WORK,‎ (lire en ligne, consulté le )
  16. a et b « Is “Artificial Intelligence” Dead? Long Live Deep Learning?!? », sur www.kdnuggets.com (consulté le )
  17. « Un professeur d’informatique inverse son enseignement », Université de Sherbrooke,‎ (lire en ligne, consulté le )
  18. a et b « Hugo Larochelle », sur info.usherbrooke.ca (consulté le )
  19. a et b « Apprentissage automatique (Machine Learning) », Big Data France, {{Article}} : paramètre « date » manquant (lire en ligne, consulté le )
  20. « Tailored Trends bring you closer | Twitter Blogs », sur blog.twitter.com (consulté le )
  21. « Traitement automatique du langage naturel », Wikipédia,‎ (lire en ligne, consulté le )
  22. « Vision par ordinateur », Wikipédia,‎ (lire en ligne, consulté le )
  23. a b et c Sabine Barrat, Modèles graphiques probabilistes pour la reconnaissance de formes, 195 p. (lire en ligne)
  24. (en) « Deep learning », Wikipedia,‎ (lire en ligne, consulté le )
  25. « Modèle graphique », Wikipédia,‎ (lire en ligne, consulté le )
  26. Thibodeau-Laufer, Eric, « Algorithmes d’apprentissage profonds supervisés et non-supervisés: applications et résultats théoriques », .,‎ (lire en ligne, consulté le )
  27. a et b « Autograd for Torch | Twitter Blogs », sur blog.twitter.com (consulté le )
  28. a b et c Hugo Larochelle, Étude de techniques d’apprentissage non-supervisé pour l’amélioration de l’entraînement supervisé de modèles connexionnistes, Université de Montréal, , 237 p. (lire en ligne), p. 213
  29. a et b « Hugo Larochelle », sur www.cs.toronto.edu (consulté le )
  30. a b et c « Hugo Larochelle : CIFAR », sur www.cifar.ca (consulté le )
  31. « Hugo Larochelle | Facebook », sur www.facebook.com (consulté le )