Discussion:Modèle de mélange gaussien

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

Évaluation[modifier le code]

Bonjour,

J'ai retiré le domaine informatique…

Groumphy (d) 9 mars 2012 à 08:24 (CET)[répondre]

La version initiale que je me perme de retirer:

Un modèle de mélange gaussien est une estimation de la distribution de variables aléatoires en utilisant la somme de plusieurs gaussiennes (appelées noyaux) dont la variance, la moyenne et l'amplitude sont variables. Ces paramètres sont optimisés selon un critère de maximum de vraisemblance pour approcher le plus possible la distribution recherchée. Cette procédure se fait le plus souvent via une estimation/maximisation (EM pour expectation-maximisation) qui est un algorithme itératif.

Deux gaussiennes forment une distribution bimodale

Problèmes de classification[modifier le code]

Les mixtures gaussiennes sont utilisées pour les problèmes de classification. A partir des approximations gaussiennes des distributions obtenues grâce à un ensemble d'apprentissage, il est possible de déterminer une probabilité postérieure, c'est à dire d'estimer la probabilité d'appartenance d'un échantillon à une classe donnée. Plus formellement, on utilise le théorème de Bayes pour trouver la probabilité d'appartenance d'un échantillon x à la classe C :

On estime ainsi la distribution grâce à la mixture gaussienne de la classe C. La probabilité est facilement calculée en examinant la répartition des classes dans l'échantillon utilisé pour l'apprentissage du modèle. Quant à la probabilité , elle correspond à la probabilité de trouver un échantillon x soit :

est la classe d'indice j.

Variantes[modifier le code]

Les modèles de mixture gaussienne peuvent utiliser :

  • des gaussiennes sphériques
  • des gaussiennes diagonales
  • des gaussiennes avec une matrice de covariance complète

En d'autres termes, on peut se représenter une gaussienne sphérique comme une hypersphère dont la variance (le rayon) est la même pour toutes les dimensions. Dans le cas d'une gaussienne diagonale, cette hypersphère peut devenir ellipsoïdale avec des variances qui peuvent changer sur les axes principaux. Finalement, une gaussienne avec une covariance complète peut non seulement prendre une forme ellipsoïdale sur les axes principaux mais peut également prendre n'importe quelle orientation. C'est la variante la plus flexible mais elle peut également entraîner un manque de généralisation, un problème bien connu dans les méthodes de classification sous le nom de surapprentissage.

Rilou2000 26 novembre 2005 à 10:57 (CET)[répondre]

Je me suis permis de modifier les formules de Bayes qui me semblaient fausses (pas de prise en compte de x dans l'expression conditionnelle) et de corriger une faute d'orthographe.

Une explication de la façon dont on obtient des probabilités d'appartenance à une classe à partir des densités de la distribution me semble utile.

--Tarroux 27 octobre 2007 à 11:47 (CEST)[répondre]

Nettoyage[modifier le code]

J'ai réintroduit le texte ci-dessus qui était à mon avis plus pertinent. En effet, l'article avait tendance à présenter les GMM uniquement pour faire de la classification automatique (i.e classif supervisée). D'ailleurs, la section Utilisation en classification automatique a encore besoin d'être nettoyée à mon avis. D'ailleurs, le "vieux" texte qui a été déplacé sur la page de discussion n'est pas si mal... Xiawi (d) 28 juillet 2010 à 11:47 (CEST)[répondre]