Distance de Mahalanobis

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En statistique, la distance de Mahalanobis est une mesure de distance introduite par Prasanta Chandra Mahalanobis en 1936[1]. Elle est basée sur la corrélation entre des variables par lesquelles différents modèles peuvent être identifiés et analysés. C'est une manière utile de déterminer la similarité entre une série de données connues et inconnues. Elle diffère de la distance euclidienne par le fait qu'elle prend en compte la variance et la corrélation de la série de données. Ainsi, à la différence de la distance euclidienne où toutes les composantes des vecteurs sont traitées indépendamment et de la même façon, la distance de Mahalanobis accorde un poids moins important aux composantes les plus dispersées. Dans le cas de l'analyse des signaux, et en supposant que chaque composante soit une variable aléatoire de type gaussien, cela revient à minimiser l'influence des composantes les plus bruitées.

La distance de Mahalanobis est souvent utilisée pour la détection de données aberrantes dans un jeu de données, ou bien pour déterminer la cohérence de données fournies par un capteur par exemple : cette distance est calculée entre les données reçues et celles prédites par un modèle.

En pratique, la distance de Mahalanobis d'un vecteur à plusieurs variables x = ( x_1, x_2, x_3, \dots, x_p )^T à un ensemble de vecteurs de valeurs moyennes \mu = ( \mu_1, \mu_2, \mu_3, \dots , \mu_p )^T et possédant une matrice de covariance \Sigma est définie comme suit :

D_M(x) = \sqrt{(x - \mu)^T \Sigma^{-1} (x-\mu)}.\,

La distance de Mahalanobis peut aussi être définie comme étant la mesure de dissimilarité entre deux vecteurs aléatoires  \vec{x} et  \vec{y} de même distribution avec une matrice de covariance \Sigma :

 d(\vec{x},\vec{y})=\sqrt{(\vec{x}-\vec{y})^T\Sigma^{-1} (\vec{x}-\vec{y})}.\,

Si la matrice de covariance est la matrice identité, cette distance est simplement la distance euclidienne. Si la matrice de covariance est diagonale, on obtient la distance euclidienne normalisée :

 d(\vec{x},\vec{y})=
\sqrt{\sum_{i=1}^p  {(x_i - y_i)^2 \over \sigma_i^2}}

\sigma_i est l'écart type de  x_i sur la série de données.

Cette distance est souvent utilisée en analyse des données. (ex: analyse discriminante)

Notes et références[modifier | modifier le code]

  1. (en) P. C. Mahalanobis, « On the generalised distance in statistics », Proceedings of the National Institute of Sciences of India, vol. 2, no 1,‎ 1936, p. 49–55 (lire en ligne)