Distance de Bhattacharyya

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En statistiques, la distance de Bhattacharyya est une mesure de la similarité de deux distributions de probabilités discrètes. Elle est reliée au coefficient de Bhattacharyya, qui est une mesure statistique du recouvrement de deux ensembles d'échantillons. Cette mesure est régulièrement utilisée dans des problèmes de classification, en particulier dans le domaine de la vision par ordinateur.

Le nom de la distance et du coefficient proviennent du statisticien indien A. Bhattacharya (en), qui travaillait dans les années 1930 à l'Institut indien de statistiques[1]. Le coefficient peut être utilisé pour déterminer la proximité relative des deux ensembles considérés. Il est utilisé pour mesurer la séparabilité de classes en classification automatique.

Définition[modifier | modifier le code]

Pour deux distributions de probabilité discrète p et q définies sur le même espace de probabilité, la distance de Bhattacharyya est calculée par :

D_B(p,q) = -\ln \left( BC(p,q) \right)

où :

BC(p,q) = \sum_{x\in X} \sqrt{p(x) q(x)}

est le coefficient de Bhattacharyya.

Pour des distributions de probabilité continues, le coefficient est défini par :

BC(p,q) = \int \sqrt{p(x) q(x)}\, dx

Dans les deux cas, 0 \le BC \le 1 et 0 \le D_B \le \infty. La distance de Bhattacharyya n'obéit pas à l'inégalité triangulaire, au contraire de la distance de Hellinger, définie à partir de la distance de Bhattacharyya par \sqrt{1-BC}.

Pour des distributions gaussiennes multivariées p_i=N(m_i,P_i),

D_B={1\over 8}(m_1-m_2)^T P^{-1}(m_1-m_2)+{1\over 2}\ln \,\left({\det P \over \sqrt{\det P_1 \, \det P_2} }\right),

m_i et P_i sont les moyennes et les covariances des distributions, et P={P_1+P_2 \over 2}.

Cette écriture montre que dans le cas gaussien, le premier terme de la distance de Bhattacharyya est relié à la distance de Mahalanobis[2].

Coefficient de Bhattacharyya[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. (en) A. Bhattacharyya, « On a measure of divergence between two statistical populations defined by their probability distributions », Bulletin of the Calcutta Mathematical Society (en), vol. 35,‎ 1943, p. 99–109, MR 0010358
  2. Sergios Theodoridis, Konstantinos Koutroumbas, Pattern recognition, Academic Press Inc,‎ 2006 (ISBN 978-0123695314), p. 228

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • (en) F. Nielsen et S. Boltz, « The Burbea-Rao and Bhattacharyya centroids », ArXiv:1004.5049v1,‎ 2010 (lire en ligne)
  • (en) Thomas Kailath (en), « The Divergence and Bhattacharyya Distance Measures in Signal Selection », IEEE Transactions on Communication Technology, vol. 15, no 1,‎ 1967, p. 52–60 (lien DOI?)
  • (en) A. Djouadi, O. Snorrason et F. Garber, « The quality of Training-Sample estimates of the Bhattacharyya coefficient », IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 12, no 1,‎ 1990, p. 92-97 (lien DOI?)