Entropie différentielle

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Ce modèle est-il pertinent ? Cliquez pour en voir d'autres.
Cet article ne cite pas suffisamment ses sources (octobre 2009).

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références » (modifier l'article, comment ajouter mes sources ?).

L'entropie différentielle est un concept de la théorie de l'information qui étend le concept de l'entropie de Shannon aux distributions de probabilités continue.

Définition[modifier | modifier le code]

Pour une variable aléatoire X avec une distribution de probabilité f et définie sur un ensemble on définit l'entropie différentielle h(x) par:

Entropie différentielle pour plusieurs distributions[modifier | modifier le code]

Table d'entropies différentielles.
Distribution Fonction de distribution de probabilités Entropie
Loi uniforme continue pour
Loi normale
Loi exponentielle
Loi de Cauchy
Loi du χ²

Distribution Gamma
Loi logistique
Statistique de Maxwell-Boltzmann
Distribution de Pareto
Loi de Student
Distribution de Weibull
Loi normale multidimensionnelle