Entropie différentielle

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 9 avril 2019 à 16:59 et modifiée en dernier par Frasten (discuter | contributions). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

L'entropie différentielle est un concept de la théorie de l'information qui étend le concept de l'entropie de Shannon aux distributions de probabilités continue.

Définition

Pour une variable aléatoire X avec une distribution de probabilité f et définie sur un ensemble on définit l'entropie différentielle h(x) par:

Entropie différentielle pour plusieurs distributions

Table d'entropies différentielles.
Distribution Fonction de distribution de probabilités Entropie
Loi uniforme continue pour
Loi normale
Loi exponentielle
Loi de Cauchy
Loi du χ²

Distribution Gamma
Loi logistique
Statistique de Maxwell-Boltzmann
Distribution de Pareto
Loi de Student
Distribution de Weibull
Loi normale multidimensionnelle