Aller au contenu

Inégalité de Fano

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 10 avril 2021 à 05:53 et modifiée en dernier par 2a01:e0a:96f:e640:8108:5cc2:914:a836 (discuter). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

L'inégalité de Fano est un résultat de théorie de l'information.

Énoncé

Pour deux variables aléatoires et prenant valeurs possibles, on a :

est la probabilité d'erreur et est l'entropie de Shannon de la loi de Bernoulli de paramètre .

Démonstration

Considérons est le symbole de Kronecker. suit une loi de Bernoulli de paramètre . En appliquant deux fois la règle de la chaîne pour l'entropie conditionnelle, on a :

La donnée de permet de calculer donc le terme est nul. On observe ensuite que . Le terme restant est décomposé selon la valeur de  :

  • Quand , on majore simplement l'entropie (entropie de la variable aléatoire conditionnellement à ) par , puisqu'il n'y a que valeurs disponibles pour une fois la valeur de exclue ;
  • Quand , la donnée de détermine dont l'entropie est nulle.

On a donc :