Théorème du codage de canal

Un article de Wikipédia, l'encyclopédie libre.

En théorie de l'information, le théorème du codage de canal aussi appelé deuxième théorème de Shannon montre qu'il est possible de transmettre des données numériques sur un canal bruité avec un taux d'erreur arbitrairement faible si le débit est inférieur à une certaine limite propre au canal. Ce résultat publié par Claude Shannon en 1948 est fondé sur des travaux antérieurs de Harry Nyquist et Ralph Hartley. La première preuve rigoureuse fut établie par Amiel Feinstein en 1954. D'une importance fondamentale en théorie de l'information, il possède de larges applications dans les domaines des télécommunications et du stockage d'information.

Introduction[modifier | modifier le code]

L'un des principaux avantages de la représentation numérique des données est de permettre la transmission d'information sans perte. Néanmoins, les données transitent la plupart du temps sur des canaux bruités non fiables subissant diverses interférences. Comment peut-on alors éliminer les erreurs de transmission ? Une solution générale consiste à introduire de la redondance dans le message émis par la source afin de pouvoir corriger les erreurs a posteriori. On parle d'encodage de voie par un code correcteur.

Le théorème montre que pour des sources dont le débit est plus faible qu'une certaine capacité liée au canal de transmission, il existe des codes tels que, au décodage, le taux d'erreur soit aussi faible que voulu.

Souvent, les symboles étant émis sur une durée fixe, on substitue l'entropie d'une source à son débit en bit/s. Il en est de même pour la capacité d'un canal qui peut-être un débit ou une information mutuelle (d'où une certaine confusion). Cette dernière est déterminée par les caractéristiques physiques du canal. Le théorème de Shannon-Hartley donne par exemple la capacité d'un canal à bande passante limitée subissant un bruit Gaussien (voir signal sur bruit).

Il est à noter que pour annuler le taux d'erreur, les diverses preuves font tendre la longueur des mots de code vers l'infini. Ainsi si le théorème permet de trouver de tels codes, il ne fournit pas d'algorithmes de décodage de complexité algorithmique satisfaisante. Aujourd'hui, les turbo codes convolutifs, les codes LDPC (Low-density parity-check) ou encore les codes polaires permettent de transmettre des signaux dont l'entropie approche la capacité du canal tout en restant décodables en temps réel[1].

Théorème[modifier | modifier le code]

En notant et les distributions marginales d'une distribution jointe , on note l'information mutuelle de ,

correspond a l'entropie.

Si on note et des suites de variables aléatoires appariées issues de la distribution , alors étant données deux suites de fonctions et telles que,

en notant,

on a l'égalité :

Précisions[modifier | modifier le code]

Ici la distribution jointe modélise le canal, représente ce que l'on cherche a transmettre et ce qui est effectivement reçu en sortie du canal de communication. En général, on préfère modéliser le canal par la distribution conditionnelle de sorte que la capacité du canal s'exprime comme :

Enfin, pour des blocs de données (resp. ) de longueur les fonctions (resp. ) constituent des encodeurs (resp. décodeurs) des messages transmis (resp. reçus).

Preuve[modifier | modifier le code]

Notations utilisées[modifier | modifier le code]

Soient et deux variables aléatoires, suivant les probabilités conditionnelles, on a,

donc,

et l’espérance étant linéaire,

on notera,

peut être vue comme une variable aléatoire fonction de dont la fonction dépend de la réalisation préalable de .

On remarque que , où désigne la divergence de Kullback-Leibler et le produit tensoriel.

Cette quantité s'annule seulement si et sont indépendants, ainsi,

et l'égalité ci-dessus démontre l’indépendance de et .

Capacité du canal comme borne inférieure[modifier | modifier le code]

Capacité du canal comme borne supérieure[modifier | modifier le code]

Par contradiction, avec la notation de Landau et en notant l'information mutuelle, supposons qu'il existe tel que,

comme est indépendant de , on aurait,

mais comme :

Contradiction.

Articles connexes[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. (en) Sae-Young Chung, G. David Forney, Jr. (en), Thomas J. Richardson et Rüdiger Urbanke, « On the Design of Low-Density Parity-Check Codes within 0.0045 dB of the Shannon Limit », IEEE Communication Letters, vol. 5,‎ , p. 58-60 (ISSN 1089-7798, lire en ligne)