Canal binaire symétrique

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 7 janvier 2019 à 23:09 et modifiée en dernier par Bot2Friday (discuter | contributions). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

Alice veut transmettre un message à Bob. Un canal binaire symétrique est un canal discret où Alice transmet une suite d’éléments de l'ensemble et où la probabilité d'erreur dans la transmission d'un symbole est de , pour 0 et pour 1 (d'où la symétrie). Ce canal est sans mémoire, c'est-à-dire qu'aucune archive des messages n'est conservée.

En communication, un problème classique est d'envoyer de l'information d'une source à une destination via un canal de communication, en présence de bruit. Le codage de canal est l'ensemble des solutions à ce problème que sont les codes correcteurs.

La probabilité d'erreur sur un bit transmis d'Alice à Bob est de p
La probabilité d'erreur sur un bit transmis d'Alice à Bob est de p

Détails techniques

Définition

L'idée du canal binaire symétrique est qu'il est utile de modéliser le bruit de canal. Dans ce modèle, chaque bit de données transmis est inversé avec une probabilité et est transmis sans erreur avec la probabilité complémentaire de . Le paramètre détermine (c'est-à-dire qu'il définit uniquement) le canal binaire symétrique dont il est question.

Sans perte de généralité, on peut supposer que . En effet, si , le message codé ne dépend pas du message d'origine et si , on ajoute à chaque bit du code et on est revenu au cas général.

Capacité

La capacité du canal est la quantité d'information que l'on peut y faire transiter ; elle est définie par est la variable aléatoire en entrée du canal, la variable aléatoire en sortie et est l'information mutuelle. On cherche la distribution de qui maximise la quantité d'information transmise.

Posons que suit une loi de Bernoulli de paramètre  ; suit alors une loi de Bernoulli de paramètre . L'information mutuelle est donnée par :

est l'entropie de Shannon de la loi de Bernoulli : elle atteint son maximum de en . Cet argument est obtenu lorsque , c'est-à-dire lorsque est uniforme. Le maximum est donc obtenu pour la loi uniforme, et la capacité du canal est :

Solutions

Une solution simple pour se prémunir de ce type de bruit est d'envoyer plusieurs copies de chaque bit devant être transmis : c'est le code de répétition. Rendre l'information redondante est l'idée derrière le codage de canal, bien que ces techniques puissent être beaucoup plus élaborées (voir théorie des codes).

Voir aussi