Codage binaire tronqué

Un article de Wikipédia, l'encyclopédie libre.

Le codage binaire tronqué (aussi appelé « economy code » ou « code phase-in » dans les compresseurs de la famille LZ) est un codage entropique utilisé essentiellement en compression de données et s'appuyant sur la base 2.

Il est plus généralement utilisé pour coder de façon efficace en termes de longueur, un alphabet dont la taille n'est pas une puissance de 2.

Le code résultant est équivalent au code de Huffman canonique qui est obtenu en considérant que les différents symboles de l'alphabet sont équiprobables.

Principe[modifier | modifier le code]

Contrairement au codage binaire de taille fixe, le codage binaire tronqué utilise un code préfixe à longueur variable. La longueur de ce code est toujours inférieure ou égale à celle du code binaire optimal équivalent, qui est de est la taille de l'alphabet à coder.

Pour un alphabet de taille , le codage binaire tronqué sépare l'ensemble des valeurs à coder en deux groupes : les premières valeurs d'une part, et les valeurs restantes d'autre part. Les premières valeurs sont codées sur bits, tandis que les secondes sont codées sur bits.

Les codes utilisés pour coder ces dernières valeurs sont les derniers codes de longueur  ; il n'y a donc pas de continuité entre les valeurs codées sur bits et celles codées sur bits. C'est cette façon de coder qui fait du code binaire tronqué un code préfixe.

Gains en termes d'espace par rapport au codage binaire[modifier | modifier le code]

Dans le pire des cas, un code binaire tronqué est de la même longueur que le code binaire équivalent. Lorsque la taille de l'alphabet est une puissance de 2, ce pire cas est systématique, et les codes produits sont identiques. On peut ainsi voir le codage binaire comme un cas particulier de codage binaire tronqué, avec un alphabet dont la taille est une puissance de 2.

Dans tous les autres cas, le gain est de 1 bit pour chaque valeur parmi les premières de l'alphabet, et il est nul pour toutes les autres valeurs.

Le gain global pour coder une source de longueur sur un alphabet de taille peut être exprimé par :

est la probabilité d'apparition de la valeur et

Lorsque la distribution des valeurs est connue et non uniforme, il est intéressant de réorganiser l'alphabet pour que les valeurs ayant la plus forte probabilité d'apparition soient au début de celui-ci.

Exemples[modifier | modifier le code]

Codage d'un alphabet de taille 5[modifier | modifier le code]

Le code binaire optimal pour un alphabet de taille 5 est de longueur .

On peut donc coder sur 2 bits les premières valeurs, et sur 3 bits les valeurs restantes.

Représentation des premiers entiers naturels en binaire optimal et en binaire tronqué
Décimal Binaire optimal
(sur 3 bits)
Binaire tronqué
0 000 00
1 001 01
2 010 10
3 011 110
4 100 111

Dans le cas d'une distribution uniforme, le codage binaire tronqué sur un alphabet de taille 5 offre un gain moyen de 0,6 bits par caractère, soit 20 %.

Codage d'un alphabet de taille 7[modifier | modifier le code]

Le code binaire optimal pour un alphabet de taille 7 est de longueur .

On peut donc coder sur 2 bits la première valeur, et sur 3 bits les valeurs restantes.

Représentation des premiers entiers naturels en binaire optimal et en binaire tronqué
Décimal Binaire optimal
(sur 3 bits)
Binaire tronqué
0 000 00
1 001 010
2 010 011
3 011 100
4 100 101
5 101 110
6 110 111

Dans le cas d'une distribution uniforme, le codage binaire tronqué sur un alphabet de taille 7 offre un gain moyen de 0,14 bits par caractère, soit 4,76 %.

Utilisations[modifier | modifier le code]

Le codage binaire tronqué est utilisé pour coder un alphabet dont la taille n'est pas une puissance de 2, lorsque la longueur du code est critique. Dans le cas général (lorsque la vitesse est plus importante que la longueur du code), le codage binaire est préféré car il est plus simple et plus rapide à manipuler (notamment car sa taille fixe permet un indiçage immédiat).

Le codage binaire tronqué est en particulier utilisé pour le codage de la position lors d'un codage de Golomb ou d'un codage zeta.

Variation[modifier | modifier le code]

Une version modifiée tire profit de la loi des grands nombres. Dans beaucoup d'applications, il y a plus de grands nombres que de petits nombres et il devient préférable d'économiser un bit pour les nombres élevés au lieu des nombres proches de zéro. On encode alors le nombre -n au lieu de n.

Voir aussi[modifier | modifier le code]


Articles connexes[modifier | modifier le code]