Nat (information)

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Un nat (parfois aussi appelé nit ou nepit) est une unité logarithmique de mesure de l'information ou de l'entropie, basée sur le logarithme néperien et les puissances de e plutôt que sur le logarithme en base 2 qui définit le bit. Le nat est l'unité naturelle pour l'entropie en théorie de l'information. Les systèmes d'unités naturelles qui normalisent la constante de Boltzmann à 1 mesurent effectivement une entropie en nats. Quand l'entropie de Shannon est donnée avec le logarithme naturel,

 H = - \sum_i p_i \ln p_i \!\,

elle donne implicitement une valeur en nats. Un nat vaut environ 1,44 bits (exactement \tfrac{1}{\ln 2} ), ou 0,434 bans (\tfrac{1}{\ln 10}).

Historique[modifier | modifier le code]

Alan Turing a utilisé le ban. Boulton et Wallace (1970) employèrent le terme de nit pour la longueur minimale d'un message, qui a été par la suite remplacé par nat pour éviter toute confusion avec le nit comme unité de luminosité.

Références[modifier | modifier le code]

  • (en) J. W. Comley, D. L. Dowe, P. Grünwald (éditeur), I. J. Myung (éditeur) et M. A. Pitt (éditeur), Advances in Minimum Description Length: Theory and Applications, Cambridge, MIT Press,‎ 2005 (ISBN 0262072629, lire en ligne), « Minimum Message Length, MDL and Generalised Bayesian Networks with Asymmetric Languages »