Nat (information)

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Nat.

Un nat (parfois aussi appelé nit ou nepit) est une unité logarithmique de mesure de l'information ou de l'entropie, basée sur le logarithme néperien et les puissances de e plutôt que sur le logarithme en base 2 qui définit le bit. Le nat est l'unité naturelle pour l'entropie en théorie de l'information. Les systèmes d'unités naturelles qui normalisent la constante de Boltzmann à 1 mesurent effectivement une entropie en nats. Quand l'entropie de Shannon est donnée avec le logarithme naturel,

 H = - \sum_i p_i \ln p_i \!\,

elle donne implicitement une valeur en nats. Un nat vaut environ 1,44 bits (exactement \tfrac{1}{\ln 2} ), ou 0,434 bans (\tfrac{1}{\ln 10}).

Historique[modifier | modifier le code]

Alan Turing a utilisé le ban. Boulton et Wallace (1970) employèrent le terme de nit pour la longueur minimale d'un message, qui a été par la suite remplacé par nat pour éviter toute confusion avec le nit comme unité de luminosité.

Références[modifier | modifier le code]

  • (en) J. W. Comley, D. L. Dowe, P. Grünwald (éditeur), I. J. Myung (éditeur) et M. A. Pitt (éditeur), Advances in Minimum Description Length: Theory and Applications, Cambridge, MIT Press,‎ 2005 (ISBN 0262072629, lire en ligne), « Minimum Message Length, MDL and Generalised Bayesian Networks with Asymmetric Languages »