Byte

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Byte (homonymie).
Page d'aide sur l'homonymie Ne doit pas être confondu avec octet ou bit.
Ce modèle est-il pertinent ? Cliquez pour en voir d'autres.
Cet article ne cite pas suffisamment ses sources (mars 2012).

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références » (modifier l'article, comment ajouter mes sources ?).

Le byte (prononcé [baɪt]), anglicisme de symbole B, ou multiplet, est la plus petite unité adressable d’un ordinateur. Aujourd’hui, les bytes de bits se sont généralisés en informatique, alors qu’en télécommunications ils peuvent contenir 8 ou 9 bits. Mais jusque dans les années 1970, il existait des processeurs avec des bytes de 6, 7, 8 ou 9 bits, et il existe aujourd'hui pour la programmation des automates ou équipements industriels simples des processeurs très robustes utilisant des mémoires adressables par quantité de 4 bits voire 1 bit. En revanche, un octet, comme son nom l’indique, est un byte d'exactement 8 bits (en anglais eight-bit byte).

Histoire[modifier | modifier le code]

Le terme Byte est créé en 1956 par Werner Buchholz alors qu'il travaille à la conception de l'IBM Stretch. C'est une déformation orthographique volontaire de l'anglais bite, littéralement « bouchée », pour éviter toute confusion avec bit par élision du e final. Le terme désigne par analogie la plus petite unité de données accessible via un bus de données[1].

Distinction entre byte et octet[modifier | modifier le code]

Historique[modifier | modifier le code]

Aux origines de l'informatique, le byte était l'unité de stockage permettant de stocker un caractère. En anglais, on utilise fréquemment le mot « char » (troncation de character) pour « byte », et réciproquement. Chaque constructeur définissait la taille du byte en fonction de ses besoins du moment. Ainsi, par exemple, le PDP-10 utilise un byte par le jeu d'instructions en langage machine, qui a une taille variable. Sur cette même architecture, les mots, utilisés pour l'adressage mémoire, font 36 bits.

Normalisation à 8[modifier | modifier le code]

Dans la plupart des architectures matérielles, la capacité de la mémoire informatique est généralement exprimée en bytes, alors que sur les architectures « grand public » en français, on l'exprime en octets. La généralisation des bytes de huit bits amplifie cette confusion, en tirant un trait sur les architectures anciennes − essentiellement américaines. On trouve beaucoup de documentation en français exprimant improprement la capacité de mémoire en bytes par une confusion bytes/octets lors de la traduction.

Aujourd'hui, pour le Dictionnaire du multimédia. Audiovisuel, informatique, télécommunications[2] de l'AFNOR, le byte est « l'unité d'information correspondant à un octet, soit 8 bits ». La normalisation IEC 80000-13 va dans le même sens : normaliser la taille des bytes à 8 bits. C'est de cette normalisation à 8 bits que vient la confusion.

Octet[modifier | modifier le code]

Toutefois, en anglais comme en français, si l'on veut explicitement désigner une quantité de huit bits, on utilise le mot octet ; tandis que si l'on veut exprimer l'unité d'adressage indépendamment du nombre de bits, on utilise le mot byte. Ainsi la description formelle d’un langage de programmation utilisera sciemment le mot byte si le langage ne nécessite pas qu’un byte ait une taille d’un octet. C’est par exemple le cas du langage C, où un byte peut contenir plus de huit bits. Le mot octet est sciemment utilisé en français comme en anglais pour décrire un format de données au bit près. Ainsi, on trouve le mot octet dans des textes anglais comme le RFC 793 qui décrit le protocole de communication TCP d'Internet, ou dans le standard H.263 qui décrit une norme de codage vidéo numérique.

La même distinction entre byte et octet existe donc dans les deux langues, seul change le mot que l'on utilise couramment dans les cas où le byte mesure huit bits.

Confusion entre bit et byte[modifier | modifier le code]

La capacité mémoire d'une puce de mémoire informatique est généralement donnée en bits (b), mégabits (Mb) ou gigabits (Gb), alors que la capacité mémoire de l'ensemble des puces d'un ordinateur est généralement donnée en bytes (B), mégabytes (MB) ou gigabytes (GB), ou en octets (o), mégaoctets (Mo) ou gigaoctets (Go). Des médias négligents font la confusion entre bit et byte et se trompent donc d'un facteur de huit, par exemple en écrivant « ordinateur doté de 4 Gb de RAM » au lieu de « ordinateur doté de 4 GB de RAM » ou « ordinateur doté de 4 Go de RAM »[3].

La capacité des cartouches de jeu vidéo est généralement donnée en bits, ce qui fait exception à l'usage répandu du byte ou de l'octet pour la mesure d'une mémoire complète. Cela permet d'utiliser de plus grands nombres dans la communication, en écrivant « cartouche de 8 Mb » (8 mégabits) au lieu de « cartouche de 1 Mo » (1 mégaoctet).

Bytes multiples[modifier | modifier le code]

Lorsqu’un processeur est capable de traiter plusieurs bytes en tant qu’entité unique, on appelle cette entité un « mot ». Les tailles de mot les plus courantes sont :

Par exemple, un « processeur 64 bits » est un processeur accédant aux données par unité de 64 bits.

Comme pour les octets, les multiples kilobyte, mégabyte, gigabyte, etc., sont utilisés avec un facteur de 1 000.

Voir les articles unité de mesure en informatique et octet pour plus de détails.

Notes et références[modifier | modifier le code]

  1. Byte, catb.org, Werner Buchholz et le terme byte.
  2. 1996, p. 135.
  3. Pour être tout à fait précis, il faudrait l’exprimer en Gio, c’est-à-dire en giga binaire, donc en puissances de 2 (facteurs de 1 024 et non de 1 000).

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]