Aller au contenu

Utilisateur:Agfline/Brouillon3

Une page de Wikipédia, l'encyclopédie libre.

Sur les autres projets Wikimedia :

De façon générale le codage permet de représenter une information en employant un code, c'est à dire un ensemble de règles qui déterminent la méthode employé.

Représentation binaire[modifier | modifier le code]

Le binaire est le système de numération employé en informatique pour représenter toute chose (nombres, textes, vidéos, photos, audio, etc.). La plus petite unité de ce système est le bit (binary digit), pouvant prendre deux états : 0 ou 1. Ces bits, mis les un à la suite des autres forment ce que l'on appelle des mots binaires

Il existe différentes méthodes pour représenter une information sous forme binaire.

Codage de source[modifier | modifier le code]

Codage de canal[modifier | modifier le code]

Codage des caractères[modifier | modifier le code]

Description[modifier | modifier le code]

Parmi les différents codages utilisés, on trouve :

  • Le codage de source, qui permet de faire de la compression de données.
  • le codage de canal, qui permet une représentation des données de façon à être résistant aux erreurs de transmission.
  • Le codage de caractères pour représenter informatiquement l'ensemble des caractères, comme le code ASCII.
  • La transformation d'une source vidéo ou sonore en un format informatique déterminé. Coder en MP3, en AVI, etc. Dans ce cas, il ne s'agit en fait pas d'un codage, car il ne s'agit plus d'une opération mathématique bijective (réversible) ; malgré cela, l'expression encodage numérique est utilisée. Le passage d'un format audio ou vidéo à un autre peut aussi s'appeler transcodage.
  • Dans un ordinateur, au niveau matériel, tout est codé en binaire (c’est-à-dire à partir de 1 et de 0).

Il existe une méthode qui permet de passer d'un codage en base 10 en remarquant par exemple que  ; ainsi le codage binaire de 9 est 1001. Les langages de programmation comme le C, le BASIC ou le Fortran sont assez proches du langage courant pour être lisibles; ils sont compilés et stockés sous forme binaire pour pouvoir être exécutés par les ordinateurs.

En binaire, on utilise 8 bits pour former un octet. L'organisation des octets, pour représenter des nombres plus grands que 255, peut se faire en little endian ou big endian.

Bien qu'il s'agisse d'un codage, on utilisera le terme chiffrement (le "cryptage", bien que fréquemment utilisé, n'ayant pas de légitimité en langue française) quand le codage utilisé cherche à masquer l'information contenue.

Principaux types de codages informatiques[modifier | modifier le code]

Pour représenter des nombres, des caractères ou des instructions pour les microprocesseurs, on utilise principalement les types suivants de codage.

Représentations des nombres
Nom Base Utilise les caractères Exemple
Binaire 2 0 1 10011010
Décimale 10 0 1 2 3 4 5 6 7 8 9 154
Hexadécimale 16 0 1 2 3 4 5 6 7 8 9 A B C D E F 9A

Pour le nommage des nombres binaires plus grand que l'octet, bien que le type d'architecture utilisé puisse faire varier les appellations, on utilisera de préférence les noms suivants :

2 octets = un mot.

4 octets = un long mot.

8 octets = un double long mot

Un octet, un mot, et ses dérivés, peuvent, entre autres, représenter :

  1. Des entiers non signés.
  2. Des entiers signés (un des bits sert à définir le signe).
  3. Des nombres flottants (avec une virgule).
  4. Un caractère ou une chaine de caractères.
  5. Une instruction du microprocesseur.

Voir aussi[modifier | modifier le code]