Algorithme de Lloyd-Max

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche
Page d'aide sur l'homonymie Pour les articles homonymes, voir Lloyd.

En algorithmique et en traitement du signal, l’algorithme de Lloyd-Max est un algorithme qui permet de construire le quantifieur scalaire optimal. C'est donc une méthode pour quantifier un signal en une dimension de manière à minimiser la distorsion, mesurée par l'erreur quadratique moyenne.

L'optimalité du quantifieur est assurée par deux conditions sur les niveaux de reconstruction et de décision, découvertes par Lloyd en 1957. Il fournit aussi un algorithme, qui permet de construire itérativement le quantifieur optimal.

Historique[modifier | modifier le code]

L'algorithme fut développé par Lloyd en 1957, mais ne fut pas publié dans un journal à l’époque. Il fut présenté à l'Institut de Statistiques Mathématiques et la seule version imprimée le fut en tant que mémorandum technique des laboratoires Bell, et ne fut donc que très peu diffusé pendant plusieurs années. Les résultats exposés dans ce mémorandum furent donc redécouverts indépendamment par plusieurs chercheurs. Cependant toutes ces redécouvertes utilisèrent des dérivations différentes de celle utilisée par Lloyd, indispensable pour l'extension du théorème à la quantification de vecteurs et pour plusieurs procédures d'optimisation de quantificateurs.[1]

L'algorithme fut notamment redécouvert par Joel Max en 1960[2].

Algorithme[modifier | modifier le code]

L'algorithme est initialisé par k points de l'espace d'entrée. Il itère ensuite la procédure suivante:

  • calculer le diagramme de Voronoï des k points
  • intégrer chaque cellule de Voronoï de manière à en déterminer le centroïde
  • chacun des k points est alors déplacé sur les centroïdes

L'algorithme diffère de l'algorithme des k-moyennes au sens où ce dernier agit sur des données discrètes (par exemple un ensemble de points d'un espace vectoriel) alors que l'algorithme de Lloyd-Max peut être appliqué à des données continues (par exemple une densité).

Conditions d'optimalités[modifier | modifier le code]

Un quantifieur scalaire peut se définir comme un ensemble d'intervalles de l'espace de départ, , où les sont appelés niveaux de décision. On suppose que le quantifieur possède niveaux de reconstructions , et niveaux de décision .

Pour une source de densité de probabilité , les conditions d'optimalités sur les niveaux de reconstructions et de décision sont obtenues en minimisant l'erreur de reconstruction (appelée aussi distorsion) :

Les conditions d'optimalités sont alors données par :

  • (1)
  • (2)

Cas particulier[modifier | modifier le code]

Dans le cas d'une source uniforme : , les conditions d'optimalités se simplifient :

ce qui donne, en injectant dans (1) :

Le pas de quantification est constant, et égale à . Les niveaux de reconstruction et de décisions sont alors régis par les règles simples :

On retrouve le quantifieur scalaire uniforme, qui est donc optimal pour une source de distribution uniforme.

Voir aussi[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. R. M. Gray et D. L. Neuhoff, « Quantization », IEEE Transactions on Information Theory, vol. 44, no 6,‎ , p. 2325–2383 (ISSN 0018-9448, DOI 10.1109/18.720541, lire en ligne, consulté le 1er juillet 2019)
  2. J. Max, « Quantizing for minimum distortion », IRE Transactions on Information Theory, vol. 6, no 1,‎ , p. 7–12 (ISSN 0096-1000, DOI 10.1109/TIT.1960.1057548, lire en ligne, consulté le 26 juin 2019)

Références[modifier | modifier le code]

  • M. Antonini and V. Ricordel. Chapitre Quantification, pp. 45–72. Traité IC2. Hermès, Paris, .
  • Robert M. Gray, David L. Neuhoff, Quantization, IEEE Transactions on Information Theory, vol. 44, n°6, pp. 2325-2383, DOI:10.1109/18.720541
  • Source Coding Theory, Robert M. Gray
  • S. P. Lloyd, Least squares quantization in PCM, IEEE Transactions on Information Theory, vol. 28, n°2, pp. 129–137, DOI:10.1109/TIT.1982.1056489
  • Anil K. Jain, Fundamentals of digital image processing, Prentice Hall, 1989.