Algorithme de Karatsuba

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

L'algorithme de Karatsuba (1960) est une méthode permettant de multiplier rapidement deux nombres de n chiffres avec une complexité en O(n^{\log_2(3)}) au lieu de O(n^2) pour la méthode naïve (\scriptstyle\log_2(3) \approx 1,585).

Énoncé[modifier | modifier le code]

Pour multiplier deux nombres de n chiffres, la méthode naïve multiplie chaque chiffre du multiplicateur par chaque chiffre du multiplicande. Cela exige donc n2 produits de deux chiffres. Le temps de calcul est en O(n2).

En 1960, Karatsuba remarque que le calcul de (a × 10k + b)(c × 10k + d) qui, sous forme développée ac × 102k + (ad + bc) × 10k + bd, semble nécessiter les quatre produits ac, ad, bc et bd, peut en fait être effectué seulement avec les trois produits ac, bd et (ab)(cd) en regroupant les calculs sous la forme suivante :

(a × 10k + b)(c × 10k + d) = ac × 102k + (ac + bd – (ab)(cd)) × 10k + bd

Pour de grands nombres, la méthode peut être appliquée de manière récursive pour les calculs de ac, bd et (ab)(cd) en scindant à nouveau a, b, c et d en deux et ainsi de suite.

La multiplication par la base de numération (10 dans l'exemple précédent, mais 2 pour les machines) correspond à un décalage de chiffre, et les additions sont peu coûteuses en temps ; ainsi, le fait d'être capable de calculer les grandeurs nécessaires en 3 produits au lieu de 4 mène à une amélioration de complexité.

Exemple[modifier | modifier le code]

Illustrons le principe avec le produit 1237 × 2587. Si l'on choisit une base 100, il faut alors calculer :

a0 = 12 × 25
a2 = 37 × 87
a1 = (12 – 37) × (25 – 87) = 25 × 62

Le résultat est alors obtenu en calculant a0 1002 + (a0 + a2 - a1) 100 + a2.

Pour calculer 12 × 25, on applique une fois de plus la méthode de Karatsuba, cette fois-ci en base 10 ; il faut alors calculer les produits :

1 × 2 = 2
2 × 5 = 10
(1 – 2) × (2 – 5) = -1 × -3 = 3

et l'on obtient 12 × 25 = 2 × 100 + (2 + 10 – 3) × 10 + 10 = 300. On procède de la même façon pour les autres produits pour obtenir :

a0 = 12 × 25 = 300
a2 = 37 × 87 = 3219
a1 = 25 × 62 = 1550

d'où 1237 × 2587 = 300 × 1002 + (300 + 3219 – 1550) × 100 + 3219 = 3000000 + 196900 + 3219 = 3200119.

Le calcul complet ne demande que 9 produits de deux chiffres au lieu de 16 par la méthode usuelle. Bien entendu, cette méthode, fastidieuse à la main, révèle toute sa puissance pour une machine devant effectuer le produit de grands nombres.

Complexité[modifier | modifier le code]

Si l'on note K(n) le nombre de multiplications nécessaires pour calculer le produit de 2 nombres à n chiffres avec cette méthode, on obtient la relation de récurrence suivante :

K(n) \leq 3 K(\lceil n/2 \rceil)

\lceil n/2 \rceil représente l'entier suivant immédiatement n/2. On peut résoudre cette relation de récurrence (à la main ou avec le Master theorem), ce qui donne une complexité en O(n^{\log_2 3}) = O(n^{1.58}). Ceci est plus rapide que l'algorithme standard ; pour donner un exemple, pour n = 1000, n^{\log_2(3)} est de l'ordre de 50 000 alors que n2 = 1 000 000.

Quant au nombre d'additions nécessaire, il est de 4n dans la version présentée ci-dessus ; on ne mentionne pas ce coût dans la complexité car il est négligeable asymptotiquement par rapport au coût des multiplications.

Variantes[modifier | modifier le code]

  • Il existe aussi une variante classique qui calcule ad+bc à partir de (a+b)(c+d) au lieu de (a-b)(c-d), mais cette variante est considérée comme étant moins efficace (à cause notamment des retenues dans le calcul de a+b) [1].
  • Il existe une variante de l'algorithme qui ne nécessite que 3.5 n additions au lieu de 4n [2].
  • Dans sa version récursive, l'algorithme nécessite de stocker des résultats intermédiaires, et il est utile de se poser la question de la quantité d'espace mémoire nécessaire. La version présentée ci-dessus nécessite 2n mots de stockage ; il est possible de réduire cette quantité pour que n mots suffisent, et il est même possible d'arriver à tout stocker en n'ayant besoin que de O(\log n) mots [2].
  • L'algorithme Toom-Cook est une amélioration de cette méthode, en découpant les nombres en r blocs (au lieu de 2). Le temps de calcul en O(n2) par la méthode naïve passe alors en O(n1+ε) où ε est un réel positif arbitraire.

Histoire[modifier | modifier le code]

Dans les années 50, Andreï Kolmogorov travailla sur la complexité des opérations arithmétiques. Vers 1956, il formula la conjecture qu'une multiplication de deux nombres de n chiffres ne pouvait être réalisée en moins de O(n^2) opérations, sans doute car aucun algorithme plus rapide que la multiplication standard n'avait été trouvé[3]. Il discuta notamment de cette conjecture lors d'une réunion de la Société Mathématique de Moscou en 1956[3].

À l'automne 1960, Kolmogorov organisa un séminaire sur "les problèmes mathématiques de la cybernétique", auquel assista Karatsuba, où il parla de sa conjecture. Une semaine plus tard, Karatsuba avait trouvé son algorithme, qui prouvait que la conjecture était fausse[3] ; il en parla à Kolmogorov à la fin du séminaire suivant, qui en fut "très agité" car cela contredisait sa conjecture. La semaine suivante, Kolmogorov montra l'algorithme aux participants du séminaire, qui fut ensuite terminé[3].

En 1962 Kolmogorov écrivit un article, sans doute avec Yuri Ofman (en), sur la méthode et le soumit à publication avec le nom de Karatsuba et d'Ofman à Doklady Akad. Nauk SSSR ; Karatsuba n'apprit l'existence de l'article que plus tard, lors de sa réédition[3].

Références[modifier | modifier le code]

  1. Richard Brent, Paul Zimmerman, Modern Computer Algebra, Cambridge University Press, 2010, page 6.
  2. a et b Richard Brent, Paul Zimmerman, page 40.
  3. a, b, c, d et e Karatsuba, A. A. (1995). The complexity of computations. Proceedings of the Steklov Institute of Mathematics-Interperiodica Translation, vol 211, p. 169-183.

Bibliographie[modifier | modifier le code]

  • A. Karatsuba and Yu Ofman, Multiplication of Many-Digital Numbers by Automatic Computers. Doklady Akad. Nauk SSSR Vol. 145 (1962), pp. 293–294. Translation in Physics-Doklady 7 (1963), pp. 595–596.
  • Karatsuba A. A. Berechnungen und die Kompliziertheit von Beziehungen (German) // Elektron. Inform.-verarb. Kybernetik, 11, 603–606 (1975).
  • Karatsuba A. A. The complexity of computations // Proc. Steklov Inst. Math., 211, 169–183 (1995); translation from Trudy Mat. Inst. Steklova, 211, 186–202 (1995).
  • Knuth D. E. The art of computer programming. v.2. Addison-Wesley Publ.Co., 724 pp., Reading (1969).
  • Karatsuba Multiplication on Fast Algorithms and the FEE
  • Richard Brent, Paul Zimmerman, Modern Computer Algebra, Cambridge University Press, 2010.