Tri de Shell

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche

Tri de Shell
Image illustrative de l’article Tri de Shell
Exemple du tri de Shell avec les espacements 23, 10, 4, 1

Problème lié Algorithme de tri
Structure des données liste ou tableau
Temps d'exécution pire-cas pour la pire suite d'espacements connue
O(n log2n) pour la meilleure suite d'espacements connue
Complexité algorithmique spatiale


Tri de Shell barres de couleur de l'algorithme

Le tri de Shell ou Shell sort en anglais est un algorithme de tri. C'est une amélioration notable du tri par insertion au niveau de la vitesse d'exécution mais ce tri n'est pas stable. Le principe de l'algorithme est simple mais l'étude du temps d'exécution est très complexe, et plusieurs problèmes sont toujours ouverts à ce sujet.

Le nom vient de son inventeur Donald Shell (en) (1924-2015) qui publia l'algorithme dans le numéro de juillet 1959 de Communications of the ACM.

Principe[modifier | modifier le code]

Amélioration du tri par insertion[modifier | modifier le code]

Le tri de Shell est une amélioration du tri par insertion en observant deux choses :

  • Le tri par insertion est efficace si la liste est à peu près triée (1) ;
  • Le tri par insertion est inefficace en moyenne car il ne déplace les valeurs que d'une position par instruction (2).

Le tri de Shell trie chaque liste d'éléments séparés de n positions chacun avec le tri par insertion. L'algorithme effectue plusieurs fois cette opération en diminuant n jusqu'à n=1 ce qui équivaut à trier tous les éléments ensemble.

Le fait de commencer avec des éléments espacés permet de pallier l'inconvénient (2), tandis que lorsque l'on fait à la fin avec un espacement de 1, ce qui est en fait un tri par insertion ordinaire, on tire parti de l'avantage (1).

Gap ou espacement entre les éléments[modifier | modifier le code]

Les premiers espacements optimaux (empiriquement trouvés) sont les suivants : 1, 4, 10, 23, 57, 132, 301, 701[1].

On remarque que le facteur entre ces valeurs, exception faite des deux premières, est d'environ 2,3. On peut effectivement prolonger cette liste avec ce facteur si les dimensions du tableau dépassent environ 1600 éléments. Par exemple pour trouver le premier gap en Pascal :

  gap := 701;
  while gap<length(liste) do gap := round(gap*2.3);

Puis à chaque itération, si on utilise un gap calculé :

  gap := round(gap/2.3);

Jusqu'à arriver à 701, où l'on reprend la liste des espacements optimaux évoquée plus haut.

Des espacements de la forme , dans l'ordre croissant, garantissent quant à eux la meilleure complexité théorique prouvée aujourd'hui, [2].

Complexité[modifier | modifier le code]

Sur des tableaux de moins d'une centaine d'éléments, ce tri est aussi rapide qu'un tri rapide simple. Mais plutôt que d'être en compétition avec l'algorithme quicksort, il peut être utilisé pour son optimisation quand les sous-listes à traiter deviennent petites.

Le choix de la suite des espacements entre les éléments qu'on trie à chaque étape (gap) est très important. Il peut faire varier la complexité dans le pire cas de à [2]. Il est également possible que la complexité en moyenne puisse être avec un bon choix d'espacements (problème ouvert).

Des bornes inférieures ont aussi été publiées, on peut citer une borne de sur la complexité dans le pire cas quels que soient les espacements[3].

Le tableau suivant compare les gaps publiés jusqu'à aujourd'hui :

OEIS Terme général (k ≥ 1) Gaps ou espacements concrets Complexité dans le pire des cas Auteur et année de publication
[i.e quand N = 2p] Donald Shell (en), 1959
Frank & Lazarus, 1960[4]
A168604 Thomas N. Hibbard (en), 1963[5]
A083318 , préficé avec 1 Papernov & Stasevich, 1965[6]
A003586 Nombres successifs de la forme (entier friable 3-lisse) Vaughan Ronald Pratt (en), 1971[2]
A003462 , plus petit que Vaughan Ronald Pratt (en), 1971[2]
A036569 Incerpi & Robert Sedgewick, 1985,[7] Knuth[8]
A036562 , préfixé par 1 Sedgewick, 1986[9]
A033622 Sedgewick, 1986[10]
Inconnue Gaston Gonnet (en) & Ricardo Baeza-Yates (en), 1991[11]
A108870 Inconnue Tokuda, 1992[12]
A102549 Inconnue (trouvé expérimentalement) Inconnue Ciura, 2001[13]

Notes et références[modifier | modifier le code]

  1. Marcin Ciura, « Best Increments for the Average Case of Shellsort », dans Proceedings of the 13th International Symposium on Fundamentals of Computation Theory, Springer, (ISBN 3540424873, lire en ligne), p. 106–117
  2. a b c et d Vaughan Pratt (en), Shellsort and sorting networks, Garland Pub, (ISBN 0824044061, OCLC 5008158, lire en ligne)
  3. C. Greg Plaxton, Bjarne Poonen et Torsten Suel, « Improved Lower Bounds for Shellsort », dans Annual Symposium on Foundations of Computer Science, vol. 33, (DOI 10.1109/SFCS.1992.267769), p. 226–235
  4. Frank R. M. et R. B. Lazarus, « A High-Speed Sorting Procedure », Communications of the ACM, vol. 3, no 1,‎ , p. 20–22 (DOI 10.1145/366947.366957)
  5. Thomas N. Hibbard, « An Empirical Study of Minimal Storage Sorting », Communications of the ACM, vol. 6, no 5,‎ , p. 206–213 (DOI 10.1145/366552.366557)
  6. A. A. Papernov et G. V. Stasevich, « A Method of Information Sorting in Computer Memories », Problems of Information Transmission, vol. 1, no 3,‎ , p. 63–75 (lire en ligne)
  7. Janet Incerpi et Robert Sedgewick, « Improved Upper Bounds on Shellsort », Journal of Computer and System Sciences, vol. 31, no 2,‎ , p. 210–224 (DOI 10.1016/0022-0000(85)90042-x)
  8. Donald E. Knuth, The Art of Computer Programming. Volume 3: Sorting and Searching, Addison-Wesley, , 83–95 p. (ISBN 0-201-89685-0), « Shell's method »
  9. Robert Sedgewick, Algorithms in C, vol. 1, Addison-Wesley, , 273–281 p. (ISBN 0-201-31452-5)
  10. Robert Sedgewick, « A New Upper Bound for Shellsort », Journal of Algorithms, vol. 7, no 2,‎ , p. 159–173 (DOI 10.1016/0196-6774(86)90001-5)
  11. Gaston H. Gonnet et Ricardo Baeza-Yates, Handbook of Algorithms and Data Structures: In Pascal and C, Addison-Wesley, , 161–163 p. (ISBN 0-201-41607-7), « Shellsort »
  12. Naoyuki Tokuda, Proceedings of the IFIP 12th World Computer Congress on Algorithms, Software, Architecture, Amsterdam, North-Holland Publishing Co., , 449–457 p. (ISBN 0-444-89747-X), « An Improved Shellsort »
  13. Marcin Ciura, Proceedings of the 13th International Symposium on Fundamentals of Computation Theory, London, Springer-Verlag, , 106–117 p. (ISBN 3-540-42487-3), « Best Increments for the Average Case of Shellsort »

Liens externes[modifier | modifier le code]

Sur les autres projets Wikimedia :