Algorithme de tri

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Ne doit pas être confondu avec tri topologique.

Un algorithme de tri est, en informatique ou en mathématiques, un algorithme qui permet d'organiser une collection d'objets selon une relation d'ordre déterminée. Les objets à trier sont des éléments d'un ensemble muni d'un ordre total. Il est par exemple fréquent de trier des entiers selon la relation d'ordre usuelle « est inférieur ou égal à ». Les algorithmes de tri sont utilisés dans de très nombreuses situations. Ils sont en particulier utiles à de nombreux algorithmes plus complexes dont certains algorithmes de recherche, comme la recherche par dichotomie. Ils peuvent également servir pour mettre des données sous forme canonique ou les rendre plus lisibles pour l'utilisateur.

La collection à trier est souvent donnée sous forme de tableau, afin de permettre l'accès direct aux différents éléments de la collection, ou sous forme de liste, ce qui peut se révéler être plus adapté à certains algorithmes et à l'usage de la programmation fonctionnelle.

Bon nombre d'algorithmes de tri procèdent par comparaisons successives, et peuvent donc être définis indépendamment de l'ensemble auquel appartiennent les éléments et de la relation d’ordre associée. Un même algorithme peut par exemple être utilisé pour trier des réels selon la relation d'ordre usuelle « est inférieur ou égal à » et des chaînes de caractères selon l'ordre lexicographique. Ces algorithmes se prêtent naturellement à une implémentation polymorphe.

Les algorithmes de tri sont souvent étudiés dans les cours d'algorithmique pour introduire des notions comme la complexité algorithmique ou la terminaison.

Critères de classification[modifier | modifier le code]

La classification des algorithmes de tri est très importante, car elle permet de choisir l’algorithme le plus adapté au problème traité, tout en tenant compte des contraintes imposées par celui-ci. Les principales caractéristiques qui permettent de différencier les algorithmes de tri, outre leur principe de fonctionnement, sont la complexité temporelle, la complexité spatiale et le caractère stable.

Principe de fonctionnement[modifier | modifier le code]

On distingue les algorithmes procédant par comparaisons successives entre éléments, dits « tris par comparaisons », des algorithmes plus spécialisés faisant des hypothèses restrictives sur la structure des données à trier (par exemple, le tri par comptage, applicable uniquement si les données sont prises dans un ensemble borné connu à l'avance).

Les algorithmes de tri par comparaison lisent les entrées uniquement au moyen d'une fonction de comparaison binaire ou ternaire (lorsque le cas d'égalité est traité différemment). Il existe encore différents principes de fonctionnement au sein de cette classe : certains algorithmes de tri par comparaison procèdent par insertions successives, d'autres par fusions, d'autres encore par sélection.

En l'absence de précisions, on entend habituellement par « algorithme de tri » un algorithme de tri procédant par comparaisons.

Complexité algorithmique[modifier | modifier le code]

  • La complexité temporelle (en moyenne ou dans le pire des cas) mesure le nombre d'opérations élémentaires effectuées pour trier une collection d'éléments. C'est un critère majeur pour comparer les algorithmes de tri, puisque c'est une estimation directe du temps d'exécution de l'algorithme. Dans le cas des algorithmes de tri par comparaison, la complexité en temps est le plus souvent assimilable au nombre de comparaisons effectuées, la comparaison et l'échange éventuel de deux valeurs s'effectuant en temps constant.
  • La complexité spatiale (en moyenne ou dans le pire des cas) représente, quant à elle, la quantité de mémoire dont va avoir besoin l'algorithme pour s'exécuter. Celle-ci peut dépendre, comme le temps d'exécution, de la taille de l'entrée. Il est fréquent que les complexités spatiales en moyenne et dans le pire des cas soient identiques. C'est souvent implicitement le cas lorsqu’une complexité est donnée sans indication supplémentaire.

La complexité en temps est souvent notée T et exprimée comme une fonction du nombre n d'éléments à trier à l'aide des notations de Landau O et \Theta.

Certains algorithmes de tri simples ont une complexité en temps quadratique, i.e. T(n) = O(n^2), tandis que d'autres, plus élaborés, ont une complexité quasi-linéaire : T(n) = O(n\log(n)).

La complexité temporelle en moyenne d’un algorithme basé sur une fonction de comparaison ne peut pas être meilleure que O(n\log(n)). Les tris qui ne demandent que O(n\log(n)) comparaisons en moyenne sont par conséquent dits optimaux. Ce résultat constitue une borne inférieure asymptotique, mais on montre également que le nombre exact de comparaisons nécessaires est minoré par \lceil\log_2(n!)\rceil.

Pour certains types de données (entiers, chaînes de caractères de taille bornée), il existe cependant des algorithmes plus efficaces au niveau du temps d'exécution, comme le tri comptage ou le tri par base. Ces algorithmes n'utilisent pas la comparaison entre éléments (la borne n·log(n) ne s'applique donc pas pour eux) mais nécessitent des hypothèses sur les objets à trier. Par exemple, le tri comptage et le tri par base s'appliquent à des entiers que l'on sait appartenir à l'ensemble [1, m] avec comme hypothèse supplémentaire pour le tri par base que m soit une puissance de 2 (c’est-à-dire de la forme 2k).

Caractère en place[modifier | modifier le code]

Un algorithme est dit en place s'il n'utilise qu'un nombre très limité de variables et qu’il modifie directement la structure qu’il est en train de trier. Ceci nécessite l’utilisation d'une structure de donnée adaptée (un tableau par exemple). Ce caractère peut être très important si on ne dispose pas d'une grande quantité de mémoire utilisable.

Remarquons toutefois qu'en général, on ne trie pas directement les données elles-mêmes, mais seulement des références (ou pointeurs) sur ces dernières.

Caractère stable[modifier | modifier le code]

Un algorithme est dit stable s'il garde l'ordre relatif des éléments égaux pour la relation d'ordre considérée, c'est-à-dire l'ordre de ces éléments avant l'exécution de l'algorithme. Pour définir cette notion, il est nécessaire que la collection à trier soit ordonnée d'une certaine manière en entrée (ce qui est souvent implicitement le cas par la structure de données utilisée, par exemple lorsque l'entrée est fournie sous forme de liste ou de tableau).

Exemple  :

Definissons la relation d'ordre \preccurlyeq définie sur les couples d'entiers par (a,b)\preccurlyeq(c,d) ssi a\leq c, qui permet de trier deux couples selon leur première valeur.

Soit L = [ (4, 1) ; (3, 2) ; (3, 3) ; (5, 4) ] une liste de couples d'entiers que l'on souhaite trier selon la relation \preccurlyeq préalablement définie.

Puisque (3,2) et (3,3) sont égaux pour la relation \preccurlyeq, appeler un algorithme de tri avec L en entrée peut mener à deux sorties différentes :

  • L_1 = [ (3, 2) ; (3, 3) ; (4, 1) ; (5, 4) ]
  • L_2 = [ (3, 3) ; (3, 2) ; (4, 1) ; (5, 4) ]

L_1 et L_2 sont toutes les deux triées selon \preccurlyeq, mais seule L_1 conserve l'ordre relatif. Dans L_2, (3,3) apparaît avant (3,2), d'où un algorithme de tri qui aurait pris L en entrée et renvoyé L_2 en sortie serait instable.

Les algorithmes de tri instables peuvent être retravaillés spécifiquement afin de les rendre stables, cependant cela peut être aux dépens de la rapidité et/ou peut nécessiter un espace mémoire supplémentaire.

Parmi les algorithmes listés plus bas, les tris étant stables sont : le tri à bulles, le tri par insertion et le tri fusion. Les autres algorithmes nécessitent O(n) mémoire supplémentaire pour stocker l'ordre initial des éléments.

Tri interne et externe[modifier | modifier le code]

Un tri interne s'effectue entièrement en mémoire centrale tandis qu'un tri externe utilise des fichiers sur une mémoire de masse pour trier des volumes trop importants pour pouvoir tenir en mémoire centrale[1]. Certains types de tris, comme le tri fusion ou les tris par distribution, s'adaptent facilement à l'utilisation de mémoire externe. D'autres algorithmes, à l'inverse, accèdent aux données de telle sorte qu'ils ne se prêtent pas à cet usage car cela nécessiterait d'effectuer constamment des lectures/écritures entre les mémoires principale et externe.

Tri parallèle[modifier | modifier le code]

Certains algorithmes permettent d'exploiter les capacités multitâches de la machine[2]. Notons également que certains algorithmes, notamment ceux qui fonctionnent par insertion, peuvent être lancés sans connaître l'intégralité des données à trier ; on peut alors trier et produire les données à trier en parallèle.

Comparaison des algorithmes[modifier | modifier le code]

Le tableau ci-dessous permet de comparer différents algorithmes de tri procédant par comparaisons. n y représente le nombre d'éléments à trier. Toutes les complexités doivent être interprétées à l'aide d'un grand O de Landeau. Il est supposé que les opérations élémentaires comme les comparaisons et les échanges peuvent être effectués en temps constant.

Tableau comparatif des tris procédant par comparaisons
Nom Cas optimal Cas moyen Pire des cas Complexité spatiale Stable
Tri rapide n \log n n \log n n^2 \log n en moyenne, n dans le pire des cas ;
variante de Sedgewick : \log n dans le pire des cas
Non
Tri fusion n \log n n \log n n \log n n Oui
Tri par tas n \log n n \log n n \log n 1 Non
Tri par insertion n n^2 n^2 1 Oui
Introsort n \log n n \log n n \log n \log n Non
Tri par sélection n^2 n^2 n^2 1 Non
Timsort n n \log n n \log n n Oui
Shell sort n n \log^2 n
ou
n^{3/2}
n \log^2 npour la meilleure
suite d'espacements connue
1 Non
Tri à bulles n n^2 n^2 1 Oui
Tri arborescent n \log n n \log n n \log n (arbre équilibré) n Oui
Smoothsort n n \log n n \log n 1 Non
Tri cocktail n n^2 n^2 1 Oui
Tri à peigne n n \log n n^2 1 Non
Tri pair-impair n n^2 n^2 1 Oui

Exemples d'algorithmes de tri[modifier | modifier le code]

Tris par comparaison[modifier | modifier le code]

Algorithmes lents[modifier | modifier le code]

Ces algorithmes ont une complexité asymptotique en O(n^2) et sont par conséquent considérés comme lents pour des entrées dont la taille est de plus de quelques dizaines d'éléments.

  • Tri par sélectionT(n) = O(n^2) dans tous les cas ; sur place ; instable par défaut (peut être rendu stable, mais de préférence en travaillant sur des listes).
    Il s'agit, à chaque itération, d'identifier le plus petit des éléments qui ne sont pas encore triés, et de l'échanger avec le premier de ceux-ci. Ce tri est rapide pour des petites entrées, et se code de manière concise.
  • Tri par insertionT(n) = O(n^2) en moyenne et dans le pire des cas, T(n)=O(n) dans le meilleur des cas ; stable et en place.
    C'est le tri souvent utilisé naturellement pour trier des cartes à jouer : les valeurs sont insérées les unes après les autres dans une liste triée (initialement vide). C'est souvent le plus rapide et le plus utilisé pour trier des entrées de petite taille. Il est également efficace pour des entrées déjà presque triées.
  • Tri à bullesT(n) = O(n^2) en moyenne et dans le pire des cas, T(n)=O(n) dans le meilleur des cas ; stable et en place.
    L'algorithme consiste à parcourir l'entrée du début à la fin et, pour chaque couple d'éléments consécutifs, à les intervertir s'ils sont mal ordonnés. Cette opération est répétée jusqu'à ce que la structure soit triée (aucune interversion lors du dernier passage). Cet algorithme est peu efficace et rarement utilisé en pratique ; son intérêt est principalement pédagogique.
  • Tri cocktailT(n) = O(n^2) en moyenne et dans le pire des cas, T(n)=O(n) dans le meilleur des cas ; stable et en place.
    Il s'agit d'une variante du tri à bulles dans laquelle l'entrée est alternativement parcourue dans les deux sens. S'il permet de traiter de manière plus efficace quelques cas problèmatiques pour le tri à bulles, il reste essentiellement similaire à ce dernier et l'intérêt est encore une fois principalement pédagogique.
  • Tri pair-impairT(n) = O(n^2) en moyenne et dans le pire des cas, T(n)=O(n) dans le meilleur des cas ; stable et en place.
    Il s'agit d'une variante du tri à bulles, qui procède en comparant successivement tous les éléments d'index pairs avec les éléments d'index impairs qui les suivent, puis inversement. On va ainsi commencer en comparant le premier élément au second, le troisième au quatrième, etc., puis l'on comparera le second élément au troisième, le quatrième au cinquième etc. L'opération est répétée jusqu'à ce que la structure soit triée.
  • Tri stupide − Ne termine pas dans le pire des cas, T(n) = O(n!) en moyenne et T(n)=O(n) dans le meilleur des cas ; instable mais en place.
    Ce tri consiste à permuter aléatoirement les éléments tant qu'ils ne sont pas triés.

Algorithmes plus rapides[modifier | modifier le code]

  • Tri de Shell (shell sort) − T(n)=O(n \log^2n) pour la série de pas 2^p3^q et T(n)=O(n^{3/2}) pour la série de pas 2^k-1 ; instable ; en place.
    Ce tri repose sur le tri par insertion des sous-suites de l'entrée obtenues en prenant les éléments espacés d'un pas constant, pour une suite de pas prédéfinie. La complexité varie selon le choix de cette suite. On ne connaît pas de série donnant O(n \log n).
  • Tri fusion (merge sort) − T(n)=O(n \log n) dans tous les cas ; stable ; pas en place par défaut[3].
    Cet algorithme repose sur le principe « diviser pour régner ». Pour une entrée donnée, l'algorithme la divise en deux parties de tailles similaires, trie chacune d'entre elles en utilisant le même algorithme, puis fusionne les deux parties triées. Il se prête aussi bien à des implémentations sur listes que sur tableaux. Il est utilisé en particulier par l'algorithme hybride Timsort.
  • Tri rapide (quicksort) − T(n)=O(n \log n) en moyenne et dans le meilleur des cas, T(n)=O(n^2) dans le pire des cas ; instable ; en place dans la variante de Sedgewick.
    Cette méthode repose sur le principe « diviser pour régner ». Une valeur est choisie comme pivot et les éléments plus petits que le pivot sont dissociés, par échanges successifs, des éléments plus grands que le pivot ; chacun de ces deux sous-ensembles est ensuite trié de la même manière. On peut rendre la complexité quasiment indépendante des données en utilisant un pivot aléatoire ou en appliquant au tableau une permutation aléatoire avant de le trier.
  • Tri par tas (heap sort) − T(n)=O(n \log n) dans tous les cas ; en place mais instable.
    Il s'agit d'une amélioration du tri par sélection. L'idée est la même (insérer les éléments un à un dans une structure déjà triée), mais l'algorithme utilise une structure de tas, souvent implémentée au moyen d'un tableau. Il est intéressant d'utiliser ce tri si l'on soupçonne que les données à trier seront souvent des cas quadratiques pour le tri rapide.
  • IntrosortT(n)=O(n \log n) dans tous les cas ; instable mais en place.
    Il s'agit d'un algorithme hybride utilisant les algorithmes de tri rapide et de tri par tas.
  • Tri arborescentT(n)=O(n \log n) en moyenne, T(n)=O(n^2) dans le pire des cas, T(n)=O(n) dans le meilleur des cas. ; ni stable ni en place.
    L'idée est d'insérer les éléments un à un dans un arbre binaire de recherche, puis de lire l'arbre selon un parcours en profondeur. Ce tri est un des plus lents (parmi les tris rapides) et un des plus gourmands en mémoire à cause de la structure d'arbre binaire à manipuler. Il est possible de le rendre quasi-linéaire dans tous les cas en maintenant un arbre équilibré (c.f. Arbre AVL).
  • SmoothsortT(n)=O(n \log n) en moyenne et dans le pire des cas, T(n)=O(n) dans le meilleur des cas ; en place mais instable.
    Tri inspiré du tri par tas, mais qui utilise un arbre non inversé. Ce tri est très rapide pour les ensembles déjà presque triés.
  • Tri à peigne (comb sort) − T(n)=O(n) dans le meilleur des cas, T(n)=O(n \log n) en moyenne et T(n)=O(n^2) dans le pire des cas ; instable mais en place.
    Il s'agit d'une variante plus efficace du tri à bulles, ne comparant pas uniquement des éléments consécutifs. On peut dire qu'il est au tri à bulles ce que le tri de Shell est au tri par insertion.

Pour un algorithme de tri donné instable, il est facile d'en obtenir une variante stable en utilisant un tableau supplémentaire pour mémoriser l'ordre initial des éléments. L'algorithme obtenu n'est toutefois pas en place.

Tris utilisant la structure des données[modifier | modifier le code]

  • Tri comptage ou tri par dénombrement (counting sort) : Algorithme linéaire, T(n) = O(n), stable mais nécessite l'utilisation d'une seconde liste de même longueur que la liste à trier. Son utilisation relève de la condition que les valeurs à trier sont des entiers naturels dont on connaît les extrema ;
  • Tri par base (radix sort) : c'est aussi un tri linéaire dans certaines conditions (moins restrictives que pour le tri par comptage), T(n) = O(n), stable mais nécessite aussi l'utilisation d'une seconde liste de même longueur que la liste à trier ;
  • Tri par paquets (bucket sort) : Stable et en complexité linéaire -- T(n) = O(n), part de l'hypothèse que les données à trier sont réparties de manière uniforme sur un intervalle réel [a, b[.

Tris externes[modifier | modifier le code]

Article détaillé : algorithme de tri externe.

Les algorithmes de tri doivent aussi être adaptés en fonction des configurations informatiques sur lesquels ils sont utilisés. Dans les exemples cités plus haut, on suppose que toutes les données sont présentes en mémoire centrale (ou accessibles en mémoire virtuelle). La situation se complexifie si l'on veut trier des volumes de données supérieurs à la mémoire centrale disponible (ou si l'on cherche à améliorer le tri en optimisant l'utilisation de la hiérarchie de mémoire).

Ces algorithmes sont souvent basés sur une approche assez voisine de celle du tri fusion. Le principe est le suivant :

  • découpage du volume de données à trier en sous-ensembles de taille inférieure à la mémoire rapide disponible ;
  • tri de chaque sous-ensemble en mémoire centrale pour former des « monotonies » (sous-ensembles triés) ;
  • interclassement des monotonies.

Choix empirique d'un algorithme de tri[modifier | modifier le code]

Beaucoup d'algorithmes existent, mais certains sont bien plus utilisés que d'autres en pratique. Le tri par insertion est souvent plébiscité pour des données de petite taille, tandis que des algorithmes asymptotiquement efficaces, comme le tri fusion, le tri par tas ou quicksort, seront utilisés pour des données de plus grande taille.

Il existe des implémentations finement optimisées, qui sont souvent des algorithmes hybrides. Timsort utilise ainsi à la fois les méthodes de tri fusion et de tri par insertion, et est utilisé entre autres par Android, Java et Python ; Introsort, qui combine quicksort et tri par tas, est utilisé dans certaines implémentations du tri C++.

La comparaison empirique d'algorithmes n'est pas aisée dans la mesure ou beaucoup de paramètres entrent en compte : taille de données, ordre des données, matériel utilisé, taille de la mémoire vive, etc. Par exemple, les essais effectués sur des données tirées aléatoirement ne représentent pas forcément très fidèlement les comportements obtenus avec des données réelles.

Accès à la mémoire vive[modifier | modifier le code]

Afin de comparer différents algorithmes, il est important de prendre en compte la taille des données à trier ainsi que la quantité de mémoire vive disponible. Lorsqu'il n'y a plus assez de mémoire vive pour stocker les données, l'ordinateur aura recours à l'usage de mémoire externe, ce qui résulte en des temps d'accès nettement plus longs.

Dans cette situation, les algorithmes qui travaillent successivement sur des parties de plus petites tailles de l'entrée (qui seront par exemple fusionnées par la suite) auront tendance à mieux fonctionner que des algorithmes comme quicksort qui effectueront plus d'accès à la mémoire externe.

Il est également possible d'éviter de telles situations, par exemple en associant aux données à trier des clés plus petites, et en triant directement ces clés en mémoire vive. Lorsque la taille des données est vraiment conséquente, un algorithme de tri externe sera utilisé afin de minimiser le nombre d'accès à la mémoire externe.

Problèmes liés[modifier | modifier le code]

Parmi les problèmes proches du tri, on peut mentionner le tri partiel (en), qui consiste, pour k fixé, à trier les k plus petits éléments, ou le problème de sélection, qui consiste à trouver le k-ième plus petit élément de l'entrée. Bien que trier l'entrée en intégralité permette de résoudre ces problèmes, il existe des solutions plus subtiles et moins couteuses. C'est le cas par exemple de quickselect, qui possède de similitudes avec le tri rapide.

À l'inverse, on peut chercher à construire des algorithmes qui mélangent de manière aléatoire l'entrée qui leur est donnée ; c'est le cas par exemple du mélange de Fisher-Yates.

Annexes[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. http://www.site.uottawa.ca/~kiringa/courses10/csi3530/ch13_extsort_csi3530-10.ppt
  2. http://www.umiacs.umd.edu/research/EXPAR/papers/3670.html
  3. On peut faire du tri fusion un tri en place et toujours en O(n \log n), mais l'algorithme effectue plus de copies et est plus compliqué à programmer

Bibliographie[modifier | modifier le code]

Liens externes[modifier | modifier le code]