Élimination de Gauss-Jordan

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Pivot.

En mathématiques, plus précisément en algèbre linéaire, l'élimination de Gauss-Jordan, aussi appelée méthode du pivot de Gauss, nommée en hommage à Carl Friedrich Gauss et Wilhelm Jordan, est un algorithme pour déterminer les solutions d'un système d'équations linéaires, pour déterminer le rang d'une matrice ou pour calculer l'inverse d'une matrice (carrée) inversible. Lorsqu'on applique l'élimination de Gauss à une matrice, on obtient sa forme échelonnée réduite.

Histoire[modifier | modifier le code]

Cette méthode est connue des Chinois depuis au moins le Ier siècle de notre ère. Elle est référencée dans le livre chinois Jiuzhang suanshu (Les Neuf Chapitres sur l'art mathématique), dont elle constitue le huitième chapitre, sous le titre « Fang cheng » (la disposition rectangulaire). La méthode est présentée au moyen de dix-huit exercices. Dans son commentaire daté de 263, Liu Hui en attribue la paternité à Chang Ts'ang, chancelier de l'empereur de Chine au IIe siècle avant notre ère.

En Europe, cette méthode a été découverte et présentée sous forme moderne au XIXe siècle. En 1810, Carl Friedrich Gauss présente sa méthode des moindres carrés dans un livre étudiant le mouvement de l'astéroïde Pallas[1]. Dans l'article 13 de ce livre, il décrit une méthode générale de résolution de système d'équations linéaires qui constitue l'essentiel de la méthode du pivot. En 1888, Wilhelm Jordan publie un livre de géodésie précisant comment utiliser cette méthode et adoptant une notation un peu différente[2]. C'est grâce à ce dernier livre que cette méthode diffusa dans tout l'Occident[3]. Elle est aujourd'hui connue sous le nom d'élimination de Gauss-Jordan ou méthode du pivot de Gauss.

Algorithme[modifier | modifier le code]

Opérations[modifier | modifier le code]

L'algorithme de Gauss-Jordan produit la forme échelonnée réduite d'une matrice à l'aide d'opérations élémentaires sur les lignes. Trois types d'opérations élémentaires sont utilisées:

  • Échange de deux lignes ;
  • Multiplication d'une ligne par un scalaire non nul ;
  • Ajout du multiple d'une ligne à une autre ligne.

Pseudocode[modifier | modifier le code]

Soit une matrice A de dimensions n × m;

L'algorithme de Gauss-Jordan est le suivant[4] :

  Gauss-Jordan
     r = 0 (r est l'indice de ligne du dernier pivot trouvé)
     Pour j de 1 jusqu'à m (j décrit tous les indices de colonnes)
     |   Rechercher max(|A[i,j]|, r+1 ≤ i ≤ n). Noter k l'indice de ligne du maximum
     |   (A[k,j] est le pivot)
     |   Si A[k,j]≠0 alors
     |   |   r=r+1
     |   |   Diviser la ligne k par A[k,j]
     |   |   Échanger les lignes k et r
     |   |   Pour i de 1 jusqu'à n
     |   |   |   Si i≠r alors
     |   |   |   |   Soustraire à la ligne i la ligne r multipliée par A[i,j] (de façon à annuler A[i,j])
     |   |   |   Fin Si
     |   |   Fin Pour
     |   Fin Si
     Fin Pour
  Fin Gauss-Jordan


Exemple.

On part de la matrice

Il s'agit d'une matrice réelle, donc le module d'un coefficient est sa valeur absolue.

  • Première itération, j = 1 (et r = 0) :
    • étape 1.1 : on cherche dans la première colonne de la matrice la valeur maximale des valeurs absolues des coefficients. Elle vaut 2, située en (1, 1), de sorte que k = 1,
    • étape 1.2.1 : r = 1,
    • étape 1.2.2 : r = k, il n'y a pas d'échange,
    • étape 1.2.3 : on divise la ligne 1 par A(1, 1) = 2, soit ,
    • étape 1.2.4 :
      • ligne i = 2, on a A(2, 1) = -1 ; on calcule
        ,
      • ligne i = 3, on a A(3, 1) = 0, la ligne n'est donc pas modifiée,
    • la matrice est alors
       ;
  • deuxième itération, j = 2 (et r = 1) :
    • étape 2.1 : on cherche dans les lignes 2 à 3 de la deuxième colonne la valeur maximale en valeur absolue. Il s'agit de 3/2, situé en (2, 2),
    • étape 2.2.1 : r = 2,
    • étape 2.2.2 : r = k, il n'y a pas d'échange.
    • étape 2.2.3 : on divise la ligne 2 par A(2, 2) = 3/2, soit ,
    • étape 2.2.4 :
      • ligne i = 1, on a A(1, 2) = -1/2 ; on calcule
        ,
      • ligne i = 3, on a A(3, 2) = -1 ; on calcule
        ,
    • la matrice est alors
       ;
  • troisième itération, j = 2 (et r = 2) :
    • étape 3.1 : le pivot de la troisième colonne, troisième ligne est 4/3. Donc k = 3
    • étape 3.2.1 : r = k,
    • étape 3.2.2 : il n'y a aucune ligne à permuter,
    • étape 3.2.3 : on divise la ligne 3 par A(3, 2) = 4/3, elle devient
    • étape 3.2.4 :
      • ligne i = 1, on a A(1, 3) = -1/3. La dernière étape annule ce coefficient.
      • ligne i = 2, on a A(2, 2) = -2/3. La dernière étape annule ce coefficient.
    • la matrice est alors
      qui est réduite échelonnée.

Stabilité numérique[modifier | modifier le code]

La première section de l'algorithme, soit l'échange de ligne avec la valeur de pivot la plus grande, a pour but d'améliorer la stabilité numérique de l'algorithme. Cette étape tente de minimiser les erreurs d'arrondis cumulatives causant de l'instabilité numérique. Cette stratégie permet en général de remédier à cette instabilité, même si on peut donner des contre-exemples[5]. La stabilité numérique de l'élimination de Gauss est optimale pour les systèmes d'équations sur un corps où les calculs sont par nature exacts, comme les corps finis.

Complexité algorithmique[modifier | modifier le code]

La complexité algorithmique asymptotique de l'élimination de Gauss est O(n3) (notations de Landau) : n×n c'est la taille de la matrice et le nombre d'instructions nécessaires est proportionnel à n3. Cet algorithme peut être utilisé sur un ordinateur pour des systèmes avec des milliers d'inconnues et d'équations[citation nécessaire]. Cependant, l'algorithme de Strassen, qui est en O(n2,807) a une meilleure complexité algorithmique asymptotique.

La complexité algorithmique du pivot de Gauss reste O(n3) quand la matrice est creuse. En effet, prenons une matrice n×n dont seulement k n entrées sont non nulles mais dans les entrées sont régulièrement réparties sur les lignes et les colonnes, alors au cours de l'algorithme du pivot de Gauss le nombre moyen de valeurs non nulles sur une ligne passera de k à 2k puis 3k jusqu'à n. On trouve donc que le nombre d'instructions est de l'ordre de n n (n-1)/2.

Calcul de l'inverse d'une matrice carrée[modifier | modifier le code]

L'élimination de Gauss-Jordan peut être utilisée pour inverser une matrice carrée si celle-ci est inversible. Pour cela, on crée une matrice à n lignes et 2n colonnes en bordant la matrice A par la matrice identité In, ce qui génère une matrice augmentée (en) notée [ A | I ]. Si la matrice d'entrée est inversible, on applique l'algorithme de Gauss-Jordan à la matrice augmentée. La matrice finale est de la forme [ I | A−1 ] et contient l'inverse de la matrice initiale dans sa section de droite.

Exemple[modifier | modifier le code]

Admettons la matrice suivante:

Pour trouver l'inverse de cette matrice, il faut générer la matrice augmentée [ A | I ] comme suit:

En appliquant l'algorithme de Gauss-Jordan, on obtient la matrice augmentée sous sa forme échelonnée réduite suivante:

La section gauche de la matrice est la matrice identité, ce qui démontre que A est inversible. La section 3x3 de droite, soit la matrice B, est l'inverse de A.

Cas général[modifier | modifier le code]

Effectuer une opération élémentaire O sur les n lignes d'une matrice revient à la multiplier à gauche par la matrice élémentaire (inversible) Gs := O(In).

En notant O1, …, Os les opérations élémentaires que l'on effectue sur A, et Gs = Os(In) les matrices élémentaires associées, on aboutit donc, dans la section de gauche, à la matrice

et dans celle de droite, à la matrice

Ainsi, B est inversible et BA = In, donc B−1 = A et A−1 = B.

Résolution d'un système d'équations linéaires[modifier | modifier le code]

L'élimination de Gauss-Jordan peut résoudre un système d'équations AX = B, où A est une matrice n × m de rang r, B est un vecteur fixé, et X le vecteur inconnu. On crée un tableau à n lignes et m + 1 colonnes en bordant la matrice A par le vecteur B. On réduit la matrice sous forme échelonnée réduite.

Si les pivots de la matrice échelonnée réduite associée à (A|B) sont situés uniquement dans les m premières colonnes (ce qui est toujours le cas si r = n ) et ont pour indice de colonnes k1, …, kr , alors la dernière colonne fournit une solution particulière, obtenue en prenant tous ses termes nuls sauf ceux situés à la ligne d'indice ki et à qui on donne la valeur du terme situé à la ligne i de la dernière colonne, i variant de 1 à r.

On obtient la solution générale du système en ajoutant à cette solution particulière un élément quelconque du noyau de A. Celle-ci s'obtient en donnant des valeurs quelconques aux coefficients de X situés à un indice de ligne autre que les ki, et en déterminant les coefficients situés aux lignes d'indice ki de façon à satisfaire le système (ce qui est facile compte tenu de la forme échelonnée de la matrice).

Si le dernier pivot de la matrice échelonnée réduite associée à (A|B) se situe dans la dernière colonne, alors il n'y a pas de solution.

Si la matrice A est carrée inversible (autrement dit, le système est de Cramer), alors on obtient dans la dernière colonne l'unique solution X du système.

Variante : dans l'algorithme précédent, si on se borne à obtenir une matrice échelonnée (non réduite), on obtient une matrice triangulaire supérieure. Il ne reste plus qu'à « remonter » pour retrouver les valeurs des coefficients de X.

Exemple 1 (détaillé)[modifier | modifier le code]

Soit le système d'équations linéaires :

On établit la matrice correspondante :

On commence par la colonne 1. Le pivot est le maximum en valeur absolue entre 1, 3 et 2, soit 3 :

Comme ce pivot n'est pas nul, on divise la ligne où il se trouve (c'est-à-dire la ligne 2) par le pivot :

On échange les lignes 1 et 2 :

On analyse maintenant les lignes autres que celle du pivot. Ligne 2, on a A(2, 1) = 1. On calcule

Ligne 3, on a A(3, 1) = 2. On calcule

On remplace les lignes 2 et 3 ainsi calculées :

On passe à la colonne 2. Le pivot est le maximum en valeur absolue entre et , soit  :

Comme ce pivot n'est pas nul, on divise la ligne où il se trouve (c'est-à-dire la ligne 3) par le pivot :

On échange les lignes 2 et 3 :

On analyse maintenant les lignes autres que celle du pivot. Ligne 1, on a A(1, 2) = . On calcule

Ligne 3, on a A(3, 2) = . On calcule

On remplace les lignes 1 et 3 ainsi calculées :

On passe à la colonne 3. Le pivot est  :

Comme ce pivot n'est pas nul, on divise la ligne où il se trouve (c'est-à-dire la ligne 3) par le pivot :

Comme ce pivot est déjà ligne 3, on n'a pas besoin d'échanger de lignes.

On analyse maintenant les lignes autres que celle du pivot. Ligne 1, on a A(1, 3) = . On calcule

Ligne 2, on a A(2, 3) = . On calcule

On remplace les lignes 1 et 2 ainsi calculées :

Toutes les colonnes à gauche de la part verticale ont été traitées. Nous sommes en présence d'une matrice échelonnée réduite, avec la matrice identité d'un côté et la valeur des variables de l'autre. La solution du système d'équations est donc :

Exemple 2[modifier | modifier le code]

Soit le système d'équations linéaires :

La matrice échelonnée réduite associée à est .

Les pivots sont situés aux colonnes d'indice 1 et 3. Une solution particulière, donnée par la dernière colonne, est

Exemple 3[modifier | modifier le code]

Soit le système d'équations linéaires :

La matrice échelonnée réduite associée à est .

Il n'y a pas de solution.

Déterminant[modifier | modifier le code]

Ce modèle est-il pertinent ? Cliquez pour en voir d'autres.
Recycle002.svg
Cette section doit être recyclée (novembre 2014).  
Une réorganisation et une clarification du contenu sont nécessaires. Discutez des points à améliorer en page de discussion.

Cet algorithme permet également de calculer le déterminant d'une matrice :

avec p, le nombre de permutations de lignes et , le pivot noté à l'étape j de l'algorithme.

Si l'un des pivots est nul alors le déterminant de la matrice est nul et celle-ci n'est pas inversible.

Exemple

On part de la matrice

Il s'agit d'une matrice réelle, donc le module d'un coefficient est sa valeur absolue.

On recherche le pivot dans la colonne 1 :

On divise la ligne 1 par 2 de sorte que l'on obtient un 1 sur la diagonale :

On modifie les lignes 2 et 3 par combinaisons linéaires avec la ligne 1 de sorte que l'on obtient des zéros dans la première colonne (hors diagonale) :

On recherche le pivot dans la colonne 2 :

On échange les lignes 2 et 3 :

On divise la ligne 2 par (3/2) de sorte que l'on obtient 1 sur la diagonale :

On modifie les lignes 1 et 3 par combinaisons linéaires avec la ligne 2 de sorte que l'on obtient des zéros dans la deuxième colonne (hors diagonale) :

On recherche le pivot dans la colonne 3 :

On divise la ligne 3 par (4/3) de sorte que l'on obtient 1 sur la diagonale :

On modifie les lignes 1 et 2 par combinaisons linéaires avec la ligne 3 de sorte que l'on obtient des zéros dans la troisième colonne (hors diagonale), la matrice est alors :

qui est réduite échelonnée.

Le déterminant de la matrice vaut donc .

Notes[modifier | modifier le code]

  1. Gauss 1810.
  2. Jordan 1888.
  3. Althoen et McLaughlin 1987.
  4. Adapté de Beezer 2014, p. 30.
  5. Voir par exemple les commentaires de Patrick Lascaux et Raymond Théodor, Analyse numérique matricielle appliquée à l'art de l'ingénieur, tome 1 : Méthodes directes [détail des éditions], p. 228.

Références[modifier | modifier le code]

  • Steven C. Althoen et Renate McLaughlin, « Gauss-Jordan Reduction: A Brief History », Amer. Math. Month., vol. 94,‎ , p. 130-142.
  • Robert A. Beezer, A First Course in Linear Algebra, University of Puget Sound, (lire en ligne).
  • Carl Friedrich Gauss, Disquisitio de elementis ellipticis Palladis, .
  • Wilhelm Jordan, Handbuch der Vermessungskunde, vol. 1, Metzler, .
  • Joseph-Louis Lagrange, Mélanges de Turin, .

Articles connexes[modifier | modifier le code]

Lien externe[modifier | modifier le code]

Méthode du pivot de Gauss sur math-linux.com