Élimination de Gauss-Jordan

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir pivot.

En mathématiques, l'élimination de Gauss-Jordan, aussi appelée méthode du pivot de Gauss, nommée en hommage à Carl Friedrich Gauss et Wilhelm Jordan, est un algorithme de l'algèbre linéaire pour déterminer les solutions d'un système d'équations linéaires, pour déterminer le rang d'une matrice ou pour calculer l'inverse d'une matrice (carrée) inversible. Lorsqu'on applique l'élimination de Gauss sur une matrice, on obtient sa forme échelonnée réduite.

Histoire[modifier | modifier le code]

Cette méthode doit son nom aux mathématiciens Carl Friedrich Gauss et Wilhelm Jordan, mais elle est connue des Chinois depuis au moins le Ier siècle de notre ère. Elle est référencée dans l'important livre chinois Jiuzhang suanshu ou Les Neuf Chapitres sur l'art mathématique, dont elle constitue le huitième chapitre, sous le titre « Fang cheng » (la disposition rectangulaire). La méthode est présentée au moyen de dix-huit exercices. Dans son commentaire daté de 263, Liu Hui en attribue la paternité à Chang Ts'ang, chancelier de l'empereur de Chine au IIe siècle avant notre ère.

Algorithme[modifier | modifier le code]

Opérations[modifier | modifier le code]

L'algorithme de Gauss-Jordan produit la forme échelonnée réduite d'une matrice à l'aide d'opérations élémentaires sur les lignes. Trois types d'opérations élémentaires sont utilisées:

  • Échange de deux lignes ;
  • Multiplication d'une ligne par un scalaire non nul ;
  • Ajout du multiple d'une ligne à une autre ligne.

Pseudocode[modifier | modifier le code]

Soit une matrice A de dimensions n × m;

L'algorithme de Gauss-Jordan est le suivant[1] :

  1. initialiser r à 0 (r est l'indice de ligne du dernier pivot trouvé)
  2. pour j variant de 1 à m (j décrit tous les indices de colonnes)
    1. chercher le maximum des modules des A[i,j], i variant de r+1 à n et soit k son indice de ligne
    2. si ce max est non nul alors
      1. augmenter r de 1
      2. échanger les lignes k et r
      3. diviser la ligne r par A[r,j] (de sorte que ce coefficient devient un pivot)
      4. pour i variant de 1 à n, i différent de r
        1. soustraire à la ligne i la ligne r multipliée par A[i,j] (de façon à annuler A[i,j])

La sortie de l'algorithme, soit la matrice A modifiée, représente la forme échelonnée réduite de la matrice A en entrée.

Exemple.

On part de la matrice

\mathrm{A} = \begin{pmatrix}
   2 & -1 & 0 \\
   -1 & 2 & -1 \\
   0 & -1 & 2
\end{pmatrix}

Il s'agit d'une matrice réelle, donc le module d'un coefficient est sa valeur absolue.

  • Première itération, j = 1 (et r = 0) :
    • étape 2.1 : on cherche dans la première colonne de la matrice la valeur maximale des valeurs absolues des coefficients. Elle vaut 2, située en (1, 1), de sorte que k = 1,
    • étape 2.2.1 : r = 1,
    • étape 2.2.2 : r = k, il n'y a pas d'échange,
    • étape 2.2.3 : on divise la ligne 1 par A(1, 1) = 2, soit \begin{pmatrix} 1 & -1/2 & 0 \end{pmatrix},
    • étape 2.2.4 :
      • ligne i = 2, on a A(2, 1) = -1 ; on calcule
        \begin{pmatrix} -1 & 2 & -1 \end{pmatrix} - (-1) \times \begin{pmatrix} 1 & -1/2 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 3/2 & -1 \end{pmatrix},
      • ligne i = 3, on a A(3, 1) = 0, la ligne n'est donc pas modifiée,
    • la matrice est alors
      \mathrm{A}' = \begin{pmatrix}
   1 & -1/2 & 0 \\
   0 & 3/2 & -1 \\
   0 & -1 & 2
\end{pmatrix} ;
  • deuxième itération, j = 2 (et r = 1) :
    • étape 2.1 : on cherche dans les lignes 2 à 3 de la deuxième colonne la valeur maximale en valeur absolue. Il s'agit de 3/2, situé en (2, 2),
    • étape 2.2.1 : r = 2,
    • étape 2.2.2 : r = k, il n'y a pas d'échange.
    • étape 2.2.3 : on divise la ligne 2 par A(2, 2) = 3/2, soit \begin{pmatrix} 0 & 1 & -2/3 \end{pmatrix},
    • étape 2.2.4 :
      • ligne i = 1, on a A(1, 2) = -1/2 ; on calcule
        \begin{pmatrix} 1 & -1/2 & 0 \end{pmatrix} - (-1/2) \times \begin{pmatrix} 0 & 1 & -2/3 \end{pmatrix} = \begin{pmatrix} 1 & 0 & -1/3 \end{pmatrix},
      • ligne i = 3, on a A(3, 2) = -1 ; on calcule
        \begin{pmatrix} 0 & -1 & 2 \end{pmatrix} - (-1) \times \begin{pmatrix} 0 & 1 & -2/3 \end{pmatrix} = \begin{pmatrix} 0 & 0 & 4/3 \end{pmatrix},
    • la matrice est alors
      \mathrm{A}'' = \begin{pmatrix}
   1 & 0 & -1/3 \\
   0 & 1 & -2/3 \\
   0 & 0 & 4/3
\end{pmatrix} ;
  • troisième itération, j = 2 (et r = 2) :
    • étape 2.1 : le pivot de la troisième colonne, troisième ligne est -4/3. Donc k = 3
    • étape 2.2.1 : r = k,
    • étape 2.2.2 : il n'y a aucune ligne à permuter,
    • étape 2.2.3 : on divise la ligne 3 par A(3, 2) = 4/3, elle est devient \begin{pmatrix} 0 & 0 & 1 \end{pmatrix}
    • étape 2.2.4 :
      • ligne i = 1, on a A(1, 3) = -1/3. La dernière étape annule ce coefficient.
      • ligne i = 2, on a A(2, 2) = -2/3. La dernière étape annule ce coefficient.
    • la matrice est alors
      \mathrm{A}''' = \begin{pmatrix}
   1 & 0 & 0 \\
   0 & 1 & 0 \\
   0 & 0 & 1
\end{pmatrix} qui est réduite échelonnée.

Stabilité numérique[modifier | modifier le code]

La première section de l'algorithme, soit l'échange de ligne avec la valeur de pivot la plus grande, a pour but d'améliorer la stabilité numérique de l'algorithme. Cette étape tente de minimiser les erreurs d'arrondis cumulatives causant de l'instabilité numérique. Cette stratégie permet en général de remédier à cette instabilité, même si on peut donner des contre-exemples[2]. La stabilité numérique de l'élimination de Gauss est optimale pour les systèmes d'équations sur un corps où les calculs sont par nature exacts, comme les corps finis.

Complexité algorithmique[modifier | modifier le code]

La complexité algorithmique asymptotique de l'élimination de Gauss est O(n3) (notations de Landau) : n×n c'est la taille de la matrice et le nombre d'instructions nécessaires est proportionnel à n3. Cet algorithme peut être utilisé sur un ordinateur pour des systèmes avec des milliers d'inconnues et d'équations[citation nécessaire]. Cependant, l'algorithme de Strassen, qui est en O(n2,807) a une meilleure complexité algorithmique asymptotique.

La complexité algorithmique du pivot de Gauss reste O(n3) quand la matrice est creuse. Effet, prenons une matrice n×n dont seulement k n entrées sont non nulles mais dans les entrées sont régulièrement réparties sur les lignes et les colonnes, alors au cours de l'algorithme du pivot de Gauss le nombre moyen de valeurs non nulles sur une ligne passera de k à 2k puis 3k jusqu'à n. On trouve donc que le nombre d'instructions est de l'ordre de n n (n-1)/2.

Calcul de l'inverse d'une matrice carrée[modifier | modifier le code]

L'élimination de Gauss-Jordan peut être utilisée pour inverser une matrice carrée, si elle est inversible. Pour cela, on crée une matrice à n lignes et 2n colonnes en bordant la matrice A par la matrice identité In., ce qui génère une matrice augmentée (en) notée [ A | I ]. Si la matrice d'entrée est inversible, appliquer l'algorithme de Gauss-Jordan sur la matrice augmentée la matrice finale sera de forme [ I | A−1 ] et contiendra l'inverse de la matrice initiale dans sa section de droite.

Exemple[modifier | modifier le code]

Admettons la matrice suivante:

 \mathrm{A} =
\left( \begin{array}{rrr}
2 & -1 & 0 \\
-1 & 2 & -1 \\
0 & -1 & 2
\end{array} \right)

Pour trouver l'inverse de cette matrice, il faut générer la matrice augmentée [ A | I ] comme suit:

 [ \mathrm{A} | \mathrm{I} ] = 
\left( \begin{array}{rrr|rrr}
2 & -1 & 0 & 1 & 0 & 0\\
-1 & 2 & -1 & 0 & 1 & 0\\
0 & -1 & 2 & 0 & 0 & 1
\end{array} \right)

En appliquant l'algorithme de Gauss-Jordan, on obtient la matrice augmentée sous sa forme échelonnée réduite suivante:

 [ \mathrm{I} | \mathrm{B} ] = 
\left( \begin{array}{rrr|rrr}
1 & 0 & 0 & \frac{3}{4} & \frac{1}{2} & \frac{1}{4}\\[3pt]
0 & 1 & 0 & \frac{1}{2} & 1 & \frac{1}{2}\\[3pt]
0 & 0 & 1 & \frac{1}{4} & \frac{1}{2} & \frac{3}{4}
\end{array} \right)

La section gauche de la matrice est la matrice identité, ce qui démontre que A est inversible. La section 3x3 de droite, soit la matrice B, est l'inverse de A.

Résolution d'un système d'équations linéaires[modifier | modifier le code]

L'élimination de Gauss-Jordan peut résoudre un système d'équations AX = B, où A est une matrice n × m de rang r, B est un vecteur fixé, et X le vecteur inconnu. On crée un tableau à n lignes et m + 1 colonnes en bordant la matrice A par le vecteur B. On réduit la matrice sous forme échelonnée réduite.

Si les pivots de la matrice échelonnée réduite associée à (A|B) sont situés uniquement dans les m premières colonnes (ce qui est toujours le cas si r = n ) et ont pour indice de colonnes k1, …, kr , alors la dernière colonne fournit une solution particulière, obtenu en prenant tous ses termes nuls sauf ceux situés à la ligne d'indice ki et à qui on donne la valeur du terme situé à la ligne i de la dernière colonne, i variant de 1 à r.

On obtient la solution générale du système en ajoutant à cette solution particulière un élément quelconque du noyau de A. Celle-ci s'obtient en donnant des valeurs quelconques aux coefficients de X situés à un indice de ligne autre que les ki, et en déterminant les coefficients situés aux lignes d'indice ki de façon à satisfaire le système (ce qui est facile compte tenu de la forme échelonnée de la matrice).

Si le dernier pivot de la matrice échelonnée réduite associée à (A|B) se situe dans la dernière colonne, alors il n'y a pas de solution.

Si la matrice A est carrée inversible (autrement dit, le système est de Cramer), alors on obtient dans la dernière colonne l'unique solution X du système.

Variante : dans l'algorithme précédent, si on se borne à obtenir une matrice échelonnée (non réduite), on obtient une matrice triangulaire supérieure. Il ne reste plus qu'à « remonter » pour retrouver les valeurs des coefficients de X.

Exemple 1[modifier | modifier le code]

Soit le système : 
\left\{\begin{array}{*{11}{c}} 
x_1  &+& 2x_2 &+& 2x_3 &-& 3x_4 &+& 2x_5 &=& 3 \\
2x_1 &+& 4x_2 &+& x_3  & &      &-& 5x_5 &=& -6 \\
4x_1 &+& 8x_2 &+& 5x_3 &-& 6x_4 &-& x_5  &=& 0 \\
-x_1 &-& 2x_2 &-& x_3  &+& x_4  &+& x_5  &=&1
\end{array}\right.

La matrice échelonnée réduite associée à 
\left(\begin{array}{ccccc|c} 
1  & 2  & 2  & -3 & 2  & 3 \\
2  & 4  & 1  & 0  & -5 & -6 \\
4  & 8  & 5  & -6 & -1 & 0 \\
-1 & -2 & -1 &  1 & 1  & 1
\end{array}\right)
est 
\left(\begin{array}{ccccc|c} 
1  & 2 & 0 & 1  & -4 & -5 \\
0  & 0 & 1 & -2 &  3 & 4 \\
0  & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0
\end{array}\right)
.

Les pivots sont situés aux colonnes d'indice 1 et 3. Une solution particulière, donnée par la dernière colonne, est 
\left(\begin{array} {ccc}
-5 \\
0 \\
4 \\
0 \\
0 
\end{array}\right)

Exemple 2[modifier | modifier le code]

Soit le système : 
\left\{\begin{array}{*{11}{c}} 
x_1  &+& 2x_2 &+& 2x_3 &-& 3x_4 &+& 2x_5 &=& 3 \\
2x_1 &+& 4x_2 &+& x_3  & &      &-& 5x_5 &=& -6 \\
4x_1 &+& 8x_2 &+& 5x_3 &-& 6x_4 &-& x_5  &=& 0 \\
-x_1 &-& 2x_2 &-& x_3  &+& x_4  &+& x_5  &=&2
\end{array}\right.

La matrice échelonnée réduite associée à 
\left(\begin{array}{ccccc|c} 
1  &  2 & 2  & -3 &  2 & 3 \\
2  &  4 & 1  & 0  & -5 & -6 \\
4  &  8 & 5  & -6 & -1 & 0 \\
-1 & -2 & -1 & 1  &  1 & 2
\end{array}\right)
est 
\left(\begin{array}{ccccc|c} 
1  & 2 & 0 & 1  & -4 & 0 \\
0  & 0 & 1 & -2 &  3 & 0 \\
0  & 0 & 0 & 0 & 0 & 1 \\
0 & 0 & 0 & 0 & 0 & 0
\end{array}\right)
.

Il n'y a pas de solution.

Exemple 3[modifier | modifier le code]

Soit le système d'équations suivant :


\left\{\begin{array}{*{7}{c}} 
x &-& y &+& 2z &=& 5 \\
3x &+& 2y &+&z &=& 10 \\
2x &-& 3y &-& 2z &=& -10 \\
\end{array}\right.

On établit la matrice correspondante et on applique la première étape de Gauss-Jordan, le pivot est 1 :


\left(\begin{array}{ccc|c}
(1) &  -1 & 2 &  5 \\
3 & 2 & 1 &  10 \\
2 & -3 & -2 & -10
\end{array}\right)

On ajoute un multiple de la première ligne aux deux autres lignes pour obtenir des zéros (respectivement \scriptstyle-3\times l_1 et \scriptstyle-2\times l_1) ; le nouveau pivot est ensuite 5 :


\left(\begin{array}{ccc|c}
1 &  -1 & 2 &  5 \\
0 & (5) & -5 &  -5 \\
0 & -1 & -6 & -20
\end{array}\right)

La deuxième ligne est multipliée par 1/5 :


\left(\begin{array}{ccc|c}
1 &  -1 & 2 &  5 \\
0 & (1) & -1 &  -1 \\
0 & -1 & -6 &   -20
\end{array}\right)

On ajoute cette deuxième ligne à la troisième et à la première, le nouveau pivot est -7 :


\left(\begin{array}{ccc|c}
1 &  0 & 1 &  4 \\
0 & 1 & -1 &  -1 \\
0 & 0 & (-7) &   -21
\end{array}\right)

On divise la 3e ligne par -7 :


\left(\begin{array}{ccc|c}
1 &  0 & 1 &  4 \\
0 & 1 & -1 &  -1 \\
0 & 0 & (1) &  3
\end{array}\right)

On utilise la 3e ligne pour éliminer des coefficients dans la première et deuxième ligne. Nous sommes alors en présence d'une forme échelonnée réduite avec la matrice identité d'un côté et la valeur des variables de l'autre :


\left(\begin{array}{ccc|c}
1 &  0 & 0 &  1 \\
0 & 1 & 0 &  2 \\
0 & 0 & 1 &   3
\end{array}\right)

La solution du système est ainsi :


\left\{\begin{array} {ccc}
x &=& 1 \\
y &=& 2 \\
z &=& 3 \\
\end{array}\right.

Déterminant[modifier | modifier le code]

Cette section doit être recyclée. Une réorganisation et une clarification du contenu sont nécessaires. Discutez des points à améliorer en page de discussion.

Cet algorithme permet également de calculer le déterminant d'une matrice : dans l'algorithme ci-dessus, c'est le produit des « \scriptstyle A_{i,k}^{k-1}\not=0 » qui sont choisis comme pivot à chaque itération. Si l'algorithme s'arrête parce qu'il n'y a plus de pivot non nul, alors la matrice n'est pas inversible, son déterminant est nul, mais on peut calculer son rang.

Le déterminant est aussi égal à

 \prod_{i \mathop =1}^{n}(a_{ii}^{n})^{i-n+1}.

Notes et références[modifier | modifier le code]

  1. Adapté de Robert A. Beezer, A First Course in Linear Algebra, University of Puget Sound, version 3.30, p. 30.
  2. Voir par exemple les commentaires de Patrick Lascaux et Raymond Théodor, Analyse numérique matricielle appliquée à l'art de l'ingénieur, tome 1 : Méthodes directes [détail des éditions], p. 228.

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Lien externe[modifier | modifier le code]

Méthode du pivot de Gauss sur math-linux.com