Matrice à diagonale dominante

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En algèbre linéaire, une matrice carrée à coefficients réels ou complexes est dite à diagonale dominante lorsque le module de chaque terme diagonal est supérieur ou égal à la somme des modules des autres termes de sa ligne. Si A=((a_{i,j})_{i,j \in [\![1,n]\!] }), on a alors

\forall i \in [\![1,n]\!],\ |a_{i,i}|\ge\sum_{j=1 \atop j\neq i}^n |a_{i,j}|.

De la même manière, A est dite à diagonale strictement dominante lorsque

\forall i \in [\![1,n]\!],\ |a_{i,i}|>\sum_{j=1 \atop j\neq i}^n |a_{i,j}|.

Exemples[modifier | modifier le code]

La matrice

\mathbf A = \begin{pmatrix}
3 & 1 & 1\\
1 & -3 & 2\\
-1 & 2 & 4\end{pmatrix}

vérifie

|a_{11}| \ge |a_{12}| + |a_{13}| car |3| \ge |1| + |1|
|a_{22}| \ge |a_{21}| + |a_{23}| car |-3| \ge |1| + |2|
|a_{33}| \ge |a_{31}| + |a_{32}| car |4| \ge |-1| + |2|.

C'est donc une matrice à diagonale dominante.

La matrice

\mathbf B = \begin{pmatrix}
-2 & 2 & 1\\
1 & 3 & 2\\
1 & -2 & 0\end{pmatrix}

vérifie

|b_{22}| \ge |b_{21}| + |b_{23}|\, car |3| \ge |1| + |2|

mais

|b_{11}| < |b_{12}| + |b_{13}|\, car |-2| < |2| + |1|\,

et

|b_{33}| < |b_{31}| + |b_{32}|\, car |0| < |1| + |-2|.\,

Ce n'est donc pas une matrice à diagonale dominante.

La matrice

\mathbf C = \begin{pmatrix}
-4 & 2 & 1\\
1 & 6 & 2\\
1 & -2 & 5\end{pmatrix}

vérifie

|c_{11}| > |c_{12}| + |c_{13}|\, car |-4| > |2| + |1|\,

puis

|c_{22}| > |c_{21}| + |c_{23}|\, car |6| > |1| + |2|\,

enfin

|c_{33}| > |c_{31}| + |c_{32}|\, car |5| > |1| + |-2|.\,

C'est donc une matrice à diagonale strictement dominante.

Lemme d'Hadamard[modifier | modifier le code]

Le lemme « d'Hadamard »[1] est un cas particulier du théorème de Gerschgorin. Inversement, il peut servir de lemme pour démontrer ce dernier.

Énoncé[modifier | modifier le code]

Si A=((a_{i,j})_{i,j\in [\![1,n]\!] }) est une matrice à diagonale strictement dominante alors A est inversible.

Démonstration[modifier | modifier le code]

Soient A à diagonale strictement dominante et X=\begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix} tel que AX=0. On a alors :

\forall i\in\{1,\ldots,n\},~\sum_{j=1}^n a_{i,j}x_j=0

et il s'agit d'en déduire que X est nul.

Soit i_0\in\{1,\ldots,n\} tel que

|x_{i_0}|=\max \left\{|x_i|, i \in\{1,\ldots,n\}\right\}.

On a -a_{i_0,i_0}x_{i_0}=\sum_{j=1 \atop j\neq i_0}^n a_{i_0,j}x_j, d'où

|a_{i_0,i_0}||x_{i_0}|\le\sum_{j=1\atop j\neq i_0}^n |a_{i_0,j}x_j|\le\sum_{j=1\atop j\neq i_0}^n |a_{i_0,j}||x_{i_0}|.

Comme |a_{i_0,i_0}|>\sum_{j=1\atop j\neq i_0}^n |a_{i_0,j}|, on en déduit que |x_{i_0}|=0, autrement dit X=0.

Note et référence[modifier | modifier le code]

  1. Démontré par Lévy (1881) et Desplanques (1887), puis redécouvert par maints auteurs dont Minkowski (1900), Hadamard (1903) et Brauer (1946), cf. (en) Richard S. Varga (en), Geršgorin and His Circles, Springer,‎ 2004 (ISBN 978-3-540-21100-6, lire en ligne), p. 31