Matrice inversible

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche
Page d'aide sur l'homonymie Pour les articles homonymes, voir Inverse (homonymie).

En mathématiques et plus particulièrement en algèbre linéaire, une matrice carrée A d'ordre n est dite inversible ou régulière ou encore non singulière s'il existe une matrice B d'ordre n, appelée matrice inverse de A et notée :

B = A−1,

telle que :

AB = BA = In

où In désigne la matrice identité d'ordre n et la multiplication est la multiplication ordinaire des matrices. D'après le théorème du rang, chacune des deux conditions AB = In ou BA = In suffit. Dans ce cas, la matrice B est unique.

Une matrice carrée qui n'est pas inversible est dite non inversible ou singulière. Tandis que dans les cas usuels, ces matrices sont à coefficients réels ou complexes, toutes ces définitions peuvent être données pour des matrices à coefficients dans un corps commutatif (voire dans un anneau quelconque).

On démontre qu'une matrice carrée à coefficients dans un corps commutatif est inversible si et seulement si son déterminant est non nul.

Propriétés fondamentales[modifier | modifier le code]

Soit A une matrice carrée d'ordre n à coefficients dans un corps commutatif K (par exemple le corps ℝ des réels). Les propositions suivantes sont équivalentes (on note X une matrice colonne à n éléments dans K)[1] :

  • A est inversible,
  • le déterminant de A est non nul ;
  • A possède n pivots ;
  • 0 n'est pas valeur propre de A ;
  • le rang de A est égal à n ;
  • le système linéaire homogène AX = 0 a pour seule solution X = 0 ;
  • pour tout b dans Mn,1(K), le système linéaire AX = b a au plus une solution ;
  • pour tout b dans Mn,1(K), le système linéaire AX = b a au moins une solution ;
  • les colonnes de A, considérées comme des vecteurs de Kn, sont linéairement indépendantes ;
  • les colonnes de A, considérées comme des vecteurs de Kn, engendrent Kn ;
  • l'endomorphisme canoniquement associé à A (c’est-à-dire l'application linéaire de Kn dans lui-même qui a pour matrice A dans la base canonique) est injectif ;
  • l'endomorphisme canoniquement associé à A est surjectif ;
  • la matrice A est inversible à gauche, c'est-à-dire qu'il existe une matrice B carrée d'ordre n telle que BA = In ;
  • la matrice A est inversible à droite, c'est-à-dire qu'il existe une matrice B carrée d'ordre n telle que AB = In ;
  • la transposée tA de A est inversible ;
  • il existe un polynôme annulateur de A dont 0 n'est pas racine ;
  • 0 n'est pas racine du polynôme minimal de A ;
  • A est équivalente à la matrice identité In d'ordre n.

Plus généralement, une matrice carrée à coefficients dans un anneau commutatif unifère est inversible (c.-à-d. possède une matrice inverse à coefficients dans cet anneau) si et seulement si son déterminant est inversible dans cet anneau. En effet, si A est inversible alors det(A) × det (A–1) = det(I) = 1 et réciproquement, si le scalaire det(A) est inversible alors la matrice A l'est, son inverse étant donnée par la formule de Laplace ci-dessous. Par exemple, une matrice carrée à coefficients entiers admet une inverse à coefficients entiers si et seulement si son déterminant vaut 1 ou –1.

Autres propriétés et résultats[modifier | modifier le code]

Les matrices carrées d'ordre n à coefficients dans un anneau K forment un anneau, noté Mn(K). L'ensemble des matrices inversibles de Mn(K) forme donc un groupe pour la multiplication : le groupe des inversibles de Mn(K). On l'appelle groupe général linéaire et on le note habituellement GLn(K). Par conséquent :

  • la matrice inverse d'une matrice inversible A est elle-même inversible, et
    (A−1)−1 = A ;
  • le produit de deux matrices inversibles A et B (de même ordre) est une matrice inversible et son inverse est donné par la relation suivante
    (AB)−1 = B−1A−1 (différent en général de A−1B−1, sauf si A et B commutent, par exemple si A ou B est une matrice scalaire et si l'anneau K est commutatif).

Toute matrice qui commute avec une matrice inversible A commute aussi avec A−1.

En général, « presque toutes » les matrices carrées d'ordre n sont inversibles. Sur le corps des nombres réels, cela peut être formulé de façon plus précise : l'ensemble des matrices non inversibles, considéré comme sous-ensemble de , est négligeable pour la mesure de Lebesgue. Intuitivement, cela signifie que si l'on choisit au hasard une matrice carrée d'ordre n à coefficients réels, la probabilité pour qu'elle ne soit pas inversible est nulle. La raison en est que les matrices non inversibles sont les racines (ou zéros) d'une fonction polynomiale donnée par le déterminant.

Dans l'ensemble des matrices carrées réelles ou complexes de taille fixée, le sous-ensemble des matrices inversibles est dense[2].

Méthodes d'inversion[modifier | modifier le code]

Avant de décrire les méthodes usuelles d'inversion, notons qu'en pratique, il n'est pas nécessaire de calculer l'inverse d'une matrice pour résoudre un système d'équations linéaires. Des méthodes de décomposition comme la décomposition LU sont beaucoup plus rapides que l'inversion.

Élimination de Gauss-Jordan[modifier | modifier le code]

Article détaillé : Élimination de Gauss-Jordan.

Polynôme annulateur[modifier | modifier le code]

Si une matrice carrée A possède un polynôme annulateur de terme constant non nul, alors elle est inversible : pour tout polynôme on a[3],[4] avec (pour k = 1) A0 = In, où n est l'ordre de la matrice carrée A.

Réciproquement, si A est inversible alors il existe de tels polynômes :

  • le polynôme caractéristique PA(X) = det(XIn – A) est un polynôme annulateur de A d'après le théorème de Cayley-Hamilton, or son terme constant PA(0) = (–1)ndet(A) est non nul si (et seulement si) A est inversible ;
  • le polynôme minimal de A est de degré inférieur ou égal au degré n de PA. Ses racines sont, comme pour PA, les valeurs propres de A. Son terme constant est donc non nul si (et seulement si) 0 n'est pas valeur propre, c'est-à-dire si A est inversible.

Méthode des cofacteurs[modifier | modifier le code]

Article détaillé : Formule de Laplace.

Si le déterminant d'une matrice A (à coefficients dans un corps commutatif) est non nul, alors A est inversible, son inverse étant donnée par :

tcom(A) est la transposée de la comatrice de A. En effet (cf. article détaillé), toute matrice carrée A d'ordre n vérifie :

.

Cette écriture permet un calcul aisé de l'inverse d'une matrice de petite dimension. Pour des matrices de plus grande dimension, cette méthode essentiellement récursive devient inefficace.

Inversion des matrices 2×2[modifier | modifier le code]

L'équation des cofacteurs ci-dessus permet de calculer l'inverse des matrices de dimensions 2×2 : si ad – bc ≠ 0,

,
.
Exemple 
.

Inversion des matrices 3×3[modifier | modifier le code]

De même, on obtient l'inverse d'une matrice de dimension 3×3 en calculant son déterminant (par la règle de Sarrus, par exemple) :

puis en utilisant la formule :

.

Inversion par bloc[modifier | modifier le code]

Article détaillé : Complément de Schur.

L'inverse d'une matrice peut également être calculée par blocs, en utilisant la formule analytique suivante :

A, B, C et D sont des blocs de taille arbitraire, sous réserve que A soit inversible ainsi que son complément de Schur DCA−1B. Cette méthode peut se révéler avantageuse, par exemple, si A est diagonale et si son complément DCA−1B est une matrice de petite dimension, puisque ce sont les seules matrices à inverser.

Cette technique a été inventée par Volker Strassen, connu également pour l'algorithme de Strassen sur le produit matriciel rapide.

Si D est inversible ainsi que son complément ABD−1C, on a la formule duale :

.

(Si les matrices A et D sont toutes deux inversibles ainsi que leurs compléments, on peut combiner ces deux formules en choisissant, pour chacun des quatre blocs de la matrice inverse, l'une des deux expressions fournies.)

Cette relation permet de montrer que la complexité algorithmique de l'inversion de matrice est la même que celle du produit matriciel[5].

Factorisation LU[modifier | modifier le code]

Article détaillé : Décomposition LU.

Dérivée de l'inverse d'une application à valeurs matricielles[modifier | modifier le code]

  • Soient un intervalle I (d'intérieur non vide) de et une fonction matricielledérivable sur I. Alors, la fonction matricielleest dérivable sur I et.Pour n = 1, en notant f(t) le réel A(t), on retrouve la formule usuelle de dérivation :
.
  • Plus génériquement, l'applicationest infiniment différentiable (puisque son expression par la formule des cofacteurs est rationnelle) et sa différentielle est donnée par[6] :
.

Généralisations[modifier | modifier le code]

Certaines des propriétés des matrices inverses sont aussi vérifiées par les matrices pseudo-inverses qui peuvent être définies pour n'importe quelle matrice, même pour celles qui ne sont pas carrées.

Même lorsque la matrice X n'est pas carrée, les matrices XX' et X'X (où X' est la matrice transposée de X) le sont. Si l'une de ces matrices est inversible, il est alors possible d'« inverser » X grâce à une multiplication à gauche par , ou une multiplication à droite par  ; dans ce cas, on a en effet

(inverse à gauche) ou
(inverse à droite).

Notes et références[modifier | modifier le code]

  1. Voir par exemple (en) David C. Lay, Linear Algebra and its Applications, Washington, Pearson, , 579 p. (ISBN 9780321982384), p. 114, 237, 277 et 423, ou le chapitre sur l'inverse, dans la leçon de Wikiversité sur les matrices (voir infra).
  2. Voir par exemple cet exercice corrigé de la leçon « Espaces vectoriels normés » sur la Wikiversité.
  3. S. Sarfati et M. Fegyvères, Mathématiques : méthodes, savoir-faire et astuces, Bréal, coll. « Optimal, CPHEC », (lire en ligne), p. 65.
  4. C. Gautier et A. Warusfel, Mathématiques « tout-en-un » ECS 2e année, Dunod, (lire en ligne), p. 16.
  5. (en) Thomas H. Cormen, Charles E. Leiserson et Ronald L. Rivest, Introduction à l'algorithmique, Paris, Dunod, , xxix+1146 p. (ISBN 978-2100-03922-7, SUDOC 068254024), chap. 28 (« Calcul matriciel »)
  6. Voir par exemple cet exercice corrigé de la leçon « Calcul différentiel » sur la Wikiversité.

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :