Matrice (mathématiques)

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Matrice.
Matrice.svg

En mathématiques, les matrices sont des tableaux de nombres qui servent à interpréter en termes calculatoires et donc opérationnels les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.

L'article Théorie des matrices présente des applications pratiques des matrices.

Définitions[modifier | modifier le code]

Une matrice à m lignes et n colonnes est un tableau rectangulaire de mn nombres, rangés ligne par ligne. Il y a m lignes, et dans chaque ligne n nombres.

Plus formellement et plus généralement, soient I, J et K trois ensembles (K sera souvent muni d'une structure d'anneau ou même de corps commutatif).

On appelle matrice de type (I, J)[1] à coefficients dans K, toute famille d'éléments de K indexée par le produit cartésien I × J, c'est-à-dire toute application A de I × J dans K.

Le plus souvent, comme dans toute la suite de cet article, les ensembles I et J sont finis et même égaux à des ensembles de nombres entiers {1, …, m} et {1, …, n}. Dans ce cas, on dit que la matrice a m lignes et n colonnes, ou qu'elle est de dimension ou taille (m, n). En notant ai,j l'image d'un couple (i, j) par l'application A, la matrice peut alors être notée

A=(a_{i,j})_{1\le i\le m,1\le j\le n}

ou plus simplement (ai,j) si le contexte s'y prête.

On représente généralement une matrice sous la forme d'un tableau rectangulaire. Par exemple, est représentée ci-dessous une matrice A, à coefficients entiers, et de dimension (3,4) :

A=\begin{pmatrix}
0 &1 & 2 & 3\\
4 & 5 & 6 & 7\\
8 & 9 & 10 & 11\\
\end{pmatrix}

Dans cette représentation, le premier coefficient de la dimension est le nombre de lignes, et le deuxième, le nombre de colonnes du tableau. Une matrice pour laquelle le nombre m de lignes est égal au nombre n de colonnes sera dite matrice carrée de taille (ou d’ordre) n. Une matrice ne comportant qu'une seule ligne et n colonnes est appelée matrice ligne de taille n. Une matrice comportant m lignes et une seule colonne est appelée matrice colonne de taille m.

Pour repérer un coefficient d'une matrice, on indique son indice de ligne puis son indice de colonne, les lignes se comptant du haut vers le bas et les colonnes de la gauche vers la droite. Par exemple, on notera ai,j, les coefficients de la matrice A, i compris entre 1 et 3 désignant le numéro de la ligne sur laquelle figure le coefficient envisagé, et j compris entre 1 et 4 désignant son numéro de colonne ; ainsi a2,4=7.

La disposition générale des coefficients d'une matrice A de taille (m,n) est donc la suivante

A=\begin{pmatrix}
a_{1,1} & a_{1,2} & \cdots & a_{1,n}\\
a_{2,1} & a_{2,2} & \cdots & a_{2,n}\\
\vdots & \vdots & \ddots & \vdots\\
a_{m,1} & a_{m,2} & \cdots & a_{m,n}\\
\end{pmatrix}

Les coefficients a_{i,j} avec i=j sont dits diagonaux, ceux avec i\ne j sont dits extradiagonaux.

Une sous-matrice de A est une matrice obtenue en sélectionnant une partie I\subset\{1,\ldots,m\} de ses lignes et une partie J\subset\{1,\ldots,n\} de ses colonnes ; on la note A_{I,J}. On dit qu'une sous-matrice est principale si I=J dans la définition précédente. La diagonale de A est le vecteur

\operatorname{diag}(A):=\begin{pmatrix}a_{1,1}\\a_{2,2}\\\vdots\\a_{p,p}\end{pmatrix},

p:=\min(m,n).

Pour effectuer certaines opérations, il peut être utile de travailler sur le système des lignes ou des colonnes d'une matrice. On pourra alors l'écrire sous une des formes suivantes

A=\begin{pmatrix}
L_1\\L_2\\\vdots \\ L_m\\\end{pmatrix} ou A= \begin{pmatrix}
C_1 & C_2 & \dots  & C_n\\ \end{pmatrix}.

L'ensemble des matrices à coefficients dans K possédant m lignes et n colonnes est noté  M_{m,n}(K) (ou parfois  M(m,n,K)).

Lorsque m = n on note plus simplement  M_n(K).

Soit K un ensemble et  A= (a_{i,j})_{1\le i\le m,\ 1\le j\le n} \in M_{m,n}(K) ; on appelle matrice transposée de A la matrice A^\mathsf{T}=(a_{j,i})_{1\le j\le n,\ 1\le i\le m} \in M_{n,m}(K). Si K est un magma, A^\mathsf{T}=(a_{j,i})_{1\le j\le n,\ 1\le i\le m} \in M_{n,m}(K^{op})K^{op} est le magma opposé de K.

Par exemple, avec la matrice A des exemples précédents, on a

A^\mathsf{T}=\begin{pmatrix}
0 & 4 & 8\\
1 & 5 & 9\\
2 & 6 & 10\\
3 & 7 & 11\\
\end{pmatrix}.

Espaces de matrices[modifier | modifier le code]

On suppose maintenant que K est muni d'une structure d'anneau ; les éléments de K seront appelés scalaires, par opposition aux matrices dont nous allons voir qu'elles peuvent être considérées comme des vecteurs.

Addition et multiplication par un scalaire[modifier | modifier le code]

On définit sur  M_{m,n}(K) une loi de composition interne provenant de l'addition des scalaires :

 (a_{i,j})+(b_{i,j})=(c_{i,j}) , où c_{i,j}=a_{i,j}+b_{i,j}.

On ne peut additionner que deux matrices de même taille.

  • Exemple :

\begin{array}{l}
\begin{pmatrix}
0 &1 & 2 & 3\\
4 & 5 & 6 & 7\\
\end{pmatrix} + 
\begin{pmatrix}
0 &0 & 1 & 1\\
0 & 1 & 0 & 1\\
\end{pmatrix}
=
\begin{pmatrix}
0 &1 & 3 & 4\\
4 & 6 & 6 & 8\\
\end{pmatrix}
\end{array}

Pour chaque valeur du couple (m, n), l'espace  M_{m,n}(K) devient alors un groupe abélien, d'élément neutre la matrice nulle, celle dont tous les coefficients valent 0.

On définit aussi une opération à droite de K sur chaque espace  M_{m,n}(K) en associant, à chaque scalaire λ dans K et à chaque matrice (a_{i,j}) à coefficients dans K, la matrice  (a_{i,j})\lambda =(a_{i,j}\lambda ) obtenue en effectuant la multiplication à droite, dans K, de tous les coefficients de la matrice initiale par \lambda : c'est la multiplication par un scalaire. Lorsque l'anneau est commutatif, la multiplication peut également s'effectuer à gauche.

En reprenant toujours la matrice A du premier exemple :

2A=\begin{pmatrix}
0 &2 & 4 & 6\\
8 & 10 & 12 & 14\\
16 & 18 & 20 & 22\\
\end{pmatrix}

Les espaces  M_{m,n}(K) ainsi obtenus ont donc une structure de K-module à droite, et plus particulièrement de K-espace vectoriel, si K est un corps commutatif.

Base canonique de l'espace des matrices[modifier | modifier le code]

Le K-module  M_{m,n}(K) est libre de rang mn,, c'est-à-dire qu'il possède une base de mn éléments : il suffit de considérer la base canonique  (E_{i,j})_{1\leqslant i\leqslant m,\ 1\leqslant j\leqslant n}. La matrice E_{i,j} est celle dont tous les coefficients sont nuls sauf celui d'indice  (i,j) , qui vaut 1.

Les coordonnées dans la base canonique d'une matrice A sont ses coefficients :

 A = \sum _{1\leqslant i\leqslant n\atop 1\leqslant j\leqslant p} E_{i,j} a_{i,j}
  • Exemple (cas commutatif) :

\begin{pmatrix}
0 &1 & 2 \\
4 & 3 & 1 \\
\end{pmatrix} =
0\cdot
\begin{pmatrix}
1 &0 & 0 \\
0 & 0 & 0 \\
\end{pmatrix}
+
1\cdot
\begin{pmatrix}
0 &1 & 0 \\
0 & 0 & 0 \\
\end{pmatrix}
+
2\cdot
\begin{pmatrix}
0 &0 & 1 \\
0 & 0 & 0 \\
\end{pmatrix}
+
4\cdot
\begin{pmatrix}
0 &0 & 0 \\
1 & 0 & 0 \\
\end{pmatrix}
+
3\cdot
\begin{pmatrix}
0 &0 & 0 \\
0 & 1 & 0 \\
\end{pmatrix}
+
1\cdot
\begin{pmatrix}
0 &0 & 0 \\
0 & 0 & 1 \\
\end{pmatrix}

Produit matriciel[modifier | modifier le code]

Article détaillé : Produit matriciel.

On commence par définir le produit d'une matrice ligne par une matrice colonne[2],[3]. Soit n un nombre entier, L une matrice ligne, xi ses coefficients, C une matrice colonne, yi ses coefficients. On les suppose toutes deux de taille n. On définit alors le produit, considéré comme un scalaire ou une matrice de dimension (1, 1) :

 LC = \begin{pmatrix}x_1&\dots&x_n\end{pmatrix}\begin{pmatrix}y_1\\\vdots\\ y_n\end{pmatrix}=\sum_{1\le i\le n} x_iy_i

On remarque la condition de compatibilité sur les tailles des matrices (égalité du nombre de colonnes de la première avec le nombre de lignes de la deuxième). On définit maintenant plus généralement un produit entre deux matrices, la première, (xi,j) dans Mm,n(K), la deuxième, (yi,j) dans Mn,p(K), toujours avec une condition de compatibilité sur les tailles (et l'ordre des facteurs de la multiplication ne peut en général pas être changé). Le résultat obtenu est une matrice de Mm,p(K), dont les coefficients (zi,j) sont obtenus par :

z_{i,j}=\sum_{1\le k \le n} x_{i,k}y_{k,j}=x_{i,1}y_{1,j}+x_{i,2}y_{2,j}+\cdots+ x_{i,n}y_{n,j}

À la lumière de l'exemple de la multiplication d'une matrice ligne par une matrice colonne, on peut reformuler cette définition en disant que ce coefficient est égal au produit de la ligne i de la première matrice par la colonne j de la deuxième, ce qui s'écrit de la manière suivante, si les Li sont les lignes de la première matrice, et les Cj les colonnes de la deuxième, le produit est :  \begin{pmatrix}L_1\\\vdots\\ L_m\end{pmatrix}\begin{pmatrix}C_1&\dots&C_p\end{pmatrix}=\begin{pmatrix}
L_1C_1 & L_1C_2 & \dots & L_1C_p\\L_2C_1 & L_2C_2 & \dots & L_2C_p\\ \vdots & \vdots & & \vdots\\ L_mC_1 & L_mC_2 & \dots & L_mC_p\\\end{pmatrix}.

Le produit matriciel est associatif, distributif à droite et à gauche par rapport à l'addition matricielle. En revanche, même lorsque les dimensions permettent de donner un sens à la question et même si l'anneau des scalaires est commutatif, un produit de matrices ne commute en général pas : AB n'est pas en général égal à BA, par exemple :


  A =\begin{pmatrix}
     0 & 0 \\ 
     1 & 0
  \end{pmatrix}
\quad
  B =\begin{pmatrix} 
    1 & 0 \\ 
    0 & 0 \\ 
      \end{pmatrix}
\quad
  AB =\begin{pmatrix} 
    0 & 0 \\ 
    1 & 0 \\ 
      \end{pmatrix}
\quad
  BA =\begin{pmatrix} 
    0 & 0 \\ 
    0 & 0 \\ 
      \end{pmatrix}.

Remarque : le produit de deux matrices non nulles peut être nul, comme l'exemple au-dessus.

Il arrive même, selon les tailles respectives des matrices A et B, que l'un des deux produits existe et pas l'autre.

La transposition et le produit matriciel sont compatibles au sens suivant :

\forall A\in M_{n,p}(K),\ \forall B\in  M_{p,q}(K),\ \left(AB\right)^\mathsf{T}=B^\mathsf{T}\cdot A^\mathsf{T}

(même si l'anneau K n'est pas commutatif, en se rappelant que les matrices transposées ont leurs coefficients dans l'anneau opposé Kop).

Matrice identité et inverse d'une matrice[modifier | modifier le code]

Articles détaillés : Matrice identité et Matrice inversible.

Pour chaque nombre entier n, on note In la matrice carrée de taille n dont les coefficients diagonaux sont égaux à 1 et dont les autres coefficients sont nuls ; elle est appelée matrice identité de taille n.

 I_1=1\quad 
I_2= \begin{pmatrix} 1 & 0\\ 0 & 1\end{pmatrix}
\quad 
I_3=\begin{pmatrix} 1 & 0 & 0\\ 0 & 1 & 0 \\0 & 0 & 1 \end{pmatrix}
\quad I_n=(\delta_{i,j})_{1\le i\le n,1\le j\le n}

où δi,j désigne le symbole de Kronecker.

Sous réserve de compatibilité des tailles, les matrices In sont neutres à droite et à gauche pour la multiplication.

 \forall A\in M_{m,n}(K),\ I_m\,A=A\,I_n =A.

Soit A une matrice de dimension (m, n). On dit que A est inversible à droite (respectivement à gauche) s'il existe une matrice B de taille (n, m) telle que AB = Im (respectivement BA = In). Elle est simplement dite inversible si elle l'est à la fois à droite et à gauche. Le sous-ensemble de Mn(K) constitué des matrices inversibles possède une structure de groupe pour le produit matriciel ; il est appelé groupe linéaire et noté GLn(K).

Pour une matrice carrée à coefficients dans un anneau commutatif K, être inversible à droite ou à gauche ou avoir un déterminant inversible dans K (c'est-à-dire non nul si K est un corps) sont trois propriétés équivalentes.

Algèbre des matrices carrées[modifier | modifier le code]

Lorsque l'anneau K est commutatif, l'ensemble  M_n(K) des matrices carrées de taille n est donc muni d'une structure de K-algèbre associative et unitaire avec l'addition matricielle, le produit par un scalaire et le produit matriciel.

On appelle matrice scalaire une matrice de la forme I_n \lambda où λ est un élément de l'anneau K.

I_n a=\begin{pmatrix}
a & 0 & \dots & 0\\
0 & a & \dots & 0\\
\vdots &\vdots&\ddots& \vdots \\
0 & 0 &\dots & a
\end{pmatrix}

Ces matrices s'appellent matrices scalaires car elles se comportent comme des scalaires, vis-à-vis de la multiplication :

 \forall\lambda\in K,\ \forall A\in M_n(K),\ A (I_n \lambda)= A \lambda ~.

Lorsque K est commutatif, ou à défaut, lorsque λ est central dans K, c'est-à-dire lorsque λ commute avec tous les éléments de K, on a en outre :

 \forall\lambda \in K,\ \forall A\in M_n(K),(\lambda I_n)\ A = A\lambda~.

Réciproquement, toute matrice B de M_n(K) telle que \forall A\in M_n(K),\ AB=BA est une matrice scalaire I_n \lambda où λ est central dans K (ceci se démontre en prenant pour A les matrices de la base canonique).

Une matrice de la forme :

 \begin{pmatrix}
a_1 & 0 & \dots & 0\\
0 & a_2 & \dots & 0\\
\vdots &\vdots&\ddots& \vdots \\
0 & 0&\dots & a_n
\end{pmatrix}

sera dite matrice diagonale.

Outre le déterminant, une autre fonction à noter est la trace. Toutes deux apparaissent dans un objet plus général, le polynôme caractéristique, qui à son tour permet d'obtenir certaines caractérisations des matrices diagonalisables (c'est-à-dire semblables à une matrice diagonale), ou de la trigonalisation.

Actions du groupe linéaire[modifier | modifier le code]

Il existe plusieurs manières de faire agir le groupe linéaire GL_n(K) sur les espaces de matrices, notamment :

  • action par multiplication à gauche de GL_m(K) sur M_{m,n}(K), qui à P et A, associe PA,
  • action (à droite) par multiplication à droite de GL_n(K) sur M_{m,n}(K), qui à Q\in GL_n(K) et A\in M_{m,n}(K), associe AQ^{-1},
  • action par conjugaison de GL_n(K) sur M_n(K), qui à P\in GL_n(K) et A\in M_n(K), associe PAP^{-1}.

On décrit maintenant les résultats classiques sur ces actions, lorsque les scalaires forment un corps commutatif. Les deux premières actions sont souvent considérées simultanément ; on s'intéresse donc à la question : deux matrices A et B de dimension (m,n) étant données, existe-t-il des matrices P\in GL_m(K) et Q\in GL_n(K) telles que A=PBQ^{-1} ? Si tel est le cas, les deux matrices A et B sont dites équivalentes. Le résultat principal est que deux matrices sont équivalentes si et seulement si elles ont même rang, ce qui s'exprime encore en disant que le rang est un invariant complet pour les doubles classes définies par les deux actions de multiplication à gauche et à droite. Par ailleurs, une matrice étant donnée, on peut trouver d'autres matrices privilégiées (les matrices échelonnées) dans la même orbite pour une de ces actions par la méthode du pivot de Gauss.

Pour l'action par conjugaison, deux matrices carrées A et B de taille n dans la même orbite admettent une relation de la forme A=PBP^{-1}, pour une certaine matrice P inversible de taille n ; deux telles matrices sont dites semblables. La description d'un système complet d'invariants est plus délicate. On appelle ces invariants les invariants de similitude. D'un point de vue algorithmique, la réduction d'une matrice quelconque à une matrice sous une forme privilégiée se fait par un algorithme inspiré de celui du pivot de Gauss, voir théorème des facteurs invariants.

Interprétations linéaires[modifier | modifier le code]

Un intérêt principal des matrices est qu'elles permettent d'écrire commodément les opérations habituelles de l'algèbre linéaire, avec une certaine canonicité.

Coordonnées[modifier | modifier le code]

Articles détaillés : Base et Rang.

Le premier point est de remarquer que le K-module Kn s'identifie canoniquement à l'espace de matrices colonne M_{n,1}(K) : si ei est le n-uplet de Kn dont tous les coefficients sont nuls, sauf le i-ème qui vaut 1, on lui associe la i-ème matrice colonne E_{i,1} de la base canonique de M_{n,1}(K) (celle dont tous les coefficients sont nuls sauf le i-ème qui vaut 1), et on étend l'identification par linéarité ; la matrice associée à chaque n-uplet sera appelée matrice coordonnée canonique.

D'autres identifications sont cependant possibles ; lorsqu'on peut parler de base (si l'anneau des scalaires est un corps, par exemple), on peut associer les matrices colonnes élémentaires à n'importe quelle base de l'espace Kn (ou plus généralement d'un K-module libre), puis à nouveau étendre par linéarité ; les matrices associées seront appelées matrices coordonnées dans la base envisagée.

On peut juxtaposer les matrices coordonnées, dans une base fixée, de plusieurs n-uplets. On obtient ainsi la matrice coordonnée d'une famille de vecteurs. Le rang de la matrice est alors défini comme la dimension de la famille de ces vecteurs. En particulier la matrice d'une base dans une autre base est appelée matrice de passage entre ces deux bases, ou matrice de changement de base. Si X et X' sont les matrices coordonnées du même vecteur dans deux bases B et C, et que P est la matrice de la base C dans la base B, on a la relation (une matrice de passage est toujours inversible) :

 X=PX'\quad X'=P^{-1} X

Applications linéaires[modifier | modifier le code]

Soient E et F deux espaces vectoriels de dimensions respectives n et m sur un corps commutatif[4] K, B une base de E, C une base de F et φ une application linéaire de E dans F.

On appelle matrice de φ dans le couple de bases (B, C) la matrice matB,C(φ) de Mm,n(K) telle que pour tout vecteur x de E, si l'on note y = φ(x), X = matB(x) et Y = matC(y), alors :

Y=mat_{B,C}(\varphi)\times X.

Si ψ est une deuxième application linéaire, de F dans un troisième espace vectoriel G de base D, alors, relativement aux bases B, C, D, la matrice de la composée ψ∘φ est égale au produit des matrices de ψ et φ. Plus précisément :

mat_{B,D}(\psi\circ\varphi)=mat_{C,D}(\psi)\times mat_{B,C}(\varphi).

L'application de L(E, F) dans Mm,n(K) qui à chaque φ associe sa matrice dans (B, C) est un isomorphisme d'espaces vectoriels.

Pour toute matrice M de Mm,n(K), l'application XMX du K-espace vectoriel Mn,1(K) dans le K-espace vectoriel Mm,1(K) est linéaire. C'est un point clef du lien entre algèbre linéaire et matrices. En conséquence, il arrive souvent que l'on identifie la matrice M avec cette application linéaire. On parlera alors de noyau de la matrice, d'espaces propres de la matrice, d'image de la matrice, etc.

Si B et B' sont deux bases de E, C et C' deux bases de F, P = matB(B') la matrice de passage de B vers B' et Q la matrice de passage de C vers C', alors les deux matrices M et M' d'une même application linéaire de E dans F, dans les couples de bases (B, C) et (B', C'), sont liées par : M' = Q−1MP. On constate ainsi que deux matrices équivalentes sont deux matrices qui représentent la même application linéaire dans des bases différentes. En particulier, dans le cas d'un endomorphisme, si l'on impose B = B' et C = C', la formule précédente devient : M' = P−1MP et deux matrices semblables sont deux matrices qui représentent le même endomorphisme dans des bases différentes.

Transposition[modifier | modifier le code]

Article détaillé : Application transposée.

Soient de nouveau E et F deux K-espaces vectoriels de dimensions finies[4], de bases respectives B et C, et φ une application linéaire de E dans F. L'application linéaire transposée tφ : F* → E* entre leurs duals est définie par

\forall y^*\in F^*,\forall x\in E,\quad\left\langle^{\operatorname t}\!\varphi\left( y^*\right),x\right\rangle
=\left\langle y^*,\varphi\left(x\right)\right\rangle.

Sa matrice dans le couple de bases duales (C*, B*) est liée à celle de φ dans (B, C) par :

mat_{C^*,B^*}(^{\operatorname t}\!\varphi)=^{\operatorname t}\!(mat_{B,C}(\varphi)).

Remarque[modifier | modifier le code]

Lorsque l'anneau n'est pas commutatif, si l'on représente les vecteurs par des matrices colonne, l'algèbre linéaire n'est compatible avec le calcul matriciel que si les modules ou espaces vectoriels considérés sont à droite, comme dans les articles détaillés signalés ci-dessus, une application linéaire correspondant à la multiplication à gauche d'un vecteur colonne par la matrice qui la représente. Si l'on tient à avoir des modules ou espaces vectoriels à gauche, il faut représenter les vecteurs par des matrices ligne, une application linéaire étant cette fois représentée par la multiplication à droite d'un vecteur ligne par la matrice qui la représente[5].

Systèmes d'équations linéaires[modifier | modifier le code]

Article détaillé : Système d'équations linéaires.

En général, un système de m équations linéaires à n inconnues peut être écrit sous la forme suivante :

\left\{\begin{matrix}  a_{1,1}x_1+a_{1,2}x_2+...+a_{1,n}x_n = b_1 \\ a_{2,1}x_1+a_{2,2}x_2+...+a_{2,n}x_n = b_2 \\ \vdots \\ \vdots \\ a_{m,1}x_{1}+a_{m,2}x_{2}+...+a_{m,n}x_n = b_m\end{matrix}\right.

x_1, ..., x_n sont les inconnues et les nombres a_{i,j} sont les coefficients du système.

Ce système peut s'écrire sous la forme matricielle :

Ax=b

avec :

A=\begin{pmatrix}
a_{1,1} & a_{1,2} & \cdots & a_{1,n} \\
a_{2,1} & a_{2,2} & \cdots & a_{2,n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m,1} & a_{m,2} & \cdots & a_{m,n} \end{pmatrix}; \qquad x=\begin{pmatrix} x_1 \\ x_2\\ \vdots \\ x_n \end{pmatrix}\quad\text{et}\quad b=\begin{pmatrix} b_1 \\ b_2 \\ \vdots \\ b_m \end{pmatrix} ;

la théorie de la résolution des systèmes utilise les invariants liés à la matrice A (appelée matrice du système), par exemple son rang, et, dans le cas où A est inversible, son déterminant (voir l'article règle de Cramer).

Interprétations bilinéaires[modifier | modifier le code]

Dans ce paragraphe, l'anneau K des scalaires sera supposé commutatif. Dans la plupart des applications, ce sera un corps commutatif.

Le cas non commutatif existe aussi mais il faut prendre quelques précautions et les notations deviennent trop lourdes pour cet article.

Matrice d'une forme bilinéaire[modifier | modifier le code]

Soient E un K-module libre et B = (e1, … , en) une base de E.

Soit  f : E\times E \to K une forme bilinéaire. On définit la matrice de  f dans la base B par la formule suivante :

mat_B\, f = (f(e_i,e_j))_{1\le _i\le n,\ 1\le j\le n}=
\begin{pmatrix}
f(e_1,e_1) & f(e_1,e_2) & \dots & f(e_1,e_n)\\
f(e_2,e_1) & f(e_2,e_2) & \dots & f(e_2,e_n)\\
\vdots & \vdots & \ddots & \vdots\\
f(e_n,e_1) & f(e_n,e_2) & \dots & f(e_n,e_n)\\
\end{pmatrix}

Dans le cas particulier où K = ℝ et  f est un produit scalaire, cette matrice est appelée matrice de Gram.

La matrice mat_B\, f est symétrique (respectivement antisymétrique) si et seulement si la forme bilinéaire  f est symétrique (respectivement antisymétrique).

Soient  x et  y deux vecteurs de E. Notons  X et  Y leurs coordonnées dans la base B et A=mat_B\, f. On a alors la formule :  f(x,y)=^{\operatorname t}\!X~A~Y.

Deux formes bilinéaires sont égales si et seulement si elles ont la même matrice dans une base donnée.

Matrice d'une forme quadratique[modifier | modifier le code]

Lorsque K est un corps de caractéristique différente de 2, on appelle matrice d'une forme quadratique la matrice de la forme bilinéaire symétrique dont est issue la forme quadratique.

Formule de changement de base[modifier | modifier le code]

Soient E un K-module libre et B, C deux bases de E. Soit  f : E\times E \to K une forme bilinéaire.

Notons M= mat_B\, f la matrice de  f dans la base B et M'= mat_C\, f la matrice de  f dans la base C. Notons  P =mat_{B\, C} la matrice de passage. On a alors la formule de changement de base pour une forme bilinéaire (à ne pas confondre avec celle pour une application linéaire) :

M'=^{\operatorname t}\!P~M~P

Matrices congruentes[modifier | modifier le code]

Article détaillé : Matrices congruentes.

Deux matrices carrées A et B sont dites congruentes s'il existe une matrice inversible P telle que

 A = ^{\operatorname t}\!P~B~P~.

Deux matrices congruentes sont deux matrices qui représentent la même forme bilinéaire dans deux bases différentes.

Lorsque K est un corps de caractéristique différente de 2, toute matrice symétrique est congruente à une matrice diagonale. L'algorithme utilisé s'appelle réduction de Gauss à ne pas confondre avec le pivot de Gauss.

Catalogue partiel[modifier | modifier le code]

Une matrice est dite symétrique si elle est égale à sa transposée et antisymétrique si elle est opposée à sa transposée.

Une matrice A à coefficients complexes est dite hermitienne si elle est égale à la transposée de sa matrice conjuguée A.

Une matrice A est dite

  • orthogonale si elle est à coefficient réels et si tA A = A tA = I,
  • unitaire si elle est à coefficients complexes et si tA A = A tA = I

(Pour plus d'exemples, voir en bas de page : « Articles connexes » et palette « Matrices ».)

Décomposition d'une matrice[modifier | modifier le code]

On utilise abusivement le terme décomposition d'une matrice, qu'il s'agisse d'une véritable décomposition (en somme) comme dans la décomposition de Dunford ou d'une factorisation comme dans la plupart des autres décompositions.

Réduction d'une matrice carrée[modifier | modifier le code]

  • Réduire une matrice, c'est trouver une matrice qui lui est semblable la plus simple possible.
  • Une matrice diagonalisable est une matrice semblable à une matrice diagonale :  A est diagonalisable s'il existe une matrice inversible  P et une matrice diagonale  D telles que  A=P^{-1}DP .
  • Sur un corps algébriquement clos, on dispose de la réduction de Jordan qui est optimale et il existe des décompositions intermédiaires comme la décomposition de Dunford qui utilise les sous-espaces caractéristiques ou celle de Frobenius qui utilise les sous-espaces cycliques.
  • Les polynômes d'endomorphismes jouent un rôle crucial dans les techniques de réduction.

Décomposition LU[modifier | modifier le code]

Article détaillé : Décomposition LU.
  • C'est une factorisation en produit de deux matrices triangulaires.
  • En lien avec le pivot de Gauss, c'est une méthode qui permet d'inverser une matrice.

Décomposition QR[modifier | modifier le code]

Article détaillé : Décomposition QR.
  • C'est un résultat sur les matrices à coefficients réels ou à coefficients complexes.
  • C'est une factorisation en produit d'une matrice orthogonale et d'une matrice triangulaire.
  • C'est une traduction matricielle du procédé de Gram-Schmidt.

Décomposition polaire[modifier | modifier le code]

Article détaillé : Décomposition polaire.
  • C'est un résultat sur les matrices à coefficients réels ou à coefficients complexes.
  • C'est une factorisation en produit d'une matrice orthogonale et d'une matrice symétrique définie positive dans le cas réel, en produit d'une matrice unitaire et d'une matrice hermitienne définie positive dans le cas complexe.
  • On peut décomposer à droite ou à gauche.
  • On a unicité de la factorisation pour les matrices inversibles.

Normes[modifier | modifier le code]

Normes d'algèbre[modifier | modifier le code]

Dans tout ce paragraphe, K = ℝ ou ℂ.

Une norme matricielle est une norme d'algèbre sur l'algèbre Mn(K), c'est-à-dire une norme d'espace vectoriel qui est de plus sous-multiplicative.

Le rayon spectral d'une matrice carrée A à coefficients complexes est le plus grand module de ses valeurs propres. Il est égal à la borne inférieure des normes matricielles de A.

Sur Mn(K), toute norme N subordonnée à une norme sur Kn est une norme d'algèbre vérifiant de plus N(In) = 1 (la réciproque est fausse).

Structure d'espace vectoriel euclidien[modifier | modifier le code]

L'espace vectoriel Mm,n(ℝ), canoniquement isomorphe à ℝmn, hérite de sa structure euclidienne. Le produit scalaire se transcrit en


(A,B)\in M_{m,n}(\R)\times M_{m,n}(\R)\mapsto\langle A,B\rangle:=\operatorname{tr}(^{\operatorname t}\!A~B)=\sum_{\scriptstyle 1\leq i\leq m\atop\scriptstyle 1\leq j\leq n}A_{ij}B_{ij}\in\R,

tr désigne la trace (i.e., \textstyle\operatorname{tr}\,M=\sum_{i=1}^nM_{ii}) et les A_{ij} (resp. B_{ij}) désignent les éléments de A (resp. B). La norme associée à ce produit scalaire est la norme de Frobenius ou norme de Hilbert-Schmidt :


\|A\|_F=\left(\sum_{1\le i\le m\atop 1\le j\le n}A_{ij}^2\right)^{\frac12}=\left(\sum_{1\le k\le\min(m,n)}\sigma_k^2\right)^{\frac12}

où les σk sont les valeurs singulières de A (si A est une matrice normale, ce sont simplement les modules de ses valeurs propres).

Si m = n > 1, il ne s'agit pas d'une norme subordonnée, puisque \|I_n\|_F=\sqrt{n}\ne1.

L'espace vectoriel Mm,n(ℂ) est muni d'une structure similaire d'espace hermitien.

Exponentielle d'une matrice[modifier | modifier le code]

Article détaillé : Exponentielle d'une matrice.

Soit  A\in M_n(\C) , Soit  N une norme d'algèbre et \sum a_n z^n une série entière de rayon de convergence  R .

Alors si  N(A) < R , la série \sum a_n A^n est absolument convergente. (On le montre en utilisant que N(A^n)\le N(A)^n.)

En particulier, on peut définir, pour toute matrice carrée complexe, la quantité

 \exp (A) = \sum_{k=0}^{+\infty} \frac1{k!} A^k

Le calcul effectif de cette exponentielle se fait par réduction de la matrice.

L'exponentielle joue un rôle central dans l'étude des systèmes linéaires d'équations différentielles.

Notes[modifier | modifier le code]

  1. Voir N. Bourbaki, Algèbre, Chapitres 1 à 3, Springer,‎ 2006, 2e éd. (lire en ligne), A II.139, qui parle aussi de « matrice vide » dans le cas où I ou J est l'ensemble vide.
  2. On peut remarquer que ce produit est donné par une formule analogue à celle donnant le produit scalaire usuel ; cette remarque sera exploitée plus loin.
  3. Dans le cas plus général d'ensembles éventuellement infinis d'indices, on peut demander à K d'être muni d'une topologie, pour définir le produit comme la somme d'une série (convergente). Sans topologie, on peut également demander aux colonnes (ou aux lignes) des matrices de ne contenir qu'un nombre fini d'éléments non nuls ; c'est d'ailleurs toujours le cas quand ces matrices représentent des applications linéaires entre espaces vectoriels munis de bases, même infinies. Paul Halmos, qui donne ces diverses définitions, ajoute néanmoins que « Not much of matrix theory carries over to infinite-dimensional spaces, and what does is not so useful, but it sometimes helps. » (la théorie des matrices s'étend peu aux espaces de dimension infinie, et ce qui s'étend n'est guère utile, mais peut parfois aider), dans P. Halmos, A Hilbert space problem book, 1982, p. 23.
  4. a et b Cette définition et les propriétés associées se généralisent à des K-modules à droite libres de type fini sur un anneau (non nécessairement commutatif).
  5. Voir par exemple : (en) Henri Bourlès et Bogdan Marinescu, Linear Time-Varying Systems: Algebraic-Analytic Approach, Springer,‎ 2011, 638 p. (ISBN 3642197264, lire en ligne), §§ 2.2.4-2.2.6 ; cette formulation est très courante dans la théorie des D-modules.

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Bibliographie[modifier | modifier le code]

  • J.-M. Arnaudiès et H. Fraysse Cours de mathématiques, Dunod, 1980
  • Rached Mneimné, Réduction des endomorphismes, Calvage et Mounet, Paris, 2006 (ISBN 978-2-916352-01-5)

Lien externe[modifier | modifier le code]

Frédéric Brechenmacher, Les matrices : formes de représentation et pratiques opératoires (1850-1930)

Articles connexes[modifier | modifier le code]