Matrice symétrique

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En algèbre linéaire et bilinéaire, une matrice symétrique est une matrice carrée qui est égale à sa propre transposée, c'est-à-dire telle que ai,j = aj,i pour tous i et j compris entre 1 et n, où les ai,j sont les coefficients de la matrice et n est son ordre.

Exemples[modifier | modifier le code]

Intuitivement, les coefficients d'une matrice symétrique sont symétriques par rapport à la diagonale principale (du coin en haut à gauche jusqu'à celui en bas à droite). La matrice suivante est donc symétrique :

\begin{pmatrix}
2 & 4 & 6\\
4 & 0 & 10\\
6 & 10 & 12\end{pmatrix}

Toute matrice diagonale est symétrique.

Propriétés[modifier | modifier le code]

Matrices symétriques réelles[modifier | modifier le code]

Décomposition spectrale[modifier | modifier le code]

Dans un espace euclidien, une matrice représentant un endomorphisme dans une base orthonormée est symétrique si et seulement si l'endomorphisme est autoadjoint. Le théorème spectral en dimension finie en déduit que toute matrice symétrique à coefficients réels est diagonalisable à l'aide d'une matrice de passage orthogonale, car les valeurs propres d'un endomorphisme autoadjoint sont réelles et ses sous-espaces propres sont orthogonaux.

Numériquement, le procédé de diagonalisation s'applique à toute matrice symétrique A et il consiste à la décomposer sous la forme

A = ODO^\mathsf{T}

O est une matrice orthogonale (dont les colonnes sont les vecteurs propres de A) et où D est une matrice diagonale dont les coefficients sont précisément les valeurs propres de A.

Remarque : une matrice symétrique à coefficients complexes peut ne pas être diagonalisable. Par exemple, la matrice

\begin{pmatrix}1 &{\rm i}\\{\rm i}& -1\end{pmatrix}

admet 0 comme seule valeur propre ; si elle était diagonalisable, elle serait nulle. L'analogue complexe des matrices symétriques réelles est en fait les matrices hermitiennes (qui, elles, sont diagonalisables).

Inégalité de Fan[modifier | modifier le code]

Notons \mathcal{S}^n l'espace vectoriel des matrices réelles symétriques d'ordre n et \lambda_i(A)\in\R, i=1,\ldots,n, les n valeurs propres de A\in\mathcal{S}^n, que l'on range par ordre décroissant :


\lambda_1(A)\geqslant \lambda_2(A)\geqslant \cdots\geqslant \lambda_n(A).

On introduit l'application


\lambda:\mathcal{S}^n\to\R^n:A\mapsto(\lambda_1(A), \ldots, \lambda_n(A))

et, pour un vecteur colonne v\in\R^n, on note v^\mathsf{T} le vecteur ligne transposé et \operatorname{Diag}(v) la matrice diagonale dont le coefficient d'indice (i,i) est v_i.

Inégalité de Fan — Pour tout A et B\in\mathcal{S}^n, on a


\langle A,B\rangle\leqslant\lambda(A)^\mathsf{T}\lambda(B),

où 〈⋅, ⋅〉 désigne le produit scalaire canonique sur Mn(ℝ), avec égalité si et seulement si l'on peut obtenir les décompositions spectrales ordonnées \lambda(A) et \lambda(B) de A et B par la même matrice orthogonale, c'est-à-dire si et seulement si


\exists\, V~\mbox{orthogonale}:\quad A=V\;\operatorname{Diag}(\lambda(A))\;V^\mathsf{T}\quad\mbox{et}\quad B=V\;\operatorname{Diag}(\lambda(B))\;V^\mathsf{T}.

Remarques

  • L'inégalité de Fan a été publiée par Ky Fan en 1949[1] mais elle est reliée étroitement à un travail antérieur de von Neumann (1937[2]). La condition pour avoir l'égalité est due à C. M. Teobald (1975[3]).
  • D'après la traduction ci-dessus en termes d'endomorphismes autoadjoints, A et B\in\mathcal{S}^n sont simultanément diagonalisables si et seulement si elles commutent, et la matrice de passage peut alors être choisie orthogonale. La condition énoncée ci-dessus pour avoir l'égalité dans l'inégalité de Fan est plus forte, car elle requiert que les matrices diagonales obtenues soient ordonnées. Ainsi A=\operatorname{Diag}(1,2) et B=\operatorname{Diag}(2,1) commutent mais \langle A,B\rangle=4 diffère de \lambda(A)^\mathsf{T}\lambda(B)=5.
  • L'inégalité de Fan est un raffinement de l'inégalité de Cauchy-Schwarz sur le sous-espace euclidien \mathcal{S}^n de Mn(ℝ), dans le sens où cette dernière peut se déduire de la première. En effet, si A=V\,\operatorname{Diag}(\lambda(A))\,V^\mathsf{T} avec V orthogonale, on a
    \|\lambda(A)\|_2=\|\operatorname{Diag}(\lambda(A))\|=\|V\,\operatorname{Diag}(\lambda(A))\,V^\mathsf{T}\|=\|A\|,
    où ║ ║2 et ║ ║ désignent les normes euclidiennes canoniques sur ℝn et Mn(ℝ). Dès lors, l'inégalité de Fan et l'inégalité de Cauchy-Schwarz sur ℝn donnent
    \langle A,B\rangle\leqslant\|\lambda(A)\|_2\,\|\lambda(B)\|_2=\|A\|\,\|B\|.
    On en déduit l'inégalité de Cauchy-Schwarz sur \mathcal{S}^n en tenant compte également de celle obtenue en remplaçant ci-dessus B par –B.
  • En appliquant l'inégalité de Fan à des matrices diagonales, on trouve une inégalité de Hardy, Littlewood et Pólya[4], simple à démontrer directement, selon laquelle le produit scalaire euclidien de deux vecteurs x et y est majoré par celui des vecteurs [x] et [y] obtenus à partir des vecteurs précédents en ordonnant leurs composantes par ordre décroissant :
    \forall\,x,y\in\R^n:\qquad x^\mathsf{T}y\leqslant[x]^\mathsf{T}[y].

Matrices symétriques positives[modifier | modifier le code]

Une matrice S symétrique réelle d'ordre n est dite :

  • positive si la forme (bilinéaire symétrique) associée est positive, c'est-à-dire si


\forall\,x\in\R^n,\qquad x^\mathsf{T}Sx\ge0~;

  • définie positive si la forme associée est définie et positive, c'est-à-dire si


\forall\,x\in\R^n\setminus\{0\},\qquad x^\mathsf{T}Sx> 0.

Remarque : une matrice carrée réelle vérifiant une telle inégalité (large ou même stricte) n'est pas nécessairement symétrique (cf. Matrice de rotation plane).

Utilisations concrètes[modifier | modifier le code]

Une matrice symétrique d'ordre 3 représente une conique en coordonnées homogènes dans un plan projectif construit à partir de \C^3\, \backslash\, \{(0,0,0)\}.

Annexes[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. (en) K. Fan (1949). On a theorem of Weyl concerning eigenvalues of linear transformations. Proceedings of the National Academy of Sciences of U.S.A. 35, 652-655.
  2. (en) J. von Neumann (1937). Some matrix inequalities and metrizatiion of matric-space. Tomsk University Review 1, 286-300. In Collected Works, Pergamon, Oxford, 1962, Volume IV, 205-218.
  3. (en) C.M. Teobald (1975). An inequality for the trace of the product of two symmetric matrices. Mathematical Proceedings of the Cambridge Philosophical Society 77, 265-266.
  4. (en) G. H. Hardy, J. E. Littlewood et G. Pólya, Inequalities, Cambridge University Press, Cambridge, U.K., 1952.

Ouvrage de référence[modifier | modifier le code]

(en) J. M. Borwein (en) et A. S. Lewis, Convex Analysis an Nonlinear Optimization, New York, Springer,‎ 2000