Réduction d'endomorphisme

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En mathématiques, et plus particulièrement en algèbre linéaire, la réduction d'endomorphisme a pour objectif d'exprimer des matrices et des endomorphismes sous une forme plus simple, par exemple pour faciliter les calculs. Cela consiste essentiellement à trouver une décomposition de l'espace vectoriel en une somme directe de sous-espaces stables sur lesquels l'endomorphisme induit est plus simple. Moins géométriquement, cela correspond à trouver une base de l'espace dans laquelle l'endomorphisme s'exprime simplement.

Motivation[modifier | modifier le code]

Endomorphisme et vecteur propre[modifier | modifier le code]

L'espace vectoriel sur lequel s'applique l'endomorphisme possède des propriétés différentes selon les cas. Lorsque l'espace est de dimension finie, la structure du corps détermine l'essentiel des propriétés de réduction. Cette approche, qui fait intervenir l'anneau des polynômes associé au corps, est analysée dans l'article polynôme d'endomorphisme. Le cas le plus simple est celui où le corps est algébriquement clos, c'est-à-dire que tout polynôme non constant admet au moins une racine. C'est le cas des nombres complexes. Alors la réduction est particulièrement efficace. La notion de valeur propre devient le bon outil dans ce contexte. Lorsqu'il existe une base de vecteurs propres, on parle de diagonalisation.

Sur un espace vectoriel complexe de dimension finie, les endomorphismes diagonalisables sont denses topologiquement. Sur un espace vectoriel réel de dimension finie, ce n'est plus le cas. En revanche, tout endomorphisme sur un espace vectoriel complexe de dimension finie est trigonalisable[1].

Réduction de Jordan[modifier | modifier le code]

Il y a deux obstacles qui empêchent que tout endomorphisme soit diagonalisable. Le premier est constitué des endomorphismes nilpotents ; il a été analysé par le mathématicien Camille Jordan. On montre que tout endomorphisme en dimension finie sur un corps algébriquement clos se décompose en sous-espaces caractéristiques où l'endomorphisme est la somme d'une homothétie et d'un endomorphisme nilpotent.

Le deuxième obstacle apparaît si le corps n'est pas algébriquement clos (par exemple si c'est le corps des réels). Dans ce cas, les polynômes caractéristique et minimal peuvent avoir des facteurs premiers de degré supérieur ou égal à 2. Pour ces facteurs de plus haut degré, le concept de valeur propre doit être généralisé en celui de chaîne de Jordan. On dit qu'un polynôme P de degré d est une chaîne de Jordan d'un endomorphisme u si

  • il existe un vecteur x non nul tel que P(u)(x) = 0 ;
  • la famille (x, … ,ud–1(x)) est libre.

L'intérêt de cette notion est que la famille (x, … ,ud–1(x)) engendre un sous-espace vectoriel stable par u, sur lequel la matrice de u est la matrice compagnon de Jordan de P.

Quand le degré d vaut 1, on retrouve la définition de valeur propre usuelle. On peut montrer que tout facteur premier du polynôme minimal d'un endomorphisme est une chaîne de Jordan de cet endomorphisme. Par conséquent, tout endomorphisme admet une base où sa matrice a une diagonale formée de blocs matrices compagnons et de moitié inférieure gauche nulle (c'est donc une matrice presque triangulaire supérieure).

Endomorphisme et distance[modifier | modifier le code]

Cette section ne cite pas suffisamment ses sources (mars 2013). Pour l'améliorer, ajouter en note des références vérifiables ou les modèles {{Référence nécessaire}} ou {{Référence souhaitée}} sur les passages nécessitant une source.

Il existe un cas particulier d'espace vectoriel : ceux qui sont munis d'une distance compatible avec la structure vectorielle. Un cas important est celui où la distance est euclidienne (ou hermitienne dans le cas complexe). L'ajout de cette structure offre une nouvelle voie d'accès à la problématique de la réduction d'endomorphisme. S'il est compatible avec la distance, c'est-à-dire s'il est normal, alors une nouvelle approche est possible. Dans ce contexte, l'exception nilpotente est absente. La réduction est plus simple et les techniques algorithmiques associées plus rapides.

Analyse fonctionnelle et opérateur linéaire[modifier | modifier le code]

Ce cas guide Hilbert dans une nouvelle direction : la généralisation de l'approche aux opérateurs différentiels. Ces opérateurs, comme le laplacien ou le d'alembertien sont la clé d'importants problèmes en physique. Ils peuvent se représenter comme une équation linéaire, mais dans un espace de dimension infinie. Si l'approche générale de Jordan est vouée à l'échec puisque les polynômes ne s'appliquent pas dans ce contexte, en revanche ces opérateurs présentent les bonnes propriétés de compatibilité vis-à-vis d'une distance qu'il est possible de définir sur l'espace. Hilbert propose une approche novatrice qui consiste à étudier les propriétés géométriques de ces espaces de dimension infinie, au lieu de se limiter à une analyse d'un point particulier : la fonction solution de l'équation. Cette approche ouvre une nouvelle branche des mathématiques devenue essentielle au siècle dernier : l'analyse fonctionnelle. La physique moderne, aussi bien sous sa forme quantique que sous sa forme relativiste, utilise largement cette vision des choses.

Cas général de la dimension finie[modifier | modifier le code]

Dans toute cette section, E désigne un espace vectoriel sur un corps K, et sa dimension, supposée finie, est notée n.

Réduction et sous-espaces propres[modifier | modifier le code]

Il existe un premier candidat naturel pour une réduction, elle correspond à une décomposition en sous-espaces propres. Une présentation complète du concept est proposé dans l'article détaillé.

Un vecteur propre est un vecteur non nul dont l'image par u est colinéaire au vecteur d'origine. Le rapport de colinéarité est appelé valeur propre. L'ensemble constitué des vecteurs propres de valeur propre λ, et du vecteur nul, est appelé le sous-espace propre de u associé à la valeur propre λ.

Une décomposition en sous-espaces propres représente donc un grand nombre des propriétés recherchées pour une réduction.

  • Les espaces propres sont des sous-espaces vectoriels non nuls.
  • Ils sont en somme directe.
  • La restriction de l'endomorphisme au sous-espace propre associé à la valeur propre λ est l'homothétie de rapport λ.

Les propriétés recherchées dans la réduction sont « presque » rassemblées.

Diagonalisation[modifier | modifier le code]

Fig. 4. Endomorphisme diagonalisable en dimension 3 sur les nombres réels : un cube est transformé en parallélépipède.
Article détaillé : Diagonalisation.

Il suffirait en effet d'une propriété supplémentaire pour permettre une réduction à l'aide de cette approche : que la somme directe des sous-espaces propres soit l'espace vectoriel entier. Cela équivaut à l'existence d'une base B de vecteurs propres. Les deux propriétés manquantes sont alors réunies, car la réduction est composée de sous-espaces de dimension 1, ceux qui sont engendrés par les vecteurs de la base. Cette décomposition est maximale car il n'existe pas de décomposition en somme directe de sous-espaces non réduits au vecteur nul qui contiennent plus de sous-espaces que la dimension de l'espace.

Le fait que B soit une base garantit que la décomposition engendre bien l'espace entier.

En termes plus formels, les cinq propositions suivantes sont équivalentes. Elles fournissent la définition d'un premier cas de réduction pour u.

  • u est diagonalisable.
  • Il existe une base de vecteurs propres.
  • La somme des dimensions des sous-espaces propres est égale à la dimension de l'espace entier.
  • La somme des sous-espaces propres est l'espace entier.
  • Toute représentation matricielle de u est diagonalisable.

Diagonalisation et polynôme caractéristique[modifier | modifier le code]

Article détaillé : Polynôme caractéristique.

Il existe d'autres propriétés importantes associées à cette définition. Elles proviennent essentiellement d'une approche polynomiale sur l'endomorphisme. Le polynôme caractéristique de u est, en dimension finie, un outil puissant d'analyse des endomorphismes. Il est défini comme le déterminant de XIdu. Comme le déterminant s'annule si et seulement si le noyau de l'application linéaire associée n'est pas réduit au vecteur nul, le polynôme possède comme racines les valeurs propres de l'endomorphisme. Une première propriété simple relie diagonalisabilité et polynôme caractéristique :

  • Si le polynôme caractéristique de u possède n racines distinctes alors u est diagonalisable.

C'est une condition suffisante (d'après le § Réduction et sous-espaces propres, ou comme corollaire de la condition nécessaire et suffisante ci-dessous), mais non nécessaire (en dimension > 1, une homothétie a une unique valeur propre, alors qu'elle est clairement diagonalisable).

Pour formuler une condition nécessaire et suffisante à partir du polynôme caractéristique, deux définitions supplémentaires sont nécessaires :

On a toujours

d_\lambda\le m_\lambda\quad{\rm et}\quad\sum_\lambda m_\lambda\le n

(la seconde inégalité est immédiate et la première s'obtient en complétant une base du sous-espace propre et en calculant le polynôme caractéristique par blocs). Or d'après le § Diagonalisation ci-dessus, u est diagonalisable si et seulement si la somme des dλ est égale à n. On en déduit la condition nécessaire et suffisante :

  • u est diagonalisable si et seulement si la multiplicité géométrique de chaque valeur propre est égale à sa multiplicité algébrique et si le polynôme caractéristique P(X) est scindé, c'est-à-dire de la forme
P(X)=\prod_\lambda(X-\lambda)^{m_\lambda}.

Endomorphisme diagonalisable et polynôme minimal[modifier | modifier le code]

Si l'approche par le polynôme caractéristique offre des premiers résultats, elle n'est néanmoins pas intégralement satisfaisante. En effet, le calcul du polynôme est souvent lourd, et la recherche de la dimension des sous-espaces propres n'est pas simple.

Le concept de polynôme d'endomorphisme propose un autre candidat, souvent plus pertinent pour l'analyse des applications linéaires en dimension finie. C'est le polynôme minimal. À l'instar du polynôme caractéristique, ses racines sont aussi les valeurs propres. Sa spécificité s'exprime dans la condition nécessaire et suffisante suivante :

  • u est diagonalisable si et seulement si son polynôme minimal est scindé sur K et à racines simples.

Cas où le polynôme minimal est scindé[modifier | modifier le code]

Réduction et endomorphisme nilpotent[modifier | modifier le code]

Article détaillé : Endomorphisme nilpotent.

Même dans le cas où le polynôme minimal est scindé, il existe au moins un cas où la diagonalisation est impossible, celui des endomorphismes nilpotents. L'unique valeur propre est 0, donc l'unique sous-espace propre est son noyau. En conséquence le seul endomorphisme nilpotent diagonalisable est l'endomorphisme nul.

Les endomorphismes nilpotents disposent néanmoins d'une réduction traitée et démontrée dans l'article Endomorphisme nilpotent dans le paragraphe nilpotence et réduction en dimension finie. Un sous-espace cyclique de E (pour l'endomorphisme nilpotent u) est un sous-espace vectoriel engendré par une famille de la forme (x, u(x), u2(x), ...).

  • Si u est nilpotent alors E est somme directe de sous-espaces cycliques pour u.

Nous y trouvons bien toutes les caractéristiques d'une réduction, une décomposition en somme directe de sous-espaces stables qui engendre l'espace entier. Dans l'article détaillé on montre de plus que cette décomposition est maximale.

Décomposition de Dunford[modifier | modifier le code]

Article détaillé : Décomposition de Dunford.

Si le cas des endomorphismes nilpotents apparaît dans un premier temps comme une exception au cas diagonalisable, la théorie des polynômes d'endomorphismes nous montre que cette exception est unique. Plus précisément, la proposition suivante, connue sous le nom de décomposition de Dunford est vraie :

  • Si le polynôme minimal de u est scindé alors u est la somme d'un endomorphisme diagonalisable et d'un endomorphisme nilpotent qui commutent entre eux.

Dans le contexte du théorème, le polynôme minimal χ s'écrit sous la forme suivante :

\chi(X)=\prod_\lambda(X-\lambda)^{n_\lambda}\;

Les noyaux Eλ = Ker(u – λId)nλ sont appelés les sous-espaces de E caractéristiques de u.

Les quatre propriétés suivantes résument l'essentiel des propriétés associées à la décomposition de Dunford :

  • Les λ tels que nλ ≠ 0 sont les valeurs propres de u.
  • L'espace E est somme directe des sous-espaces caractéristiques.
  • Les sous-espaces caractéristiques sont stables par u. La restriction de u à Eλ est la somme d'une homothétie de rapport λ et d'un endomorphisme nilpotent d'ordre nλ.
  • Les projecteurs sur les sous-espaces caractéristiques s'expriment sous forme de polynômes d'endomorphisme de u.

Pour que le polynôme minimal soit scindé, il suffit que le corps soit algébriquement clos, comme le corps des complexes. Si le polynôme n'est pas scindé, comme certains polynômes sur le corps des réels, on applique le § Cas d'un corps quelconque ci-dessous.

Réduction de Jordan[modifier | modifier le code]

Article détaillé : Réduction de Jordan.

La décomposition de Dunford n'est néanmoins pas une réduction. En effet, cette décomposition n'est pas maximale. Un sous-espace caractéristique se décompose encore.

Sur un sous-espace caractéristique Ei, la restriction de l'endomorphisme s'exprime comme la somme d'une homothétie et d'un endomorphisme nilpotent. En réduisant cet endomorphisme nilpotent comme indiqué précédemment, on décompose Ei en sous-espaces (stables par l'homothétie). La réduction des endomorphismes nilpotents fournit ainsi une décomposition maximale en sous-espaces stables à l'aide de la définition des espaces de Jordan.

  • Un sous-espace de Jordan pour u est un sous-espace vectoriel de E possédant une base (e1, e2, … , ep) telle que :
    \exists \lambda\in K \;\forall i \in [2,p]\; u(e_i)=\lambda e_i + e_{i-1}\quad{\rm et}\quad u(e_1)=\lambda e_1.
    Cette définition permet de décrire une réduction de Jordan pour u :
  • Si le polynôme minimal de u est scindé alors E est somme directe de sous-espaces de Jordan, et il n'existe aucune décomposition de E en somme directe de sous-espaces, stables par u et non réduits au vecteur nul, comportant plus de composantes qu'une décomposition de Jordan.

Cas d'un corps quelconque[modifier | modifier le code]

La décomposition de Frobenius est la plus adaptée lorsque le polynôme n'est pas scindé et qu'on ne veut pas modifier le corps.

Une autre approche possible consiste à étendre les scalaires : on plonge le corps K dans sa clôture algébrique K puis le K-espace E dans le produit tensoriel E = KK E. Un endomorphisme de E se prolonge alors de façon unique à E. Le point de vue matriciel est alors avantageux puisqu'on conserve la même matrice pour l'endomorphisme initial ou son prolongement : elle est simplement considérée comme matrice de Mn(K). Dans le cas où K est le corps des réels, cette opération s'appelle la complexification.

Utilisation de la réduction en dimension finie[modifier | modifier le code]

La diagonalisation est souvent la meilleure approche pour les problèmes concrets. Les matrices diagonalisables étant denses dans l'ensemble des matrices à coefficients complexes, l'imprécision des données initiales fait qu'une matrice correspondant à un problème réel est toujours diagonalisable.

En statistique, la diagonalisation permet de faire une analyse en composantes principales.

La réduction des matrices (diagonalisation ou réduction de Jordan) permet un calcul des puissances de cette matrice ainsi que de son exponentielle. Par ailleurs, le calcul de exp(tA) est particulièrement utile pour résoudre les systèmes différentiels linéaires à coefficients constants.

Réduction et forme bilinéaire en dimension finie[modifier | modifier le code]

Les matrices symétriques réelles (qui représentent des formes bilinéaires symétriques réelles) sont diagonalisables en base orthonormée.

voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Article connexe[modifier | modifier le code]

Réduction de matrice

Notes et références[modifier | modifier le code]

  1. Yoann Gelineau (Université Claude-Bernard Lyon 1), Densité des matrices diagonalisables dans ℳn(ℂ), d'après Rombaldi, Thèmes pour l'agrégation de mathématiques, p. 51