Sous-espace de Krylov

Un article de Wikipédia, l'encyclopédie libre.

En algèbre linéaire, le sous-espace de Krylov d'ordre r associé à une matrice de taille et un vecteur b de dimension n est le sous-espace vectoriel linéaire engendré par les vecteurs images de b par les r premières puissances de A (à partir de )[1], c'est-à-dire

Introduction[modifier | modifier le code]

Le concept porte le nom du mathématicien appliqué et ingénieur naval russe Alexei Krylov, qui a publié un article à ce sujet en 1931[2].

Propriétés[modifier | modifier le code]

Les sous-espaces de Krylov ont de nombreuses propriétés utilisées en algèbre linéaire. Soit . En considérant une matrice de taille et le vecteur colonne , on a les propriétés suivantes[3] :

  • ,
  • .

Comme on a et il existe un entier dépendant de et tel que les vecteurs sont linéairement indépendants tant que . De plus, on sait que d'après la première relation d'imbrication ci-dessus. La valeur désigne la dimension maximale des sous-espaces de Krylov associés à et .

On a les relations d'imbrication suivantes :

On rappelle que pour tout on a . On en déduit que . De plus, on a . Plus précisément, est inférieur au degré du polynôme minimal de . En effet, si est le polynôme minimal de alors il existe une famille de réels tels que est la matrice nulle. En particulier est le vecteur nul donc les vecteurs sont liés. Plus exactement, , où est le polynôme minimal de .


Les propriétés qui suivent sont aussi vérifiées par les sous-espaces de Krylov:

  • est un sous-module cyclique généré par de la torsion -module , où est l'espace linéaire sur .
  • peut être décomposé comme la somme directe des sous-espaces de Krylov.

Applications[modifier | modifier le code]

Les sous-espaces de Krylov sont utilisés dans de nombreux algorithmes numériques en algèbre linéaire. Par exemple, on mentionne les utilisations suivantes :

  • le calcul de est une fonction analytique. Comme est analytique, il existe des réels tels que . Comme et par construction des sous-espaces de Krylov, pour suffisamment grand, on a . Le calcul peut être effectué en se ramenant à l'espace de Krylov . Cette approche est parfois utilisée pour calculer [4] pour la résolution de systèmes d'équation différentielle linéaires.
  • la résolution du système linéaire est une matrice inversible. D'après le théorème de Cayley-Hamilton, on a donc la résolution du système peut se faire dans des sous-espaces de Krylov. Les algorithmes GMRES et FOM[5],[6] sont des algorithmes itératifs pour la résolution de système linéaires basés sur les sous-espaces de Krylov.
  • la recherche de valeurs propres. Pour trouver des solutions approchées à des problèmes de vecteurs propres avec des matrices de grande dimension, les méthodes itératives modernes, telles que l'algorithme d'Arnoldi, peuvent être utilisées pour trouver une (ou plusieurs) valeurs propres de grandes matrices creuses. La méthode de la puissance itérée et l'algorithme de Lanczos reposent sur des sous-espaces de Krylov.
  • la résolution de système mal posés de la forme (où peut-être une matrice rectangulaire et/ou une matrice non-inversible). On peut par exemple citer les méthodes de type RRGMRES[7] qui reposent sur des sous-espaces de Krylov de la forme . La solution d'un tel système est généralement considérée au sens des moindres carrés et n'est pas toujours unique.

Dans les algorithmes itératifs basés sur les sous-espaces de Krylov, on cherche à éviter les opérations matrice-matrice, coûteuses en calculs, au profit de produits matrice-vecteur. Étant donné le vecteur , on calcule , puis on multiplie ce vecteur par pour trouver etc. De plus, au lieu de stocker des matrices complètes de taille ( ou par exemple), on ne stocke qu'un vecteur de taille . Grâce à ces propriétés, les sous-espaces de Krylov sont particulièrement utiles pour les grandes valeurs de .

Tous les algorithmes qui fonctionnent de cette manière sont appelés méthodes de sous-espace de Krylov, ou plus simplement méthodes de Krylov. Ils font actuellement parti des méthodes les plus efficaces disponibles en algèbre linéaire numérique.

Inconvénients[modifier | modifier le code]

Étant donné que les vecteurs deviennent généralement rapidement presque linéairement dépendants en raison des propriétés de la méthode de la puissance itérée, les méthodes reposant sur le sous-espace de Krylov impliquent fréquemment un schéma d'orthonormalisation, comme l'algorithme de Lanczos pour les matrices hermitiennes ou l'algorithme d'Arnoldi pour les matrices plus générales.

Méthodes existantes[modifier | modifier le code]

Les méthodes de sous-espace de Krylov les plus connues sont Arnoldi, Lanczos, Conjugate gradient, IDR(s) (Induced dimension reduction), GMRES (généralisation de la méthode de minimisation du résidu), BiCGSTAB (méthode du gradient biconjugué stabilisé), QMR (quasi minimal résiduel), TFQMR (QMR sans transposition) et les méthodes de résidus minimaux.

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. Valeria Simoncini (dir.), Krylov Subspaces, Princeton University Press, coll. « The Princeton Companion to Applied Mathematics », , 113–114 p.
  2. (ru) Krylov, « О численном решении уравнения, которым в технических вопросах определяются частоты малых колебаний материальных систем », Izvestiia Akademii nauk SSSR, vol. 7, no 4,‎ , p. 491–539 (lire en ligne)
  3. (en) Yousef Saad, Iterative Methods for Sparse Linear Systems (ISBN 0-89871-534-2, lire en ligne)
  4. (en) Marlis Hochbruck, « On Krylov subspace approximations to the matrix exponential operator », SIAM Journal of Numerical Analysis,‎ (lire en ligne Accès limité [PDF])
  5. (en) Yousef Saad, « GMRES: A generalized minimal residual algorithm for solving nonsymmetric linear systems », SIAM Journal on scientific and statistical computing 7.3,‎ (lire en ligne Accès libre [PDF])
  6. (en) Yousef Saad, Iterative Methods for Sparse Linear Systems, Society for Industrial and Applied Mathematics, , 553 p. (ISBN 978-3-030-55250-3, lire en ligne), p. 165-193
  7. (en) Aminikhah, H, « Preconditioned RRGMRES for discrete Ill-posed problems », International Journal of Computational Methods, vol. 15, no 04,‎ (lire en ligne Accès payant [PDF])

Référence[modifier | modifier le code]