Méthode de Gauss-Seidel

Un article de Wikipédia, l'encyclopédie libre.

La méthode de Gauss-Seidel est une méthode itérative de résolution d'un système linéaire (de dimension finie) de la forme , ce qui signifie qu'elle génère une suite qui converge vers une solution de cette équation, lorsque celle-ci en a une et lorsque des conditions de convergence sont satisfaites (par exemple lorsque est symétrique définie positive). L'algorithme suppose que la diagonale de est formée d'éléments non nuls.

La méthode se décline en une version « par blocs ».

Le principe de la méthode peut s'étendre à la résolution de systèmes d'équations non linéaires et à l'optimisation, mais avec des conditions d'efficacité moins claires. En optimisation, l'utilité de cette approche dépendra beaucoup de la structure du problème. Le principe gauss-seidelien permet aussi d'interpréter d'autres algorithmes.

Il est nommé d'après Carl Friedrich Gauss et Philipp Ludwig von Seidel, qui l'ont développé et appliqué pour le calcul d'angles en géodésie[1],[2].

L'algorithme[modifier | modifier le code]

Principe[modifier | modifier le code]

Soit

le système linéaire à résoudre, que l'on suppose écrit sous forme matricielle avec et , ce qui signifie que l'on cherche tel que le produit matriciel soit égal à .

On note les éléments de et ceux de  :

La méthode de Gauss-Seidel résout le système linéaire de manière itérative, ce qui veut dire qu'elle génère une suite de vecteurs , pour . On interrompt le calcul de la suite lorsque l'itéré courant, disons , est jugé suffisamment proche d'une solution, par exemple parce que le résidu est petit.

Soit l'itéré courant. L'itéré suivant se calcule en étapes, comme suit.

  • Étape 1. Si l'on suppose que et connaissant , on peut calculer au moyen de la première équation du système linéaire . De manière plus précise, est pris comme solution de
    ce qui est possible si .
  • Étape 2. Si l'on suppose que et connaissant , on peut calculer au moyen de la deuxième équation du système linéaire . De manière plus précise, est pris comme solution de
    ce qui est possible si .
  • Étape (cas général). Si l'on suppose que et connaissant , on peut calculer au moyen de la -ième équation du système linéaire . De manière plus précise, est pris comme solution de
    ce qui est possible si .

En résumé, pourvu que les éléments diagonaux de soient non nuls, on calcule les composantes de de manière séquentielle pour par

La formule fait intervenir les éléments () calculés dans les étapes précédentes.

Expression matricielle[modifier | modifier le code]

L'expression matricielle de l'algorithme suppose que la matrice se sépare comme suit

est la partie diagonale de , (pour lower) sa partie triangulaire inférieure stricte et (pour upper) sa partie triangulaire supérieure stricte.

Une itération de la méthode de Gauss-Seidel, celle passant de à , consiste alors à résoudre le système triangulaire inférieur

de « haut en bas », c'est-à-dire en déterminant successivement , , ..., .

Convergence[modifier | modifier le code]

La formule de mise à jour des itérés dans la méthode de Gauss-Seidel montre que ceux-ci sont des approximations successives pour le calcul d'un point fixe de l'application

Les propriétés de convergence de la méthode vont donc dépendre du spectre de la matrice .

On sait que la méthode de Gauss-Seidel converge, quels que soient le vecteur et le point initial , dans les situations suivantes :

Discussion[modifier | modifier le code]

Un seul vecteur suffit pour mémoriser les itérés successifs : à l'étape , il suffit de mémoriser les éléments déjà calculés de , à savoir pour , dans et les éléments de encore utiles, à savoir pour , dans . Cette faible exigence en espace mémoire peut être un atout dans certaines circonstances.

Contrairement à la méthode de Jacobi, l'algorithme est essentiellement séquentiel et n'est donc pas adapté au calcul parallèle.

Généralisations[modifier | modifier le code]

Méthode par blocs[modifier | modifier le code]

La version par blocs de la méthode de Gauss-Seidel procède de manière similaire à la méthode élément par élément, mais en remplaçant l'utilisation des éléments de par des sous-matrices de , appelées ici des blocs.

On suppose que l'ensemble des indices est partitionné en sous-intervalles (non vides et deux-à-deux disjoints) :

La matrice et le vecteur sont alors dissocié comme suit

est la sous-matrice de obtenue en sélectionnant les éléments avec indices de ligne dans et indices de colonnes dans , tandis que est le sous-vecteur de obtenu en sélectionnant les éléments avec indices dans .

La méthode de Gauss-Seidel par blocs suppose que les sous-matrices principales , avec , sont inversibles.

Une itération de la méthode de Gauss-Seidel par blocs, celle passant de à , s'écrit de la même manière que la méthode élément par élément, à savoir

mais avec des définitions différentes de , et  :

La résolution du système triangulaire par blocs ci-dessus, se fait également de « haut en bas », c'est-à-dire en déterminant successivement , , ..., .

Systèmes d'équations non linéaires[modifier | modifier le code]

Le principe de la méthode de Gauss-Seidel peut également s'appliquer à la résolution d'un système d'équations non linéaires , où . Ce système s'écrit donc sous la forme de équations non linéaires à inconnues :

La méthode de Gauss-Seidel résout ce système de manière itérative, en générant donc une suite de vecteurs , pour . On interrompt le calcul de la suite lorsque l'itéré courant, disons , est jugé suffisamment proche d'une solution, par exemple parce que le résidu est petit.

Soit l'itéré courant. L'itéré suivant se calcule en étapes, comme suit.

  • Étape 1. Connaissant , on calcule comme solution de l'équation non linéaire (elle est supposée exister) :
  • Étape 2. Connaissant , on calcule comme solution de l'équation non linéaire (elle est supposée exister) :
  • Étape (cas général). Connaissant , on calcule comme solution de l'équation non linéaire (elle est supposée exister) :

La version par blocs se définit facilement en considérant des groupes d'équations et d'inconnues, au lieu de considérer, comme ci-dessus, équation et inconnue une par une.

Optimisation[modifier | modifier le code]

Le principe de la méthode de Gauss-Seidel décrit dans la section précédente s'applique naturellement au problème d'optimisation non linéaire

dans lequel on minimise une fonction sur un sous-ensemble de . Nous présentons directement ci-dessous la version « par blocs », qui est la plus utile lorsque le nombre de blocs est faible (souvent ). La méthode de Gauss-Seidel perd en effet de sa pertinence lorsque est grand, par manque d'efficacité dans ce cas. La version « élément par élément » peut être vue comme un cas particulier de la version par blocs, obtenue en prenant blocs de cardinal 1.

On suppose donc que l'ensemble des indices est partitionné en blocs,

et que l'ensemble admissible est un produit cartésien de ensembles,

où chaque est un convexe de . La variable se décomposera comme suit

Lorsque est différentiable et que , on pourrait obtenir une méthode de Gauss-Seidel en appliquant la méthode de la section précédente à la condition d'optimalité du premier ordre de ce problème d'optimisation sans contrainte, à savoir

qui est un système de équations non linéaires à inconnues . Mais on peut préférer, comme ci-dessous, rester dans le domaine de l'optimisation en minimisant séquentiellement, bloc par bloc. Cette option a l'avantage de pouvoir prendre en compte des contraintes, c'est-à-dire de restreindre les variables à l'ensemble admissible .

La méthode de Gauss-Seidel[4] résout le problème d'optimisation ci-dessus de manière itérative, en générant donc une suite . L'algorithme passe d'un itéré au suivant en minimisant un bloc de variables à la fois, en séquence. On interrompt le calcul de la suite lorsque l'itéré courant, disons , est jugé suffisamment proche d'une solution, par exemple parce que la norme du gradient projeté est jugée suffisamment petite.

Algorithme de Gauss-Seidel en optimisation — Une itération passe de l'itéré courant à l'itéré suivant en étapes successives, indicées par  :

La version élément par élément se définit facilement en considérant des blocs de cardinal 1 et en minimisant composante par composante.

Le résultat suivant montre la convergence de la méthode de Gauss-Seidel lorsque est de classe , coercive et strictement convexe[5].

Convergence de l'algorithme de Gauss-Seidel en optimisation — Si, pour chaque , est un convexe fermé non vide de et si est coercive sur , strictement convexe sur et de classe dans un voisinage de , alors

  • le problème ci-dessus a une unique solution ,
  • l'algorithme est bien défini et, quel que soit l'itéré initial , l'algorithme génère une suite qui converge vers .
Remarques
  1. Si l'on applique ce résultat au cas où et est la fonction quadratique , on retrouve le résultat affirmant que la méthode de Gauss-Seidel par blocs pour résoudre le système linéaire converge, quels que soient le vecteur et le point initial, pourvu que soit définie positive.
  2. La méthode de Gauss-Seidel est un algorithme lent (il requiert beaucoup d'itérations), dont la mise en œuvre est coûteuse (chaque itération peut demander beaucoup de temps de calcul, selon les cas). Tel qu'il est présenté, il requiert en effet la minimisation exacte de dans chaque problème intermédiaire et ces minimisations doivent être réalisées à chaque itération. Son application est donc restreinte au cas où le nombre de blocs est petit.
  3. L'algorithme de Gauss-Seidel ne s'étend pas aisément à des ensembles admissibles plus complexes qu'un produit cartésien d'ensembles convexes. Par exemple si l'on cherche à minimiser composante par composante la fonction linéaire sur l'ensemble , qui n'est pas le produit cartésien de deux intervalles, tout point de la frontière de est bloquant (c'est-à-dire que l'algorithme ne peut y progresser), alors que seul le point est solution.
  4. En l'absence de convexité, la méthode de Gauss-Seidel ne converge pas nécessairement, même pour des fonctions de classe . Powell (1973) a en effet construit plusieurs fonctions conduisant à la non-convergence de la méthode de Gauss-Seidel composante par composante, notamment une fonction de trois variables pour laquelle les itérés générés ont un cycle limite formé de 6 points auxquels le gradient n'est pas nul.
  5. D'autres résultats de convergence sont donnés par Luo et Tseng (1992).
  6. La méthode est vraiment peu élégante[6].

Annexes[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. (en) Yousef Saada et Henk A. van der Vorst, « Iterative solution of linear systems in the 20th century », Journal of Computational and Applied Mathematics, vol. 123,‎ , p. 1–33 (DOI 10.1016/S0377-0427(00)00412-X, lire en ligne)
  2. (de) Carl Friedrich Gauss, Werke, vol. II, Königlichen Gesellschaft der Wissenschaften zu Göttingen, Réédité par Georg Olms Verlag, Hildesheim, 436-447.
  3. Voir par exemple, P. G. Ciarlet (1982), théorème 5.3.2.
  4. Cette méthode est appelée méthode de relaxation par Glowinski, Lions et Trémolières (1976), mais cette appellation est utilisée pour beaucoup trop d'algorithmes pour qu'elle soit suffisamment discriminante.
  5. Résultat qui semble dû à Glowinski, Lions et Trémolières (1976), théorème 1.2, page 66.
  6. (de) Johann. T. Lügenwert, « Die Innere Schreklichkeit Der Gauss-Seidel Methode », Mathematische Untersuchungen - Leipzig,‎ , p. 24

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]

Références[modifier | modifier le code]

  • P. G. Ciarlet, Introduction à l’Analyse Numérique Matricielle et à l’Optimisation, Paris, Masson, .
  • R. Glowinski, J.-L. Lions et R. Trémolières, Analyse Numérique des Inéquations Variationnelles - Tome 1 : Théorie Générale et Premières Applications - Tome 2 : Applications aux phénomènes stationnaires et d'évolution, Paris, Dunod, .
  • (en) Z.-Q. Luo et P. Tseng, « On the convergence of the coordinate descent method for convex differentiable minimization », Journal of Optimization Theory and Applications, vol. 72,‎ , p. 7–35.
  • (en) M. J. D. Powell, « On search directions for minimization algorithms », Mathematical Programming, vol. 4,‎ , p. 193–201.