Méthode de Gauss-Seidel

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

La méthode de Gauss-Seidel est une méthode itérative de résolution d'un système linéaire (de dimension finie) de la forme Ax = b, ce qui signifie qu'elle génère une suite qui converge vers une solution de cette équation, lorsque celle-ci en a une et lorsque des conditions de convergence sont satisfaites (par exemple lorsque A est symétrique définie positive). L'algorithme suppose que la diagonale de A est formée d'éléments non nuls.

La méthode se décline en une version « par blocs ».

Le principe de la méthode peut s'étendre à la résolution de systèmes d'équations non linéaires et à l'optimisation, mais avec des conditions d'efficacité moins claires. En optimisation, l'utilité de cette approche dépendra beaucoup de la structure du problème. Le principe gauss-seidelien permet aussi d'interpréter d'autres algorithmes.

L'algorithme[modifier | modifier le code]

Principe[modifier | modifier le code]

Soit


Ax=b

le système linéaire à résoudre, que l'on suppose écrit sous forme matricielle avec A\in\R^{n\times n} et b\in\R^n, ce qui signifie que l'on cherche x\in\R^n tel que le produit matriciel Ax soit égal à b.

On note a_{ij} les éléments de A et b_i ceux de b :


A=\begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix}
\qquad\mbox{et}\qquad
b = \begin{pmatrix} b_{1} \\ b_2 \\ \vdots \\ b_n \end{pmatrix}.

La méthode de Gauss-Seidel résout le système linéaire Ax=b de manière itérative, ce qui veut dire qu'elle génère une suite de vecteurs x^k\in\R^n, pour k=0,1,2,\dots. On interrompt le calcul de la suite lorsque l'itéré courant, disons x^k, est jugé suffisamment proche d'une solution, par exemple parce que le résidu Ax^k-b est petit.

Soit x^{k}=(x^{k}_1, \ldots, x^{k}_n)\in\R^n l'itéré courant. L'itéré suivant x^{k+1}=(x^{k+1}_1, \ldots, x^{k+1}_n)\in\R^n se calcule en n étapes, comme suit.

  • Étape 1. Si l'on suppose que a_{11}\ne0 et connaissant (x^{k}_2, \ldots, x^{k}_n), on peut calculer x^{k+1}_1 au moyen de la première équation du système linéaire Ax=b. De manière plus précise, x^{k+1}_1 est pris comme solution de
    a_{11}\underline{x^{k+1}_1}+a_{12}x^{k}_2+\cdots+a_{1n}x^{k}_n=b_1,
    ce qui est possible si a_{11}\ne0.
  • Étape 2. Si l'on suppose que a_{22}\ne0 et connaissant (x^{k+1}_1, x^{k}_3, \ldots, x^{k}_n), on peut calculer x^{k+1}_2 au moyen de la deuxième équation du système linéaire Ax=b. De manière plus précise, x^{k+1}_2 est pris comme solution de
    a_{21}x^{k+1}_1+a_{22}\underline{x^{k+1}_2}+a_{23}x^{k}_3+\cdots+a_{2n}x^{k}_n=b_2,
    ce qui est possible si a_{22}\ne0.
  • Étape i\in[\![1,n]\!] (cas général). Si l'on suppose que a_{ii}\ne0 et connaissant (x^{k+1}_1, \ldots, x^{k+1}_{i-1}, x^{k}_{i+1}, \ldots, x^{k}_n), on peut calculer x^{k+1}_i au moyen de la i-ième équation du système linéaire Ax=b. De manière plus précise, x^{k+1}_i est pris comme solution de
    a_{i1}x^{k+1}_1+\cdots+a_{i,i-1}x^{k+1}_{i-1}+a_{ii}\underline{x^{k+1}_i}+a_{i,i+1}x^{k}_{i+1}+\cdots+a_{in}x^{k}_n=b_i,
    ce qui est possible si a_{ii}\ne0.

En résumé, pourvu que les éléments diagonaux de A soient non nuls, on calcule les composantes x^{k+1}_i de x^{k+1} de manière séquentielle pour i=1,\ldots,n par

x^{k+1}_i = \frac{1}{a_{ii}}\left(b_i - \sum_{j=1}^{i-1} a_{ij} x^{k+1}_j - \sum_{j=i+1}^n a_{ij} x^{k}_j\right).

La formule fait intervenir les éléments x^{k+1}_j (j=1,\dots,i-1) calculés dans les étapes précédentes.

Expression matricielle[modifier | modifier le code]

L'expression matricielle de l'algorithme suppose que la matrice A se décompose comme suit


A=L+D+U,

D est la partie diagonale de A, L (pour lower) sa partie triangulaire inférieure stricte et U (pour upper) sa partie triangulaire supérieure stricte.

Une itération de la méthode de Gauss-Seidel, celle passant de x^k à x^{k+1}, consiste alors à résoudre le système triangulaire inférieur

(L+D)x^{k+1} = b-U x^k,

de « haut en bas », c'est-à-dire en déterminant successivement x^{k+1}_1, x^{k+1}_2, ..., x^{k+1}_n.

Convergence[modifier | modifier le code]

La formule de mise à jour des itérés dans la méthode de Gauss-Seidel montre que ceux-ci sont des approximations successives pour le calcul d'un point fixe de l'application


x\mapsto(L+D)^{-1}(b-Ux).

Les propriétés de convergence de la méthode vont donc dépendre du spectre de la matrice (L+D)^{-1}U.

On sait que la méthode de Gauss-Seidel converge, quels que soient le vecteur b et le point initial x^0, dans les situations suivantes :

Discussion[modifier | modifier le code]

Un seul vecteur v\in\R^n suffit pour mémoriser les itérés successifs : à l'étape i, il suffit de mémoriser les éléments déjà calculés de x^{k+1}, à savoir x^{k+1}_j pour j=1,\ldots,i-1, dans v_{1:i-1} et les éléments de x^k encore utiles, à savoir x^k_j pour j=i+1,\ldots,n, dans v_{i+1:n}. Cette faible exigence en espace mémoire peut être un atout dans certaines circonstances.

Contrairement à la méthode de Jacobi, l'algorithme est essentiellement séquentiel et n'est donc pas adapté au calcul parallèle.

Généralisations[modifier | modifier le code]

Méthode par blocs[modifier | modifier le code]

La version par blocs de la méthode de Gauss-Seidel procède de manière similaire à la méthode élément par élément, mais en remplaçant l'utilisation des éléments de A par des sous-matrices de A, appelées ici des blocs.

On suppose que l'ensemble des indices [\![1,n]\!] est partitionné en p sous-intervalles (non vides et deux-à-deux disjoints) :


[\![1,n]\!]=I_1\cup I_2\cup\cdots\cup I_p.

La matrice A et le vecteur b sont alors décomposés comme suit


A=\begin{pmatrix}
A_{I_1I_1} & A_{I_1I_2} & \cdots & A_{I_1I_p} \\
A_{I_2I_1} & A_{I_2I_2} & \cdots & A_{I_2I_p} \\
\vdots     & \vdots     & \ddots & \vdots \\
A_{I_pI_1} & A_{I_pI_2} & \cdots & A_{I_pI_p}
\end{pmatrix}
\qquad\mbox{et}\qquad
b = \begin{pmatrix} b_{I_1} \\ b_{I_2} \\ \vdots \\ b_{I_p} \end{pmatrix},

A_{IJ} est la sous-matrice de A obtenue en sélectionnant les éléments avec indices de ligne dans I et indices de colonnes dans J, tandis que b_I est le sous-vecteur de b obtenu en sélectionnant les éléments avec indices dans I.

La méthode de Gauss-Seidel par blocs suppose que les sous-matrices principales A_{I_iI_i}, avec i\in[\![1,p]\!], sont inversibles.

Une itération de la méthode de Gauss-Seidel par blocs, celle passant de x^k à x^{k+1}, s'écrit de la même manière que la méthode élément par élément, à savoir

(L+D)x^{k+1} = b-U x^k,

mais avec des définitions différentes de L, D et U :


L=\begin{pmatrix}
0          & \cdots & \cdots         & 0      \\
A_{I_2I_1} & \ddots &                & \vdots \\
\vdots     & \ddots & \ddots         & \vdots \\
A_{I_pI_1} & \cdots & A_{I_pI_{p-1}} & 0
\end{pmatrix},
\quad
D=\begin{pmatrix}
A_{I_1I_1} & 0          & \cdots & 0         \\
0          & A_{I_2I_2} & \ddots & \vdots    \\
\vdots     & \ddots     & \ddots & 0         \\
0          & \cdots     & 0      & A_{I_pI_p}
\end{pmatrix}
\quad\mbox{et}\quad
U=A-L-D.

La résolution du système triangulaire par blocs ci-dessus, se fait également de « haut en bas », c'est-à-dire en déterminant successivement x^{k+1}_{I_1}, x^{k+1}_{I_2}, ..., x^{k+1}_{I_p}.

Systèmes d'équations non linéaires[modifier | modifier le code]

Le principe de la méthode de Gauss-Seidel peut également s'appliquer à la résolution d'un système d'équations non linéaires F(x)=0, où F:\R^n\to\R^n. Ce système s'écrit donc sous la forme de n équations non linéaires à n inconnues :


\left\{\begin{array}{l}
F_1(x_1,x_2,\ldots,x_n)=0\\
F_2(x_1,x_2,\ldots,x_n)=0\\
\cdots\\
F_n(x_1,x_2,\ldots,x_n)=0.
\end{array}\right.

La méthode de Gauss-Seidel résout ce système de manière itérative, en générant donc une suite de vecteurs x^k\in\R^n, pour k=0,1,2,\dots. On interrompt le calcul de la suite lorsque l'itéré courant, disons x^k, est jugé suffisamment proche d'une solution, par exemple parce que le résidu F(x^k) est petit.

Soit x^{k}=(x^{k}_1, \ldots, x^{k}_n)\in\R^n l'itéré courant. L'itéré suivant x^{k+1}=(x^{k+1}_1, \ldots, x^{k+1}_n)\in\R^n se calcule en n étapes, comme suit.

  • Étape 1. Connaissant (x^{k}_2, \ldots, x^{k}_n), on calcule x^{k+1}_1 comme solution de l'équation non linéaire (elle est supposée exister) :
    F_1(\underline{x^{k+1}_1}, x^{k}_2, \ldots, x^{k}_n)=0.
  • Étape 2. Connaissant (x^{k+1}_1, x^{k}_3, \ldots, x^{k}_n), on calcule x^{k+1}_2 comme solution de l'équation non linéaire (elle est supposée exister) :
    F_2(x^{k+1}_1, \underline{x^{k+1}_2}, x^{k}_3, \ldots, x^{k}_n)=0.
  • Étape i\in[\![1,n]\!] (cas général). Connaissant (x^{k+1}_1,\ldots,x^{k+1}_{i-1}, x^{k}_{i+1}, \ldots, x^{k}_n), on calcule x^{k+1}_i comme solution de l'équation non linéaire (elle est supposée exister) :
    F_i(x^{k+1}_1, \ldots, x^{k+1}_{i-1}, \underline{x^{k+1}_i}, x^{k}_{i+1}, \ldots, x^{k}_n)=0.

La version par blocs se définit facilement en considérant des groupes d'équations et d'inconnues, au lieu de considérer, comme ci-dessus, équation et inconnue une par une.

Optimisation[modifier | modifier le code]

Le principe de la méthode de Gauss-Seidel décrit dans la section précédente s'applique naturellement au problème d'optimisation non linéaire


\inf_{x\in X}\;f(x),

dans lequel on minimise une fonction f:\R^n\to\R sur un sous-ensemble X de \R^n. Nous présentons directement ci-dessous la version « par blocs », qui est la plus utile lorsque le nombre p de blocs est faible (souvent p=2). La méthode de Gauss-Seidel perd en effet de sa pertinence lorsque p est grand, par manque d'efficacité dans ce cas. La version « élément par élément » peut être vue comme un cas particulier de la version par blocs, obtenue en prenant n blocs de cardinal 1.

On suppose donc que l'ensemble des indices est partitionné en p blocs,


[\![1,n]\!]=I_1\cup I_2\cup\cdots\cup I_p,

et que l'ensemble admissible est un produit cartésien de p ensembles,


X=X_1\times X_2\times\cdots\times X_p,

où chaque X_i est un convexe de \R^{|I_i|}. La variable x\in\R^n se décomposera comme suit


x=(x_{I_1},x_{I_2},\ldots,x_{I_p}).

Lorsque f est différentiable et que X=\R^n, on pourrait obtenir une méthode de Gauss-Seidel en appliquant la méthode de la section précédente à la condition d'optimalité du premier ordre de ce problème d'optimisation sans contrainte, à savoir


\nabla f(x)=0,

qui est un système de n équations non linéaires à n inconnues x=(x_1,\ldots,x_n). Mais on peut préférer, comme ci-dessous, rester dans le domaine de l'optimisation en minimisant f séquentiellement, bloc par bloc. Cette option a l'avantage de pouvoir prendre en compte des contraintes, c'est-à-dire de restreindre les variables à l'ensemble admissible X.

La méthode de Gauss-Seidel[2] résout le problème d'optimisation ci-dessus de manière itérative, en générant donc une suite \{x^k\}\subset\R^n. L'algorithme passe d'un itéré x^k au suivant x^{k+1} en minimisant f un bloc de variables à la fois, en séquence. On interrompt le calcul de la suite lorsque l'itéré courant, disons x^k, est jugé suffisamment proche d'une solution, par exemple parce que la norme du gradient projeté \|g^{\rm\scriptscriptstyle P}(x^k)\| est jugée suffisamment petite.

Algorithme de Gauss-Seidel en optimisation — Une itération passe de l'itéré courant x^k\in X à l'itéré suivant x^{k+1}\in X en p étapes successives, indicées par i=1,\ldots,p :


x^{k+1}_{I_i}\in\operatorname*{arg\,min}_{x_{I_i}\in X_i}\,
f(x^{k+1}_{I_1},\ldots, x^{k+1}_{I_{i-1}}, x_{I_i},x^k_{I_{i+1}}, \ldots, x^k_{I_p}).

La version élément par élément se définit facilement en considérant des blocs I_i de cardinal 1 et en minimisant f composante par composante.

Le résultat suivant montre la convergence de la méthode de Gauss-Seidel lorsque f est de classe C^1, coercive et strictement convexe[3].

Convergence de l'algorithme de Gauss-Seidel en optimisation — Si, pour chaque i\in[\![1,p]\!], X_i est un convexe fermé non vide de \R^{|I_i|} et si f est coercive sur X, strictement convexe sur X et de classe C^1 dans un voisinage de X, alors

  • le problème ci-dessus a une unique solution \bar{x},
  • l'algorithme est bien défini et, quel que soit l'itéré initial x^0\in X, l'algorithme génère une suite \{x^k\}\subset X qui converge vers \bar{x}.

Remarques

  1. Si l'on applique ce résultat au cas où X=\R^n et f est la fonction quadratique x\mapsto \frac{1}{2} x^\top Ax-b^\top x, on retrouve le résultat affirmant que la méthode de Gauss-Seidel par blocs pour résoudre le système linéaire Ax=b converge, quels que soient le vecteur b et le point initial, pourvu que A soit définie positive.
  2. La méthode de Gauss-Seidel est un algorithme lent (il requiert beaucoup d'itérations), dont la mise en œuvre est coûteuse (chaque itération peut demander beaucoup de temps de calcul, selon les cas). Tel qu'il est présenté, il requiert en effet la minimisation exacte de f dans chaque problème intermédiaire et ces p minimisations doivent être réalisées à chaque itération. Son application est donc restreinte au cas où le nombre de blocs est petit.
  3. L'algorithme de Gauss-Seidel ne s'étend pas aisément à des ensembles admissibles plus complexes qu'un produit cartésien d'ensembles convexes. Par exemple si l'on cherche à minimiser composante par composante la fonction linéaire f:\R^2\to\R: (x_1,x_2) \mapsto x_1+x_2 sur l'ensemble X:=\{x\in\R^2_+:x_1x_2\geq1\}, qui n'est pas le produit cartésien de deux intervalles, tout point de la frontière de X est bloquant (c'est-à-dire que l'algorithme ne peut y progresser), alors que seul le point \bar{x}=(1,1) est solution.
  4. En l'absence de convexité, la méthode de Gauss-Seidel ne converge pas nécessairement, même pour des fonctions de classe C^\infty. Powell (1973) a en effet construit plusieurs fonctions conduisant à la non-convergence de la méthode de Gauss-Seidel composante par composante, notamment une fonction C^\infty de trois variables pour laquelle les itérés générés ont un cycle limite formé de 6 points auxquels le gradient n'est pas nul.
  5. D'autres résultats de convergence sont donnés par Luo et Tseng (1992).

Annexes[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. Voir par exemple, P. G. Ciarlet (1982), théorème 5.3.2.
  2. Cette méthode est appelée méthode de relaxation par Glowinski, Lions et Trémolières (1976), mais cette appellation est utilisée pour beaucoup trop d'algorithmes pour qu'elle soit suffisamment discriminante.
  3. Résultat qui semble dû à Glowinski, Lions et Trémolières (1976), théorème 1.2, page 66.

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]

Références[modifier | modifier le code]

  • P. G. Ciarlet (1982). Introduction à l’Analyse Numérique Matricielle et à l’Optimisation. Masson, Paris.
  • R. Glowinski, J.-L. Lions, R. Trémolières (1976). Analyse Numérique des Inéquations Variationnelles - Tome 1 : Théorie Générale et Premières Applications - Tome 2 : Applications aux phénomènes stationnaires et d'évolution. Dunod, Paris.
  • (en) Z.-Q. Luo, P. Tseng (1992). On the convergence of the coordinate descent method for convex differentiable minimization. Journal of Optimization Theory and Applications, 72, 7–35.
  • (en) M. J. D. Powell (1973). On search directions for minimization algorithms. Mathematical Programming, 4, 193–201.