Méthode de surrelaxation successive

Un article de Wikipédia, l'encyclopédie libre.

En analyse numérique, la méthode de surrelaxation successive (en anglais : Successive Overrelaxation Method, abrégée en SOR) est une variante de la méthode de Gauss-Seidel pour résoudre un système d'équations linéaires. La convergence de cet algorithme est généralement plus rapide. Une approche similaire peut être appliquée à bon nombre de méthodes itératives.

Cette méthode a été découverte simultanément par David M. Young, Jr. (en) et Stan Frankel en 1950 dans le but de résoudre automatiquement des systèmes linéaires avec des ordinateurs. Les méthodes de surrelaxations ont été utilisées auparavant. On citera la méthode de Lewis Fry Richardson et la méthode de R. V. Southwell. Ces méthodes étaient conçues pour des êtres humains et elles requéraient une expertise certaine afin d'assurer la convergence. Ces méthodes ne pouvaient être retranscrites sur ordinateur. Ces limitations ont été discutées dans la thèse de David Young[1]

Formulation[modifier | modifier le code]

On considère un système linéaire de n équations avec n inconnues notées x (qui est un vecteur) :

où :

A étant la somme d'une matrice diagonale notée D et de deux matrices triangulaires (respectivement inférieure et supérieure) notées L et U :

le système d'équations linéaires peut être reformulé par :

pour tout ω > 0.

La méthode de surrelaxation successive est une méthode itérative initialisée par le choix d'un arbitraire, et où chaque itération consiste à déterminer à l'aide de selon la formule suivante :

La matrice de gauche (D+ωL) étant triangulaire, il est aisé de calculer par :

Le choix du facteur de relaxation n'est pas trivial et dépend des coefficients de la matrice. Pour une matrice définie positive, on peut démontrer que l'algorithme est convergent pour tout . Toutefois, on veut une convergence aussi rapide que possible. Notons que pour un facteur de relaxation de 1, on tombe sur la méthode de Gauss-Seidel

Algorithme[modifier | modifier le code]

Entrée: A, b, ω
Sortie:

On choisit une solution initiale arbitraire . Répéter jusqu'à convergence

Boucler i de 1 à n
Boucler j de 1 à i − 1
Fin (boucle j)
Boucler j de i + 1 à n
Fin (boucle j)
Fin (boucle i)
Vérifier la convergence.

Fin (boucle répétition)

Note:
peut aussi être écrit . Ceci économise une multiplication à chaque itération.

Autre applications de la méthode[modifier | modifier le code]

Une technique similaire peut être utilisée pour toute méthode itérative. On suppose que l'itération peut être écrite sous la forme :

alors la méthode modifiée devient :

ou de manière équivalente :

En pratique, le choix est utilisé pour accélérer la convergence tandis que le choix est souvent utilisé pour faire converger un processus divergent.

Il existe de nombreuses méthodes pour décider de la valeur à donner au paramètre , basées sur le comportement de l'algorithme. En principe ces méthodes permettent d'avoir une convergence superlinéaire dans beaucoup de cas, mais elles peuvent échouer dans certains cas.

Voir aussi[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. David M. Young, Iterative methods for solving partial difference equations of elliptical type, vol. PhD thesis, Harvard University, (lire en ligne)

Références[modifier | modifier le code]

Lien externe[modifier | modifier le code]

(en) Module for the SOR Method