Méthode des moments (analyse numérique)

Un article de Wikipédia, l'encyclopédie libre.

En analyse numérique, la méthode des moments est une méthode de résolution numérique de problèmes linéaires avec conditions aux limites. La méthode consiste à ramener le problème à un système linéaire.

Description de la méthode[modifier | modifier le code]

Discrétisation

La méthode des moments permet de résoudre les équations inhomogènes du type :

L est un opérateur linéaire, f et g deux fonctions. Généralement, on nomme la fonction g le terme excitation ou source, et f le terme de champ ou la réponse, l'inconnu que l'on cherche à déterminer.

La fonction f peut être décomposée sur une base de fonctions :

où les coefficients sont constants. L'opérateur L étant linéaire, on a :

On définit également un produit scalaire dans l'espace des fonctions (généralement un espace de Hilbert) ainsi que des fonctions tests wj dans le domaine de l'opérateur L. En prenant le produit scalaire de l'équation précédente avec chaque wj, on obtient :

Cette série d'équations peut se récrire sous forme matricielle :

Si la matrice L est inversible, alors les coefficients peuvent être calculés par :

Méthode des moments

La méthode des moments consiste à choisir l'ensemble de fonctions-test wi = xi-1

Cas particulier : méthode de Galerkine[modifier | modifier le code]

Lorsque les fonctions tests wi sont choisies telles que wi = fi, cette méthode est connue sous le nom de méthode de Galerkine, du nom du mathématicien russe Boris Galerkine.

Voir aussi[modifier | modifier le code]

Références[modifier | modifier le code]

  • (en) R. Harrington, « Origin and Development of the Method of Moments for Fields Computation », IEEE Antennas and Propagation Magazine,‎ .
  • (en) R. Harrington, « Matrix Methods for Field Problems », Proc. of the IEEE, vol. 55, no 2,‎ .