Résolution numérique des équations différentielles

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En analyse, il existe des procédés de résolution numérique pour les équations différentielles. En effet la résolution explicite, par quadrature est rarement possible.

La première méthode numérique fut introduite en 1768 par Leonhard Euler. Depuis un grand nombre de techniques ont été développées : elles se basent sur la discrétisation de l'intervalle d'étude en un certain nombre de pas. Suivant le type de formule utilisé pour approcher les solutions, on distingue les méthodes numériques à un pas ou à pas multiples, explicites ou implicites.

Il existe plusieurs critères pour mesurer la performance des méthodes numériques : la consistance d'une méthode indique que l'erreur théorique effectuée en approchant la solution tend vers 0 avec les pas. La stabilité indique la capacité à contrôler l'accumulation des erreurs d'arrondi. Ensemble elles assurent la convergence, c'est-à-dire la possibilité de faire tendre l'erreur globale vers 0 avec le pas et donc que la solution calculée soit proche de la solution analytique du problème.

Résolution numérique des équations différentielles ordinaires[modifier | modifier le code]

Les équations différentielles ordinaires peuvent se formuler sous la forme suivante :

Résoudre pour tout t supérieur à t0 :

y'=f(t,y(t)), y(t_0) = y_0

avec f : [t0, +∞) ×RdRd et y0 un vecteur de Rd donné.

C'est un problème de condition initiale, dont le théorème de Picard-Lindelöf garantit l'existence et l'unicité de la solution si f est lipschitzienne. Cette écriture matricielle permet d'étendre ce problème au cas où les dérivées sont d'ordre supérieur, en écrivant le problème pour chacune des dérivées de y.

Les méthodes d'Euler[modifier | modifier le code]

Ces méthodes classiques sont des méthodes à un pas, permettant à partir de la condition initiale de calculer les valeurs de la solution à chaque pas h.

Méthode d'Euler explicite

Elle consiste à faire une approximation de la dérivée par le développement limité direct, ce qui donne

y(t_{n+1})=y(t_n +h) \approx y(t_n) + h y'(t_n) =y(t_n) + h f(t_n,y(t_n)).
Méthode d'Euler implicite

Elle consiste à faire une approximation de la dérivée par le développement limité rétrograde, ce qui donne

y(t_n)=y(t_{n+1} -h) \approx y(t_{n+1}) - h y'(t_{n+1}) =y(t_{n+1}) - h f(t_{n+1},y(t_{n+1})).

On a ainsi un problème à résoudre à chaque itération :

y(t_{n+1})= y(t_n)+ h f(t_{n+1},y(t_{n+1})),

ce qui engendre des calculs plus longs, mais souvent plus stables.

Généralisations

Ces méthodes peuvent être étendues à des méthodes de pas multiples, faisant appel à plusieurs valeurs des solutions numériques pour l'itération, ou en un calcul en plusieurs étapes de chacune des itérations (c'est l'idée des méthodes de Runge-Kutta).

Résolution numérique des équations différentielles partielles[modifier | modifier le code]

Analyse[modifier | modifier le code]

Afin d'estimer la bonne utilisation d'un schéma numérique pour une équation donnée, l'analyse numérique donne trois critères :

  • la convergence, qui garantit que la solution approchée est proche de la solution réelle,
  • l'ordre, qui quantifie la qualité de l'approximation,
  • la stabilité, qui juge du comportement de l'erreur.

Convergence[modifier | modifier le code]

On dit d'une méthode qu'elle est convergente si la solution numérique tend vers la solution exacte quand les paramètres tendent vers 0. Plus précisément, en reprenant les définitions précédentes :

 \forall t > t_0\,\lim_{h\to0^+} \max_{n=0,1,\dots,\lfloor t/h\rfloor} \| y_{n,h} - y(t_n) \| = 0.

C'est une condition nécessaire pour l'utilisation d'un schéma numérique.

Consistance et ordre[modifier | modifier le code]

On considère l'écriture générale d'un schéma numérique :

 y_{n+k} = \Phi(t_{n+k}; y_n, y_{n+1}, \dots, y_{n+k-1}; h). \,

L'erreur locale de troncature de la méthode est l'erreur commise par une itération de la méthode, soit la différence entre la solution calculée et la valeur exacte de la solution, en supposant que l'erreur induite par le calcul des étapes précédentes est nulle :

 \delta^h_{n+k} = \Phi \left( t_{n+k}; y(t_n), y(t_{n+1}), \dots, y(t_{n+k-1}); h \right) - y(t_{n+k}).

La méthode est dite consistante si

 \lim_{h\to 0} \frac{\delta^h_{n+k}}{h} = 0.

La méthode est dite d'ordre p si

 \delta^h_{n+k} = O(h^{p+1}) \quad\mbox{ pour } h\to0.

On voit qu'une méthode est convergente si elle est au moins d'ordre supérieur à 0. Cependant, la consistance n'est qu'une condition nécessaire pour la convergence d'une méthode, elle n'est pas suffisante : la méthode doit être consistante et zéro-stable pour garantir sa convergence.

Stabilité et raideur[modifier | modifier le code]

Article détaillé : Équation différentielle raide.

Pour certaines équations différentielles ordinaires, certains schémas usuels entraînent une solution instable avec des pas trop grands (typiquement les schémas d'Euler ou de Runge-Kutta explicites), tandis que d'autres schémas permettent d'obtenir une solution plus régulière. Le problème peut alors provenir d'une évolution du comportement de la solution au cours du temps.

Références[modifier | modifier le code]

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Articles connexes[modifier | modifier le code]

Bibliographie[modifier | modifier le code]