Équation différentielle linéaire

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Une équation différentielle linéaire est un cas particulier d'équation différentielle pour lequel on peut appliquer des procédés de superposition de solutions, et exploiter des résultats d'algèbre linéaire. De nombreuses équations différentielles de la physique vérifient la propriété de linéarité.

Une équation différentielle linéaire scalaire se présente comme une relation entre une ou plusieurs fonctions inconnues et leurs dérivées, de la forme

a_ny^{(n)}+\ldots+a_2y''+a_1y'+a_0y=b

a_0, a_1, … a_n, b sont des fonctions numériques continues.

Une équation différentielle linéaire vectorielle aura le même aspect, en remplaçant les a_i par des applications linéaires (ou souvent des matrices) fonctions de x et b par une fonction de x à valeurs vectorielles. Une telle équation sera parfois aussi appelée système différentiel linéaire.

L'ordre de l'équation différentielle correspond au degré maximal de différentiation auquel une des fonctions inconnues y a été soumise, n dans l'exemple précédent. Il existe des méthodes générales de résolution pour les équations différentielles linéaires scalaires d'ordre 1 à coefficients variables ou d'ordre n à coefficients constants.

Généralités sur l'équation différentielle linéaire scalaire[modifier | modifier le code]

Celle-ci s'écrit, sous sa forme la plus générale :

a_n(x)y^{(n)}+\ldots+a_2(x)y''+a_1(x)y'+a_0(x)y=b(x).

Équation homogène[modifier | modifier le code]

Cette équation, appelée aussi équation sans second membre, s'écrit :

a_n(x)y^{(n)}+\ldots+a_2(x)y''+a_1(x)y'+a_0(x)y=0.

Si on dispose de n « intégrales » (i.e. : solutions) particulières linéairement indépendantes :


\begin{array}{c}
a_n(x)y_1^{(n)}+\ldots+a_2(x)y_1''+a_1(x)y_1'+a_0(x)y_1=0\\
\cdots\\
a_n(x)y_n^{(n)}+\ldots+a_2(x)y_n''+a_1(x)y_n'+a_0(x)y_n=0
\end{array}

en multipliant chaque équation respectivement par les constantes C_1,\ldots,C_n, la fonction

y=C_1 y_1+\ldots+C_n y_n

qui dépend de n constantes arbitraires satisfait l'équation : c'est l'intégrale générale de celle-ci.

Équation non homogène[modifier | modifier le code]

Si, à cette fonction dépendant de n constantes arbitraires, est ajoutée une intégrale particulière de l'équation complète, la somme des deux satisfait l'équation complète : c'est l'intégrale générale de l'équation non homogène. Une autre méthode, celle de la variation des constantes, fournit directement (lorsqu'elle est praticable) l'intégrale générale.

Cas de l'équation à coefficients constants[modifier | modifier le code]

L'équation s'écrit alors :

a_ny^{(n)}+\ldots+a_2y''+a_1y'+a_0y=0

En cherchant une solution de la forme y = e^{rx}\,, on obtient l'équation caractéristique :

a_nr^n+a_{n-1}r^{n-1}+\ldots+a_1r+a_0=0.

Si les n racines sont distinctes, cette équation fait apparaître les n fonctions indépendantes suffisantes pour déterminer toutes les solutions de l'équation homogène. Une racine réelle correspond à une exponentielle tandis qu'une paire de racines complexes conjuguées se traduit par une exponentielle multipliée par une sinusoïde.

Dans le cas de l'équation complète, il ne reste plus qu'à trouver une seule solution de celle-ci. C'est particulièrement simple dans le cas important d'un second membre sinusoïdal ou lorsque celui-ci peut être décomposé en sommes de sinusoïdes (voir Analyse spectrale). Pour d'autres types de seconds membres, la transformation de Laplace fournit un certain nombre de solutions.

Équation différentielle linéaire vectorielle[modifier | modifier le code]

Écriture générale[modifier | modifier le code]

Soient I intervalle réel et E espace vectoriel normé. Soient n + 1 fonctions a0, a1, … an continues sur I à valeurs dans ℒ(E) et b une fonction continue sur I à valeurs dans E. L'équation

a_n\cdot y^{(n)}+\ldots+a_2\cdot y''+a_1\cdot y'+a_0\cdot y=b

est appelée équation différentielle linéaire d'ordre n sur I.

Une solution de cette équation est une fonction y de classe Cn de I dans E telle que

a_n(x)(y^{(n)}(x))+\ldots+a_2(x)(y''(x))+a_1(x)(y'(x))+a_0(x)(y(x))=b(x).

Principe de superposition[modifier | modifier le code]

L'équation homogène E0 associée à l'équation Eb ci-dessus est :

a_n\cdot z^{(n)}+\ldots+a_2\cdot z''+a_1\cdot z'+a_0\cdot z=0.

Toute combinaison linéaire de solutions, sur un sous-intervalle J de I, de l'équation homogène E0, est elle aussi solution : l'espace S0 de ces solutions est un sous-espace vectoriel de l'espace des fonctions définies sur J.

Étant donnée une solution y de Eb sur J, les autres sont les fonctions de la forme y + z avec z solution arbitraire de E0 sur J : l'espace Sb de ces solutions est un espace affine de direction S0.

Écriture matricielle[modifier | modifier le code]

Si E est de dimension finie d, en fixant une base de E, l'équation peut s'écrire matriciellement. Soient n + 1 fonctions A_0, A_1, … , A_n continues sur I à valeurs dans l'espace des matrices carrées Md(ℝ) et B une fonction continue sur I à valeurs dans ℝd :

A_nY^{(n)}+\ldots+A_2Y''+A_1Y'+A_0Y=B.

Forme résolue[modifier | modifier le code]

Sur tout intervalle où a_n(x) est constamment inversible, l'équation se réécrit sous forme résolue (en posant c_j(x)=-(a_n(x))^{-1}\circ a_j(x) et d(x)=(a_n(x))^{-1}(b(x))):

y^{(n)}=c_{n-1}\cdot y^{(n-1)}+\ldots+c_1\cdot y'+c_0\cdot y+d.

Réduction à 1 de l'ordre[modifier | modifier le code]

Toute équation différentielle (linéaire) peut être vue comme une équation (linéaire) d'ordre 1, à condition de modifier l'espace vectoriel en conséquence.

On prend en effet comme nouvel espace vectoriel En, comme nouvelle fonction inconnue le vecteur

Y=(y,y',\dots,  y^{(n-1)})=(Y_0,\dots, Y_{n-1})

L'équation équivalente vérifiée par les composantes de Y est

\begin{cases}Y'_0=Y_1\\
\dots  \\
Y'_{n-2}=Y_{n-1}\\
a_n\cdot Y'_{n-1}=-a_0\cdot Y_0-a_1\cdot Y_1-\ldots a_{n-1}\cdot Y_{n-1}+b\end{cases}\,

qui est bien une équation différentielle d'ordre 1, et qui reste sous forme résolue si l'équation de départ l'était.

Par exemple, l'équation différentielle linéaire d'ordre deux, résolue et autonome

\frac {\mathrm d^2 y}{\mathrm dx^2} = y

à valeurs dans ℝ se transforme en équation du premier ordre à valeurs dans ℝ2 : la fonction inconnue de la nouvelle équation différentielle est une fonction xv(x) = (y(x), z(x)) de ℝ dans ℝ2 et l'équation s'écrit :

\frac {\mathrm d v}{\mathrm dx} = g(v)

g est l'endomorphisme de ℝ2 défini par g(y, z) = (z, y). Autrement dit :

\begin{cases}\frac{\mathrm dy}{\mathrm dx}=z\\\frac{\mathrm dz}{\mathrm dx}=y\end{cases}

c'est-à-dire que la dérivée de la fonction y est égale à z et la dérivée de z est égale à y, ce qui signifie que la dérivée seconde de y est égale à y. La nouvelle équation est bien équivalente à l'ancienne.

Équation différentielle linéaire d'ordre 1 sous forme résolue[modifier | modifier le code]

L'équation d'ordre 1 sert de référence pour toute la théorie, puisque les équations d'ordre supérieur peuvent s'y ramener. La forme résolue, ou explicite, permet d'avoir de bons résultats théoriques d'existence et d'unicité.

Écritures[modifier | modifier le code]

Écriture générale

D'après ce qui précède, une équation différentielle linéaire d'ordre 1 sous forme résolue s'écrit

y'= a\cdot y+b.

Écriture matricielle

Si E est de dimension finie d, en fixant une base de E, l'équation peut s'écrire matriciellement, avec une fonction A continue sur I à valeurs dans l'espace des matrices carrées Md(ℝ) et B une fonction continue sur I à valeurs dans ℝd. L'équation devient

Y'=A  Y + B.

Écriture en composantes

L'écriture matricielle prend la forme d'un système

\begin{cases} y'_1&= a_{11} y_1 +\dots + a_{1d}y_d+b_1\\
&\dots \\
y'_d&= a_{d1} y_1 +\dots + a_{dd}y_d+b_d.\end{cases}

Existence et unicité des solutions[modifier | modifier le code]

Pour identifier complètement une solution de l'équation on peut imposer des conditions initiales, c'est-à-dire la valeur y0 de y au point x0. On appelle problème de Cauchy l'ensemble constitué par l'équation différentielle Eb et la condition initiale

\begin{cases} y'=ay+b\\ y(x_0)=y_0.\end{cases}

Le théorème de Cauchy-Lipschitz permet d'affirmer que ce problème de Cauchy admet une solution unique (tandis que les équations du premier ordre sous forme générale ay' + by = c – non « résolue » – ne bénéficient pas de ce théorème). De plus, par rapport aux équations différentielles générales, la particularité des équations linéaires est que les fonctions solutions sont définies sur I entier.

Autrement dit, si Sb désigne l'espace des solutions sur I de l'équation Eb, l'application valeur en x0 :

\begin{matrix} S_b&\longrightarrow & E\\
y&\longmapsto & y(x_0)\end{matrix}

est bijective.

En particulier pour b = 0, c'est donc un isomorphisme d'espaces vectoriels et l'espace vectoriel S0 est de même dimension que E.

Si E est de dimension finie d, résoudre l'équation homogène revient donc à trouver d solutions y1, ..., yd linéairement indépendantes, qui formeront alors une base de S0. Une telle base est appelée système fondamental de solutions. L'isomorphisme de Cauchy-Lipschitz a une conséquence surprenante : si en un point x, les vecteurs y1(x), … , yd(x) sont indépendants, alors en tout autre point x', les vecteurs y1(x'), ..., yd(x') le sont également.

Pour tester si d solutions sont linéairement indépendantes, il suffit donc de vérifier si d vecteurs de E sont indépendants. On calcule donc un déterminant adapté : le wronskien.

Utilisations de l'exponentielle pour la résolution systématique[modifier | modifier le code]

L'équation différentielle la plus simple est y' = b, qui consiste en un calcul de primitive. Sous certaines hypothèses, il est possible de se ramener à cette forme par changement de fonction. La résolution explicite des équations différentielles par des formules de quadrature, c'est-à-dire impliquant les fonctions usuelles et la primitivation, est cependant rarement possible.

Les deux cas particuliers qui suivent n'en ont que plus d'importance.

Équation différentielle linéaire scalaire d'ordre 1[modifier | modifier le code]

On considère l'équation y' = ay + b dans le cas où E est le corps des réels ou des complexes. Soit A une primitive de la fonction a. Alors le changement de fonction

z(x)=e^{-A(x)} y(x)

permet de ramener l'équation différentielle à un problème de calcul de primitive :

\left[ \forall x \in I, y'(x)=a(x)y(x)+b(x)\right]\Leftrightarrow \left[\forall x \in I, \, z'(x)=e^{-A(x)} b(x)\right].

Équation différentielle linéaire d'ordre 1, à coefficients constants[modifier | modifier le code]

L'équation considérée est cette fois l'équation vectorielle y' = ay + b, mais avec l'hypothèse que a est indépendant de x, d'où l'expression coefficients constants quand on considère le système associé. Le vecteur b, lui peut être variable.

En faisant appel à la notion d'exponentielle d'endomorphisme, le changement de fonction

z(x)={\rm e}^{-xa} (y(x))

permet de ramener, là encore, l'équation différentielle à un problème de calcul de primitive

\left[ \forall x \in I, y'(x)=a(y(x))+b(x)\right]\Leftrightarrow \left[\forall x \in I, \, z'(x)={\rm e}^{-xa} (b(x))\right].

(En particulier dans le cas homogène, c'est-à-dire si b = 0, la solution générale est z = constante donc y(x) = exa(y0).)

Pour résoudre effectivement une telle équation, il est donc nécessaire, outre la primitivation, de faire un calcul d'exponentielle d'endomorphisme, ce qui fait intervenir les techniques de réduction.

Cas général : résolvante[modifier | modifier le code]

Quand on revient à l'équation vectorielle générale y' = ay + b, il est tentant de reprendre la formule de changement de fonction (A désignant une primitive de a)

z(x)=e^{-A(x)} y(x)

puisqu'elle fonctionne dans le cas scalaire.

Malheureusement, la formule de dérivation des exponentielles de matrices ne s'étend pas en général à ce cas-là. Le seul point sur lequel achoppe la démonstration est la non-commutation de A(x) et de A'(x), de sorte que si cette condition est réalisée pour tout x, la méthode fonctionne et on aboutit au même résultat que pour une équation scalaire. Mais cela ne procure pas de méthode générale.

Il existe toutefois une solution formelle au problème : on note R(x, x0) la solution globale, fournie par le théorème de Cauchy-Lipschitz, du problème de Cauchy à valeurs dans ℒ(E) :

\begin{cases}r'(x)=a(x)\circ r(x)\\r(x_0)=\mathrm{Id}_E.\end{cases}

Autrement dit, la fonction de deux variables associée à l'application continue a de I dans ℒ(E) est l'application, appelée résolvante[1] :

R:I\times I\to\mathcal L(E)

caractérisée par :

\forall x,y\in I,\quad R(x,x)=\mathrm{Id}_E\quad\text{et}\quad\frac{\partial}{\partial x}R(x,y)=a(x)\circ R(x,y).

Elle fournit de ce fait la solution globale de tout problème de Cauchy à valeurs dans E de la forme

\begin{cases} y'=a\cdot y\\ y(x_0)=y_0\end{cases}

par

y(x)=R(x,x_0)\cdot y_0.

Ceci est une autre caractérisation de R, dont il résulte que

\forall x,y,z\in I,\quad R(x,y)\circ R(y,z)=R(x,z),

en particulier chaque R(x, y) est inversible et

R(x,y)^{-1}=R(y,x).

On peut d'ailleurs construire R directement sans faire appel au théorème de Cauchy-Lipschitz, par une formule « explicite » bien que peu utile en pratique :

R(x,y)=\mathrm{Id}_E+\sum_{n\ge 1}\int_{y\le x_1\le\ldots\le x_n\le x}a(x_n)\circ\ldots\circ a(x_1)\mathrm dx_1\ldots\mathrm dx_n.

Dans le cas d'une équation à coefficients constants, la résolvante est simplement

R(x,y)={\rm e}^{(x-y)a}.

La résolvante fournit non seulement les solutions de l'équation homogène y' = ay mais permet encore de ramener l'équation générale y' = ay + b à un calcul de primitive par changement de fonction : en posant

z(x)=R(x_0,x)\cdot y(x)

on obtient en effet

y(x)=R(x,x_0)\cdot z(x)

et

\left[y(x_0)=y_0\text{ et }y'(x)=a(x)\cdot y(x)+b(x)\right]\Leftrightarrow\left[z(x_0)=y_0\text{ et }z'(x)=R(x_0,x)\cdot b(x)\right].

Méthode variationnelle ou des variations de constantes[modifier | modifier le code]

On considère un système d'équations différentielles quelconque du type y' = f(x, y). On considère une solution approchée  y_0. On définit alors y = y_0 + \delta y. On résout alors :

 (y_0 + \delta y)' = f(x,y_0 + \delta y) \simeq f(x,y_0) + f'_y(x,y_0) \delta y.

On obtient alors l'équation affine suivante:

 \delta y' = f'_y(x,y_0) \delta y + f(x,y_0) - y'_0.

La matrice f'_y(x,y_0) dépend de x et on utilise la méthode décrite ci-dessus. La convergence est quadratique et donc l'équation différentielle peut être résolue de manière exacte généralement en 3 à 4 itérations.

Note et référence[modifier | modifier le code]

  1. Jean-Pierre Demailly, Analyse numérique et équations différentielles [détail des éditions], p. 210-211

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Système mécanique linéaire