Équation différentielle linéaire
Une équation différentielle linéaire est un cas particulier d'équation différentielle pour lequel on peut appliquer des procédés de superposition de solutions, et exploiter des résultats d'algèbre linéaire. De nombreuses équations différentielles de la physique vérifient la propriété de linéarité. De plus, les équations différentielles linéaires apparaissent naturellement en perturbant une équation différentielle (non linéaire) autour d'une de ses solutions.
Une équation différentielle linéaire scalaire se présente comme une relation entre une ou plusieurs fonctions inconnues et leurs dérivées, de la forme
où a0, a1, … an, b sont des fonctions numériques continues.
Une équation différentielle linéaire vectorielle aura le même aspect, en remplaçant les ai par des applications linéaires (ou souvent des matrices) fonctions de x et b par une fonction de x à valeurs vectorielles. Une telle équation sera parfois aussi appelée système différentiel linéaire.
L'ordre de l'équation différentielle correspond au degré maximal de différentiation auquel une des fonctions inconnues y a été soumise, n dans l'exemple précédent. Il existe des méthodes générales de résolution pour les équations différentielles linéaires scalaires d'ordre 1 à coefficients variables ou d'ordre n à coefficients constants.
Généralités sur l'équation différentielle linéaire scalaire
Celle-ci s'écrit, sous sa forme la plus générale :
où a0, a1, … an, b sont des fonctions continues sur I un intervalle réel, à valeurs réelles ou complexes.
Équation homogène
Cette équation, appelée aussi équation sans second membre, s'écrit :
Si l'on dispose de n « intégrales » (i.e. : solutions) particulières linéairement indépendantes :
en multipliant chaque équation respectivement par les constantes C1, ..., Cn, la fonction
qui dépend de n constantes arbitraires satisfait l'équation : c'est l'intégrale générale de celle-ci.
Équation non homogène
Si, à cette fonction dépendant de n constantes arbitraires, est ajoutée une intégrale particulière de l'équation complète, la somme des deux satisfait l'équation complète : c'est l'intégrale générale de l'équation non homogène. Une autre méthode, celle de la variation des constantes, fournit directement (lorsqu'elle est praticable) l'intégrale générale.
Cas de l'équation à coefficients constants
L'équation s'écrit alors :
En cherchant une solution de la forme y = erx, on obtient l'équation caractéristique :
Si les n racines sont distinctes, cette équation fait apparaître les n fonctions indépendantes suffisantes pour déterminer toutes les solutions de l'équation homogène. Une racine réelle correspond à une exponentielle tandis qu'une paire de racines complexes conjuguées se traduit par une exponentielle multipliée par une sinusoïde.
Dans le cas de l'équation complète, il ne reste plus qu'à trouver une seule solution de celle-ci. C'est particulièrement simple dans le cas important d'un second membre sinusoïdal ou lorsque celui-ci peut être décomposé en sommes de sinusoïdes (voir Analyse spectrale). Pour d'autres types de seconds membres, la transformation de Laplace fournit un certain nombre de solutions.
Pour les résolutions explicites à l'ordre un et l'ordre deux, on pourra consulter les articles équation différentielle linéaire d'ordre un et équation différentielle linéaire d'ordre deux.
Équation différentielle linéaire vectorielle
Écriture générale
Soient I intervalle réel et E et F deux espaces vectoriels normés. Soient n + 1 fonctions a0, a1, … an continues sur I à valeurs dans ℒ(E,F) et b une fonction continue sur I à valeurs dans F. L'équation
est appelée équation différentielle linéaire d'ordre n sur I.
Une solution de cette équation est une fonction y de classe Cn de I dans E telle que
Principe de superposition
L'équation homogène E0 associée à l'équation Eb ci-dessus est :
Toute combinaison linéaire de solutions, sur un sous-intervalle J de I, de l'équation homogène E0, est elle aussi solution : l'espace S0 de ces solutions est un sous-espace vectoriel de l'espace des fonctions définies sur J.
Étant donnée une solution y de Eb sur J, les autres sont les fonctions de la forme y + z avec z solution arbitraire de E0 sur J : l'espace Sb de ces solutions est un espace affine de direction S0.
Forme résolue
Sur tout intervalle où an(x) est constamment inversible, l'équation se réécrit sous forme résolue (en posant et ):
On vérifie que c0, c1, … , cn-1 sont continues à valeurs dans les endomorphismes, ℒ(E).
Réduction à l'ordre 1
Toute équation différentielle (linéaire) peut être réduite à une équation (linéaire) d'ordre 1, à condition de modifier l'espace vectoriel en conséquence.
On prend en effet comme nouveaux espaces vectoriels En et Fn, comme nouvelle fonction inconnue le vecteur
L'équation équivalente vérifiée par les composantes de Y est
qui est bien une équation différentielle d'ordre 1, et qui reste sous forme résolue si l'équation de départ l'était.
Par exemple, l'équation différentielle linéaire d'ordre deux, résolue et autonome
à valeurs dans ℝ se transforme en équation du premier ordre à valeurs dans ℝ2 : la fonction inconnue de la nouvelle équation différentielle est une fonction x ↦ v(x) = (y(x), z(x)) de ℝ dans ℝ2 et l'équation s'écrit :
où g est l'endomorphisme de ℝ2 défini par g(y, z) = (z, y). Autrement dit :
c'est-à-dire que la dérivée de la fonction y est égale à z et la dérivée de z est égale à y, ce qui signifie que la dérivée seconde de y est égale à y. La nouvelle équation est bien équivalente à l'ancienne.
Écriture matricielle
Si E et F sont de dimension finie (sur le corps des réels par exemple) respectivement d et m, en fixant des bases de E et de F, une équation différentielle linéaire vectorielle peut s'écrire matriciellement. Soient n + 1 fonctions A0, A1, … An continues sur l'intervalle réel I à valeurs dans l'espace des matrices Mm,d(ℝ) et b une fonction continue sur I à valeurs dans ℝm. On considère l'équation d'inconnue Y de classe Cn de I dans ℝd :
Comme précédemment, on peut toujours se ramener à une équation linéaire d'ordre 1 sur des espaces augmentés :
où A et B sont des fonctions continues sur I à valeurs dans l'espace des matrices carrées Mnm,nd(ℝ), et c une fonction continue sur I à valeurs dans ℝnd. L'équation précédente est sous forme résolue si A est la matrice identité.
Équation différentielle linéaire sous forme résolue
L'équation d'ordre 1 sert de référence pour toute la théorie, puisque les équations d'ordre supérieur peuvent s'y ramener. La forme résolue, ou explicite, permet d'avoir de bons résultats théoriques d'existence et d'unicité.
Écritures
Écriture générale
D'après ce qui précède, une équation différentielle linéaire d'ordre 1 sous forme résolue s'écrit
Ici, b est une fonction continue d'un intervalle réel I à valeurs dans un espace vectoriel normé E, et a est une fonction continue de I à valeurs dans ℒ(E).
Écriture matricielle
Si E est un espace vectoriel réel de dimension finie d, alors en fixant une base de E, l'équation peut s'écrire matriciellement, avec une fonction A continue sur I à valeurs dans l'espace des matrices carrées Md(ℝ) et B une fonction continue sur I à valeurs dans ℝd. L'équation devient
Écriture en composantes
L'écriture matricielle ci-dessus peut s'écrire sous la forme d'un système
où les coefficients ai,j sont des fonctions à valeurs réelles.
Existence et unicité des solutions
Pour identifier complètement une solution de l'équation, on peut imposer des conditions initiales, c'est-à-dire la valeur y0 de y au point x0. On appelle problème de Cauchy l'ensemble constitué par l'équation différentielle et la condition initiale
Le théorème de Cauchy-Lipschitz permet d'affirmer que ce problème de Cauchy admet une solution unique. De plus, contrairement aux équations différentielles générales, la particularité des équations linéaires est que les solutions maximales sont toujours définies sur I entier[1].
Autrement dit, si Sb désigne l'espace des solutions sur I de l'équation, l'application valeur en x0 :
est bijective.
En particulier pour b = 0, c'est donc un isomorphisme d'espaces vectoriels et l'espace vectoriel S0 est de même dimension que E.
Si E est de dimension finie d, résoudre l'équation homogène revient donc à trouver d solutions y1, ..., yd linéairement indépendantes, qui formeront alors une base de S0. Une telle base est appelée système fondamental de solutions. L'isomorphisme de Cauchy-Lipschitz a une conséquence surprenante : si en un point x, les vecteurs y1(x), … , yd(x) sont indépendants, alors en tout autre point x', les vecteurs y1(x'), … , yd(x') le sont également.
Pour tester si d solutions sont linéairement indépendantes, il suffit donc de vérifier si d vecteurs de E sont indépendants. On calcule donc un déterminant adapté : le wronskien.
Méthodes de résolution
L'équation différentielle la plus simple est y' = b, qui consiste en un calcul de primitive. Sous certaines hypothèses, il est possible de se ramener à cette forme par changement de fonction. La résolution explicite des équations différentielles par des formules de quadrature, c'est-à-dire impliquant les fonctions usuelles et la primitivation, est cependant rarement possible.
Les deux cas particuliers qui suivent n'en ont que plus d'importance.
Équation différentielle linéaire scalaire d'ordre 1
On considère l'équation y' = ay + b dans le cas où E est le corps des réels ou des complexes. Soit A une primitive de la fonction a. Alors le changement de fonction
permet de ramener l'équation différentielle à un problème de calcul de primitive :
Les solutions sont donc de la forme où z est une primitive de la fonction
Équation différentielle linéaire d'ordre 1, à coefficients constants
L'équation considérée est cette fois l'équation vectorielle y' = Ay + B, mais avec l'hypothèse que la matrice A est indépendante de x, d'où l'expression coefficients constants quand on considère le système associé. Le vecteur B, lui peut être variable.
En faisant appel à la notion d'exponentielle d'endomorphisme, le changement de fonction
permet de ramener, là encore, l'équation différentielle à un problème de calcul de primitive
En particulier dans le cas homogène, c'est-à-dire si B = 0, la solution générale est z = constante donc les solutions de l'équation différentielle sont y(x) = exAy0.
Pour résoudre effectivement une telle équation, il est donc nécessaire, outre la primitivation, de faire un calcul d'exponentielle d'endomorphisme, ce qui fait intervenir les techniques de réduction.
Cas général : résolvante
Quand on revient à l'équation générale y' = A y + B où A et B sont variables, il est tentant de reprendre la formule de changement de fonction utilisée dans le cas scalaire. Malheureusement, la formule de dérivation des exponentielles de matrices ne s'étend pas en général à ce cas-là. Le seul point sur lequel achoppe la démonstration est, en notant C une primitive de A, la non-commutation de C(x) et de A(x), de sorte que si cette condition est réalisée pour tout x (comme dans le cas où A est constante), la méthode fonctionne et l'on aboutit au même résultat que pour une équation scalaire[2],[3]. Mais cela ne procure pas de méthode générale.
Il existe toutefois une solution formelle au problème. Étant donné a une fonction à valeurs dans ℒ(E), on note R(x, x0) la solution globale, fournie par le théorème de Cauchy-Lipschitz, du problème de Cauchy à valeurs dans l'espace vectoriel ℒ(E) :
Autrement dit, la fonction de deux variables associée à l'application continue a de I dans ℒ(E) est l'application, appelée résolvante[4] :
caractérisée par :
Elle fournit de ce fait la solution globale de tout problème de Cauchy à valeurs dans E homogène, c'est-à-dire de la forme
par
Ceci est une autre caractérisation de R, dont il résulte que
en particulier chaque R(x, y) est inversible et
On peut d'ailleurs construire R directement sans faire appel au théorème de Cauchy-Lipschitz, par une formule « explicite » bien que peu utile en pratique :
Dans le cas d'une équation à coefficients constants, la résolvante est simplement
La résolvante fournit non seulement les solutions de l'équation homogène y' = a • y mais permet encore de ramener l'équation générale y' = a•y + b à un calcul de primitive par changement de fonction : en posant
on obtient en effet
et
Équation différentielle linéaire sous forme non résolue
On a vu précédemment que les systèmes d'équations différentielles linéaires réelles, de dimension finie et d'ordre quelconque, peuvent s'écrire sous la forme matricielle
où A et B sont des fonctions continues d'un intervalle réel I à valeurs dans l'espace des matrices Mm , n(ℝ) et c une fonction continue sur I à valeurs dans ℝm.
Dans le cas où m = n et A est la matrice identité, le système est sous forme résolue et a été traité dans la section précédente. On peut se ramener à cette situation dans le cas plus général où m = n et la matrice A est inversible, en multipliant les deux membres de l'équation (*) par l'inverse A-1. Dans cette section, on s'intéresse au cas où la matrice A n'est pas inversible, au moins pour une valeur de I. On parle alors d'équations différentielles algébriques (en) linéaires. L'étude de ce problème a été initiée par Karl Weierstrass et Leopold Kronecker, dans le cas où les coefficients sont constants.
Cas de l'équation à coefficients constants
Dans le cas où les matrices A et B sont constantes (et c est une fonction continue à valeurs vectorielles), la recherche de solutions sous la forme amène à considérer le faisceau de matrices (en)
- .
On distingue alors trois cas selon le rang des matrices λA+B et les dimensions du problème[5],[6].
- Si rang(λA+B)< n pour tout λ∈ℝ, alors il existe une famille de vecteurs vλ∈ℝn non nuls tels que yλ =e-λxvλ est une solution de l'équation homogène, Ay' + By = 0. En particulier, pour tout choix de n + 1 réels λi, il existe une combinaison linéaire des yλi qui est une solution non triviale de l'équation homogène avec donnée initiale nulle. Ainsi, pour toute solution de l'équation différentielle, il en existe une infinité possédant la même donnée initiale.
- S'il existe un réel λ tel que le rang(λA+B) = n = m (cas régulier), alors le couple de matrices (A, B) est équivalent au couple matriciel suivant :
- où Ia est la matrice identité de taille a, N∈Mn-a est nilpotente d'indice ν, et M∈Ma, et N et M sont sous forme réduite de Jordan. L'indice ν est appelé indice de Kronecker. L'équation différentielle se réduit alors en un système de deux équations différentielles linéaires indépendantes :
- La première équation est sous forme résolue et donc possède une unique solution pour toute donnée initiale. La seconde se résout après (ν-1) dérivations successives : Il existe donc une solution si c2 est suffisamment régulière et est compatible avec la donnée initiale.
- S'il existe un réel λ tel que rang(λA+B) = n < m, alors une matrice de permutation permet de réécrire l'équation différentielle sous la forme du système
- où la première équation satisfait l'hypothèse du cas régulier précédent. Le système possède donc une solution pour une donnée initiale fixée si la première équation en possède une, et que celle-ci vérifie également la seconde.
Résolution pratique
On peut résoudre un problème régulier de la manière suivante[5] . En utilisant la méthode du pivot de Gauss, on peut réécrire l'équation différentielle sous la forme
où la matrice A1 est de rang plein par construction. On dérive alors la contrainte algébrique B2y = c2, et l'on injecte l'expression obtenue dans le système :
On réitère ensuite le processus jusqu'à ce que la matrice multipliant y' soit inversible, auquel cas on peut se ramener à une équation différentielle sous forme résolue. On obtient ainsi pour toute donnée initiale une unique solution possible à l'équation différentielle de départ, qui sera effectivement une solution si elle vérifie les contraintes algébriques obtenues au cours du processus (avant dérivation).
Le nombre minimal d'étapes de la procédure précédente à effectuer correspond à l'indice de Kronecker. À la différence de ce dernier, cette notion d'indice appelée indice de différentiation s'étend au contexte linéaire à coefficients variables.
Notes et références
- Jean-Pierre Demailly, Analyse numérique et équations différentielles [détail des éditions], p. 198.
- (en) V. V. Nemytskii et V. V. Stepanov (ru), Qualitative Theory of Differential Equations, Dover, (1re éd. 1960) (lire en ligne), p. 278.
- (en) Irving J. Epstein, « Conditions for a Matrix to Commute with its Integral », Proc. Amer. Math. Soc., vol. 14, no 2, , p. 266-270 (lire en ligne).
- Demailly, p. 210-211.
- Fabien Monfreda, Etude et résolution d'équations différentielles algébriques avec applications en génie des procédés (thèse de doctorat en Mathématiques appliquées), (lire en ligne)
- (en) Gerhard Wanner et Ernst Hairer, Solving Ordinary Differential Equations II: Stiff and Differential-Algebraic Problems,