Différence finie
En mathématiques, et plus précisément en analyse, une différence finie est une expression de la forme f(x + b) − f(x + a) (où f est une fonction numérique) ; la même expression divisée par b − a s'appelle un taux d'accroissement (ou taux de variation), et il est possible, plus généralement, de définir de même des différences divisées. L'approximation des dérivées par des différences finies joue un rôle central dans les méthodes des différences finies utilisées pour la résolution numérique des équations différentielles, tout particulièrement pour les problèmes de conditions aux limites.
Les opérateurs mettant en jeu des différences finies, appelés opérateurs de différence, font l'objet d'une branche de l'analyse mathématique possédant de nombreux points communs avec la théorie des opérateurs différentiels ; certaines de ces analogies ont été systématisées et exploitées par le calcul ombral.
Opérateurs de différence finie
[modifier | modifier le code]On considère en général uniquement les différences « en avant », « en arrière » et « centrées ».
L'opérateur de différence avant, , est défini par
- , où h est le plus souvent une constante, qu'on appelle le pas.
De même, l'opérateur de différence arrière, , est défini par
- .
Enfin, l'opérateur de différence centrée, , est défini par
- .
Relation avec les dérivées
[modifier | modifier le code]Le nombre dérivé d'une fonction f en un point x est défini par la limite
- .
Si h a une valeur fixée (non nulle), le terme de droite est
- .
Ainsi, la différence avant divisée par h approxime le nombre dérivé quand h est petit. L'erreur de cette approximation peut être déterminée à l'aide de la formule de Taylor. Supposant que f est continument dérivable,
- (où O est une notation de Landau).
La même formule est valable pour la différence arrière :
- .
Cependant, la différence centrale donne une approximation plus précise ; son erreur est proportionnelle au carré du pas (si f est de classe ) :
- .
En analyse non standard, on définit directement la dérivée comme l’ombre (le réel standard le plus proche) d’une différence finie de pas infinitésimal.
Différences d'ordre supérieur
[modifier | modifier le code]De manière analogue, on peut obtenir des approximations de dérivées d'ordre supérieur. Ainsi, appliquant la formule de différence centrale précédente à la dérivée de en x, et utilisant les différences centrales pour et , on obtient une approximation (par différences centrales) de la dérivée seconde de :
Plus généralement, les différences avant, arrière et centrale d'ordre n (où la notation , par exemple, correspond au n-ième itéré de , c'est-à-dire que n fois), sont respectivement données par
- ,
- ,
On le déduit facilement (par récurrence) de la formule de Pascal sur les coefficients binomiaux .
Il faut remarquer que dans le cas des différences centrales, pour tout impair, est multiplié par des non-entiers ; ce qui peut être un problème dans des applications où cela change l'intervalle de discrétisation ; dans ce cas, une solution peut être de prendre la moyenne de et de .
Il est enfin possible d'utiliser les différences itérées pour approximer des dérivées de tout ordre, et même d'employer un nombre de termes dissymétrique autour de la valeur centrale, ce qui est utile lorsqu'on effectue des calculs sur une grille, pour compenser les effets de bord[1]. La relation entre les différences itérées et les dérivées d'ordre correspondant est très simple :
Les différences d'ordre supérieur peuvent être également utilisées pour obtenir de meilleures approximations. Comme on l'a vu, les différences du premier ordre approximent les dérivées (premières) à un terme d'ordre h près. Mais la combinaison
est une approximation de f'(x) à un terme d'ordre h2 près ; ceci peut se montrer en développant l'expression précédente par la formule de Taylor, ou en utilisant le calcul symbolique des différences finies (voir infra).
La suite des différences avant de au point est la transformée binomiale de la suite ; elle a diverses propriétés combinatoires remarquables. Ces différences avant peuvent notamment être évaluées en utilisant l'intégrale de Nörlund-Rice. La représentation intégrale de ce type de suites est importante car l'intégrale peut souvent être évaluée en utilisant un développement asymptotique ou une méthode du point col alors que ces suites peuvent être très difficiles à évaluer numériquement, car les coefficients binomiaux croissent rapidement avec n.
Ces différences itérées possèdent des propriétés formelles utiles :
- Pour tous k et n entiers positifs
- Formule de Leibniz :
Méthodes des différences finies
[modifier | modifier le code]En analyse numérique, une importante application des différences finies est la résolution numérique des équations différentielles et des équations aux dérivées partielles : l'idée est de remplacer les dérivées apparaissant dans l'équation par des différences finies qui les approximent. Les diverses méthodes qui en résultent sont appelées méthodes des différences finies.
De nombreuses applications de ces méthodes se rencontrent en théorie du calcul numérique, ainsi que dans des disciplines scientifiques très variées, telles que la mécanique des fluides, et ses applications à la météorologie ou à l'aérodynamique.
Séries de Newton
[modifier | modifier le code]Le développement en série de Newton[2] d'une fonction au point est la série suivante :
- , où
désigne le coefficient binomial généralisé et
est la « factorielle descendante », le produit vide (x)0 étant par convention égal à 1.
D'après le théorème d'interpolation de Newton et le lien entre différences finies et différences divisées, la somme partielle jusqu'à est le polynôme d'interpolation de Lagrange de aux points . Par conséquent :
Toute fonction polynomiale est égale à sa série de Newton.
Cette égalité permet par exemple de démontrer l'involutivité de la transformation binomiale.
Elle est valide aussi pour certaines fonctions analytiques, mais pas toutes[3].
Ce développement en série de Newton correspond au cas des différences finies de pas h = 1. Si l'on itère un opérateur ayant un pas quelconque, la formule devient
On notera une similarité de ce développement de Newton avec le théorème de Taylor ; ce fut historiquement cette observation, ainsi que l'identité de Chu-Vandermonde, , qui en dérive, qui amenèrent au calcul ombral.
Pour illustrer comment l'on peut utiliser ce développement de Newton, considérons les trois points (1, 2), (2, 2) et (3, 4). On peut trouver leur polynôme d'interpolation en calculant d'abord une table de différences, et en substituant alors les différences qui correspondent à (les valeurs soulignées de la table) dans la formule, comme suit :
En analyse p-adique, le théorème de Mahler affirme que l'hypothèse que f soit un polynôme peut être relâchée, et il suffit que f soit continue.
Le théorème de Carlson fournit une condition nécessaire et suffisante pour que la série de Newton soit unique, si elle existe (car il est possible que la série de Newton n'existe pas).
Cette formule d'interpolation de Newton, comme celles de Stirling et de Selberg, sont un cas spécial de suites de différences (en), toutes définies en termes de différences avant renormalisées.
Le calcul symbolique des différences finies
[modifier | modifier le code]L'opérateur de différence avant envoie la fonction f vers Δh[f]. Cet opérateur vérifie , où est l'opérateur de translation de pas , défini par , et est l'identité (, et ). est un opérateur linéaire, et il satisfait à la règle du produit (on dit parfois que c'est une dérivation ; voir aussi à ce sujet l'article « Corps différentiel »). Les opérateurs de différence arrière et centrale obéissent à des règles similaires.
On a , , et , expressions qui peuvent se développer par la formule du binôme (appliquée à l'algèbre des opérateurs), puisque et commutent. On vérifie alors que les formules données plus haut pour les différences d'ordre supérieur coïncident avec ces développements, ce qui justifie les notations choisies.
Appliquant le théorème de Taylor (par rapport à h), on obtient
où D désigne l'opérateur de dérivation usuel, envoyant f vers sa dérivée f'. Inversant (formellement) l'exponentielle, on peut donc penser que
Cette formule est correcte quand on l'applique à une fonction f polynomiale, car alors la série se réduit à une somme finie. En revanche, même si f est analytique, il n'est pas garanti que la série converge : ce pourrait n'être qu'un développement asymptotique. Elle peut cependant être utilisée pour obtenir des approximations plus précises de la dérivée de f. Ainsi, les deux premiers termes de la série donnent l'approximation du second ordre à mentionnée à la fin de la section sur les différences d'ordre supérieur.
On a des formules analogues pour les différences arrière et centrale :
Toutes ces formules se généralisent encore à celles du calcul ombral et à d'autres formules de l'analyse combinatoire ; ainsi, l'opérateur inverse de l'opérateur de différence avant est celui de somme indéfinie (en), ce qui a permis à Lagrange une « démonstration » abstraite de la formule d'Euler-Maclaurin, en l'interprétant comme l'inverse symbolique de la formule de Taylor[4].
Généralisations
[modifier | modifier le code]Une différence finie généralisée est d'habitude définie par
où est le vecteur de coefficients qui lui est associé. Une différence infinie en est une généralisation supplémentaire, où la somme finie précédente est remplacée par une série (infinie). Une autre sorte de généralisation consiste à faire dépendre les coefficients du point : , on parle alors de différences finies pondérées ; on peut aussi faire dépendre le pas du point : . Toutes ces généralisations sont utiles pour construire différents modules de continuité.
Différences finies à plusieurs variables
[modifier | modifier le code]Il est possible de calculer des différences finies dans le cas de fonctions à plusieurs variables ; elles sont l'analogue discret des dérivées partielles. On obtient ainsi les approximations suivantes :
- .
Notes et références
[modifier | modifier le code]- Les détails sont analysés dans cette série de notes (en).
- (en) Isaac Newton, Philosophiae naturalis principia mathematica, (lire en ligne), Book III, Lemma V, Case 1.
- Pour plus de précisions, voir (en) Francis B. Hildebrand (en), Introduction to Numerical Analysis, Dover, , 2e éd. (1re éd. 1956) (lire en ligne), p. 157.
- Joseph-Louis Lagrange, Œuvres, vol. 3, p. 441 et suivantes.
Voir aussi
[modifier | modifier le code]Bibliographie
[modifier | modifier le code]- (en) William F. Ames, Numerical Methods for Partial Differential Equations, New York, Academic Press, , 365 p. (ISBN 0-12-056760-1), Section 1.6.
- (en) Francis B. Hildebrand (en), Finite-Difference Equations and Simulations, Englewood Cliffs, New Jersey, Prentice-Hall, , Section 2.2.
- (en) George Boole, A Treatise On The Calculus of Finite Differences, Macmillan and Company, , 2e éd.. [Voir aussi : Dover edition 1960].
- (en) Robert D. Richtmyer et K. W. Morton, Difference Methods for Initial Value Problems, New York, Wiley, , 2e éd..
- (en) E. T. Whittaker et G. Robinson, The Calculus of Observations : a Treatise on Numerical Mathematics, (lire en ligne), « Interpolation with equal intervals of the argument », p. 1-19.