Différentielle

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur les redirections Pour différentiel en mécanique, voir différentiel.
Page d'aide sur l'homonymie Ne pas confondre avec la notion de différentielle en algèbre homologique.

En analyse fonctionnelle et vectorielle, on appelle différentielle d'ordre 1 d'une fonction en un point a (ou dérivée de cette fonction au point a) la partie linéaire de l'accroissement de cette fonction entre a et a+h lorsque h tend vers 0. Elle généralise aux fonctions de plusieurs variables la notion de nombre dérivé d'une fonction d'une variable réelle, et permet ainsi d'étendre celle de développements limités. Cette différentielle n'existe pas toujours, et une fonction possédant une différentielle est appelée une fonction différentiable. On peut ensuite calculer des différentielles d'ordre supérieur à 1.

On utilise la notation différentielle avec beaucoup d'efficacité dans le cadre du calcul d'approximations et du calcul de dérivées. Elle facilite la formule de la dérivée de la composée. Elle se révèle très pratique dans le changement de variable en calcul intégral.

Dans l'approche de Leibniz, la différentielle d'une fonction est son « accroissement infinitésimal », qui s'écrit comme une combinaison des accroissements infinitésimaux des différentes variables. Ainsi pour une fonction f des variables x et y, son accroissement infinitésimal \mathrm df s'exprime sous la forme :

\mathrm df = \frac{\partial f}{\partial x} \mathrm dx+ \frac{\partial f}{\partial y} \mathrm dy=p\,\mathrm dx+q\,\mathrm dy

\frac{\partial f}{\partial x} et \frac{\partial f}{\partial y} sont les dérivées partielles de f.

Le calcul différentiel ainsi conçu, s'il était un outil de calcul efficace, manquait d'un fondement rigoureux, en particulier en ce qui concerne la notion de quantité infinitésimale[1]. La notion moderne de différentielle est l'outil algébrique qui permet de passer des accroissements finis des variables \delta x, \delta y à l'accroissement de la fonction \delta f, en se limitant au premier ordre d'approximation. Mathématiquement, il n'est plus question de petite variation mais de calcul au premier ordre, dont la définition s'exprime sous forme d'une limite.

Il convient cependant de ne pas négliger la puissance d'évocation et l'efficacité dans les calculs du point de vue original de Leibniz. C'est ce qui explique qu'il reste massivement utilisé, notamment par les physiciens. En introduisant la notion avancée de calcul tensoriel sur les variétés, les mathématiciens ont pu assurer un statut précis aux notations différentielles de tous ordres.

Première approche[modifier | modifier le code]

Fonction d'une seule variable[modifier | modifier le code]

Le calcul différentiel, pour les fonctions d'une seule variable, se confond avec la dérivation. Soit f une fonction d'une variable réelle, à valeurs réelles ; on notera y=f(x) le résultat de l'application de f. Elle est dite dérivable en a lorsque

f(a + h) = f(a) + f'(a) \cdot h + h \varepsilon(h)

\varepsilon est une fonction ayant une limite nulle en 0. On résume souvent cela par la notation (souvent dite notation de Landau)

f(a + h) = f(a) + f'(a) \cdot h + o(h)

Intuitivement ce calcul de limite, qui porte le nom de développement limité à l'ordre 1 pour la fonction f en a, signifie qu'en première approximation, pour h proche de 0, l'expression f(a+h) est peu différente de l'expression f(a) + f'(a) \cdot h. Notamment parmi les expressions de la forme \alpha + \beta h, c'est celle-ci qui donne la meilleure approximation de f(a+h).

Introduction intuitive des notations du calcul infinitésimal[modifier | modifier le code]

Dans de nombreuses applications, des notations parlantes sont employées pour décrire cette situation. On convient de noter le nombre h par \mathrm dx pour indiquer qu'il représente une très petite variation de x par rapport à la valeur de référence a. On note \mathrm dy la variation de l'image par rapport à la valeur de référence :

\mathrm dy=f(a+h)-f(a) \simeq f'(a)\mathrm dx.

Le point de vue couramment adopté (surtout en Physique), abusif en toute rigueur[1], est que pour des variations suffisamment petites, on peut écrire \mathrm dy=f'(a)\mathrm dx. Cette présentation escamote en effet la nécessité d'utiliser un calcul de limite, car même pour des variations très petites, le terme d'erreur noté o(h) ci-dessus n'a pas de raison d'être nul. Mathématiquement parlant il serait plus juste de noter cela

\delta y \simeq f'(a)\delta x,

car les mathématiciens prouvent la formule exacte \mathrm dy=f'(a)\mathrm dx, en donnant aux notations \mathrm dx et \mathrm dy un sens précis qui n'est pas celui de petites variations et qui sera détaillé plus bas.

Fonction de deux variables[modifier | modifier le code]

Soit f une fonction des deux variables x et y ; on notera z=f(x,y) le résultat de l'application de f.

Valeur attendue pour la différentielle[modifier | modifier le code]

De nouveau la question posée peut être formulée ainsi : lorsque, par rapport à des valeurs de référence a et b, on augmente les variables x et y des quantités \mathrm dx et \mathrm dy, quel est l'effet (au premier ordre) sur la variable z ?

Les dérivées partielles permettent de répondre à la question lorsqu'une des deux variations est nulle. Ainsi, parce que c'est un simple calcul de dérivée de fonction d'une variable, il est possible d'écrire

\mathrm dz = \frac{\partial f}{\partial x} (a,b) \mathrm dx \text{ lorsque } \mathrm dy=0

et de même en inversant les rôles : si \mathrm dx est nul, \mathrm dz se calcule à l'aide de la deuxième dérivée partielle.

Il semblerait naturel que lorsqu'on augmente x et y respectivement des quantités \mathrm dx et \mathrm dy, l'augmentation totale soit obtenue en superposant les deux cas précédents

\mathrm dz = \frac{\partial f}{\partial x} (a,b) \mathrm dx +\frac{\partial f}{\partial y} (a,b) \mathrm dy

ce qu'en physique on énonce en général sous la forme : la différentielle totale est la somme des différentielles partielles.

On écrira par exemple : si z = x^2 + xy\, alors \mathrm dz = (2x+y) \,\mathrm dx + x\,\mathrm dy

De fait, cette formule sera vérifiée dans de très nombreux calculs explicites ; mais elle n'est pas vraie en toute généralité.

Le problème de la différentiabilité[modifier | modifier le code]

Il faut détailler le raisonnement pour voir où il pèche : on peut faire subir d'abord une augmentation de \mathrm dx à la seule variable x, ce qui la fait passer de la valeur a à a+\mathrm dx, tandis que y reste égale à b. Puis, en maintenant x=a+\mathrm dx constant, on fait passer y de b à b+\mathrm dy. Les accroissements de z résultants sont donc plus précisément

\mathrm dz_1 = \frac{\partial f}{\partial x} (a,b) \mathrm dx \qquad \hbox{ et } \qquad 
\mathrm dz_2 = \frac{\partial f}{\partial y} (a+\mathrm dx,b) \mathrm dy

et encore si cette deuxième quantité existe effectivement.

L'existence de dérivées partielles au seul point (a,b) est a priori insuffisant pour écrire une formule générale de calcul de \mathrm dz. En revanche, si on suppose que les dérivées partielles sont définies et continues sur un voisinage de (a,b), on pourra effectivement affirmer que \mathrm dz a la valeur attendue.

Définition de la différentielle[modifier | modifier le code]

En termes généraux, la différentiabilité est l'existence d'un développement limité à l'ordre 1 en un point, et la différentielle est la partie d'ordre 1 (donc linéaire) exactement.

Pour une fonction réelle à deux variables[modifier | modifier le code]

Étudions en premier lieu une fonction de deux variables, à valeurs réelles : on notera z=f(x,y). Cette fonction sera dite différentiable au point \vec{a} de coordonnées (x,y) s'il existe une formule de développement limité d'ordre 1 pour la fonction en ce point, c'est-à-dire

f(x+h, y+k )= f(x, y) + \alpha h+\beta k + o\left(\sqrt{h^2+k^2}\right)

avec \alpha et \beta des coefficients réels, ou encore

\lim_{(h, k) \to (0, 0)} \frac{f(x + h,y + k) - f(x, y) - \alpha h -\beta k}{\sqrt{h^2+k^2}}=0.

La limite est à prendre au sens des limites de fonctions de deux variables.

Si la fonction est différentiable, on montre que les coefficients \alpha et \beta sont bien les dérivées partielles de f. On peut alors écrire

f(x+h,  y+k )=f(\vec{a}+\vec{s})= f(\vec{a})+L(\vec{s}) + o(\|\vec{s}\|)

avec l'expression suivante qui est linéaire en \vec{s} = (h,k)

L(\vec{s})= \frac{\partial f}{\partial x}(x,y)\cdot h+ \frac{\partial f}{\partial y}(x,y) \cdot k

L'application linéaire L est appelée différentielle de f au point \vec{a} et notée L=\mathrm df(\vec{a}).

On peut reprendre l'interprétation intuitive de L. Si les variables subissent une petite modification \vec{h}=\vec{\delta \ell}, l'effet sur la fonction est une modification \delta f = L(\vec{\delta \ell}), à condition de s'empresser d'ajouter : du moins au premier ordre.

Remarque : le calcul de L(\vec{s}) peut aussi être présenté comme un calcul de produit scalaire avec le vecteur gradient de f.

Généralisations en dimension finie[modifier | modifier le code]

Cette première notion se généralise aux fonctions de \R^n dans \R, en changeant simplement le nombre de variables, puis aux fonctions de \R^n dans \R^p en admettant des coefficients vectoriels pour le développement limité. Une fonction \vec{f} de \R^n dans \R^p sera dite différentiable en \vec{a} s'il existe un développement de la forme

\vec{f}(a_1+h_1, \dots, a_n + h_n )= \vec{f}(a_1, \dots, a_n ) + h_1\vec{\alpha_1}+\dots + h_n\vec{\alpha_n}  + o\left(\|\vec{h}\|\right)

avec \|\vec h\| qui désigne la norme du vecteur de composantes (h_1,...,h_n). Cette condition peut aussi s'écrire comme

\lim_{\vec{h} \to \vec{0}} \frac{\vec{f}(a_1+h_1, \dots, a_n+h_n )- \vec{f}(a_1, \dots, a_n ) - h_1\vec{\alpha_1}-\dots - h_n\vec{\alpha_n}}{\|\vec{h}\|}=0.

La limite est à prendre au sens des limites de fonctions de n variables. De nouveau, si la fonction est différentiable, on montre que les coefficients \vec{\alpha_1} apparaissant dans ce développement sont les dérivées partielles de \vec{f}. On notera donc

\mathrm d\vec{f}(\vec{a})(\vec{h})=h_1\cdot\frac{\partial\vec{f}}{\partial x_1} (\vec{a})+\dots +h_n\cdot\frac{\partial\vec{f}}{\partial x_n} (\vec{a})

Pour effectuer ce calcul il est judicieux d'introduire des représentations matricielles pour le vecteur \vec{h} et l'application linéaire \mathrm d\vec{f}(\vec{a}) : c'est ce que l'on appelle la matrice jacobienne de l'application. C'est une matrice de dimension (n, p).

Si la différentiabilité de la fonction assure l'existence de dérivées partielles, la réciproque est fausse : l'existence de dérivées partielles n'assure pas toujours la différentiabilité de la fonction, ni même sa continuité.

Il existe cependant un résultat positif : si les dérivées partielles de f existent et sont continues, alors f est différentiable.

Différentiabilité au sens de Fréchet[modifier | modifier le code]

Plus généralement, il est possible de définir la notion de différentiabilité et de différentielle sans avoir recours à des bases.

Soient E un espace vectoriel normé et F un espace vectoriel topologique séparé, et f une application de E dans F. Soit a un point de E. On abandonne la notation des vecteurs par des flèches dans ce paragraphe.

On dit que f est différentiable en a (au sens de Fréchet) si et seulement s'il existe une application linéaire continue L de E dans F telle que :

\forall h \in E\quad f(a+h)=f(a)+L(h)+o\left(\|h\|\right),

ou, de manière équivalente

\lim_{h \to 0} \frac{f(a+h)-f(a)-L(h)}{\|h\|} = 0.

Une telle application linéaire L est alors unique. Elle est appelée différentielle de f en a et se note L=\mathrm df(a). De plus, sa continuité assure la continuité en a de f.

La différentiabilité dépend de la norme choisie sur E ; on retrouve ceci dit la définition usuelle en dimension finie puisque toutes les normes y sont équivalentes.

Remarque : on peut remarquer le changement sémantique entre la première définition, celle de Leibniz – un accroissement très petit –, et celle formalisée de nos jours – une application linéaire. Ce changement est l'aboutissement d'une évolution de plus de trois siècles entre une idée intuitive du calcul infinitésimal et sa formalisation.

Différentielle d'ordre supérieur[modifier | modifier le code]

Cas de la fonction réelle[modifier | modifier le code]

Si y = f(x), si f est dérivable sur I, alors \mathrm df = f'(x)\mathrm dx\!. Si de plus, f'\! est dérivable, \mathrm df est différentiable et

\mathrm d^2f = f''(x)\;\mathrm dx\;\mathrm dx. Cette quantité s'appelle la différentielle d'ordre 2 de f.

Plus généralement, si f est n fois dérivable sur I, on appelle différentielle d'ordre n sur I, l'expression

\mathrm d^nf = f^{(n)}(x)(\mathrm dx)^n\,

Cas de la fonction réelle à deux variables[modifier | modifier le code]

Si f est une fonction différentiable sur I (ouvert de \R^2), alors \mathrm df = \tfrac{\partial f}{\partial x}\mathrm dx +\tfrac{\partial f}{\partial y}\mathrm dy, chacune des fonctions \tfrac{\partial f}{\partial x} et \tfrac{\partial f}{\partial y} est elle-même une fonction de \R^2 dans \R. Si elles sont différentiables de différentielle continue (c'est-à-dire C^1) alors \mathrm df est aussi différentiable et

\mathrm d^2f = \left(\frac{\partial ^2 f}{\partial x\partial x}\mathrm dx+\frac{\partial ^2 f}{\partial x\partial y}\mathrm dy\right)\mathrm dx+ \left(\frac{\partial ^2 f}{\partial y\partial x}\mathrm dx+\frac{\partial ^2 f}{\partial y\partial y}\mathrm dy\right) \mathrm dy.

Comme les différentielles sont continues, le théorème de Schwarz permet de dire que :

\frac{\partial ^2 f}{\partial x\partial y} = \frac{\partial ^2 f}{\partial y\partial x}

ce qui permet d'écrire la différentielle d'ordre 2 de f sous la forme suivante :

\mathrm d^2f = \frac{\partial ^2 f}{\partial x\partial x}(\mathrm dx)^2 + 2\frac{\partial ^2 f}{\partial x\partial y} \mathrm dx\;\mathrm dy + \frac{\partial ^2 f}{\partial y\partial y}(\mathrm dy)^2 = \left(\frac{\partial }{\partial x}\mathrm dx + \frac{\partial }{\partial y}\mathrm dy\right)^2f

\bigl(\tfrac{\partial }{\partial x}\mathrm dx + \tfrac{\partial }{\partial y}\mathrm dy\bigr) devient un opérateur agissant sur f.

Plus généralement, si f est de classe C^n alors (formellement, dans l'algèbre des opérateurs)

\mathrm d^n f = \left(\frac{\partial }{\partial x}\mathrm dx + \frac{\partial }{\partial y}\mathrm dy\right)^n f

Cas général[modifier | modifier le code]

On considère deux espaces vectoriels normés E et F , U \subset E ouvert et  f : U \longrightarrow F .

On dit que f est deux fois différentiable en a \in U si :


1) f est différentiable en a (de différentielle f'(a) \in \mathcal{L}(E,F) )

2) l'application f': U  \longrightarrow \mathcal{L}(E,F) est différentiable en a (au sens de la métrique induite sur \mathcal{L}(E,F)).


L'application double dérivée est donc une fonction f'' : U \longrightarrow \mathcal{L}(E,\mathcal{L}(E,F)) et la double différentielle en a est l'application f''(a) \in \mathcal{L}(E,\mathcal{L}(E,F)). Mais intéressons-nous de plus près à f ''(a). Il s'agit d'une fonction f''(a) : E \longrightarrow \mathcal{L}(E,F) linéaire. De même, une fois choisi x \in E l'application f''(a)x : E \longrightarrow F est linéaire \forall y \in E


L'application f''(a) peut donc être interprétée comme une application bilinéaire f''(a) : E \times E \longrightarrow F associant \forall (x,y) \in E \times E, f''(a)(x,y) := ((f')'(a)x)y


De manière générale, on définit la différentielle d'ordre n de f en a comme l'application multilinéaire (n-linéaire) {f}^{(n)}(a) : {E}^{n} \longrightarrow F associant au n-uplet ({x}_{1},...,{x}_{n}) \longmapsto (...(({f}^{(n)}(a){x}_{1}){x}_{2})...){x}_{n}

Notes[modifier | modifier le code]

  1. a et b Il est cependant possible de réintroduire de manière rigoureuse la notion d’infiniment petit ; voir l'article Analyse non standard

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :