Matrice jacobienne

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En analyse vectorielle, la matrice jacobienne est une matrice associée à une fonction vectorielle en un point donné. Son nom vient du mathématicien Charles Jacobi. Le déterminant de cette matrice, appelé jacobien, joue un rôle important dans la résolution de problèmes non linéaires.

Matrice jacobienne[modifier | modifier le code]

La matrice jacobienne est la matrice des dérivées partielles du premier ordre d'une fonction vectorielle.

Soit F une fonction d'un ouvert de ℝn à valeurs dans ℝm. Une telle fonction est définie par ses m fonctions composantes à valeurs réelles :

F : \begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix} \longmapsto \begin{pmatrix}
f_1(x_1,\dots,x_n)\\
\vdots\\
f_m(x_1,\dots,x_n)\end{pmatrix}.

Les dérivées partielles de ces fonctions en un point M, si elles existent, peuvent être rangées dans une matrice à m lignes et n colonnes, appelée matrice jacobienne de F :

J_F\left(M\right)=
\begin{pmatrix} 
\dfrac{\partial f_1}{\partial x_1} & \cdots & \dfrac{\partial f_1}{\partial x_n} \\
\vdots & \ddots & \vdots \\
\dfrac{\partial f_m}{\partial x_1} & \cdots & \dfrac{\partial f_m}{\partial x_n}
\end{pmatrix}.

Cette matrice est notée :

J_F\left(M\right),\qquad \frac{\partial\left(f_1,\ldots,f_m\right)}{\partial\left(x_1,\ldots,x_n\right)}\qquad \text{ou}\qquad\frac{\mathrm D\left(f_1,\ldots,f_m\right)}{\mathrm D\left(x_1,\ldots,x_n\right)}.

Pour i = 1, … , m, la ie ligne de cette matrice est la transposée du vecteur gradient au point M de la fonction f_i, lorsque celui-ci existe. (Attention, dans certains ouvrages, la matrice jacobienne est définie comme la transposée de la matrice définie ici.)[réf. nécessaire] La matrice jacobienne est également la matrice de la différentielle de la fonction, lorsque celle-ci existe. On démontre que la fonction F est de classe C1 si et seulement si ses dérivées partielles existent et sont continues.

Exemple[modifier | modifier le code]

La matrice jacobienne de la fonction F de ℝ3 dans ℝ4 définie par :

F\left(x_1,x_2,x_3\right) = \left(x_1,5x_3,4x_2^2 - 2x_3,x_3 \sin\left(x_1\right)\right)

est

J_F\left(x_1,x_2,x_3\right) =\begin{pmatrix} 1 & 0 & 0 \\ 0 & 0 & 5 \\ 0 & 8x_2 & -2 \\ x_3 \cos\left(x_1\right) & 0 & \sin\left(x_1\right) \end{pmatrix}.

Propriétés[modifier | modifier le code]

La composée FG de fonctions différentiables est différentiable, et sa matrice jacobienne s'obtient par la formule :

 J_{F \circ G}= \bigl( J_F \circ G \bigr) \cdot J_G.

Déterminant jacobien[modifier | modifier le code]

Si m = n, alors la matrice jacobienne de F est une matrice carrée. Nous pouvons alors définir son déterminant detJF, appelé le déterminant jacobien, ou jacobien. Dire que le jacobien est non nul revient donc à dire que la matrice jacobienne est inversible.

Une fonction F de classe C1 est inversible au voisinage de M avec une réciproque F−1 de classe C1 si et seulement si son jacobien en M est non nul (théorème d'inversion locale). De plus, la matrice jacobienne de F−1 se déduit de l'inverse de la matrice jacobienne de F au moyen de la formule

J_{F^{-1}} = \bigl( J_F \circ F^{-1} \bigr)^{-1}.

Le théorème de changement de variables dans les intégrales multiples fait intervenir la valeur absolue du jacobien.

Théorème — Soient U un ouvert de ℝn, F une injection de classe C1 de U dans ℝn et V = F(U).

Il n'est pas nécessaire de supposer que V est ouvert, ni que F est un homéomorphisme de U sur V : cela résulte des hypothèses, d'après le théorème de l'invariance du domaine.

On démontre d'abord ce théorème si F est un difféomorphisme[1] (ce qui, d'après le théorème d'inversion locale, revient simplement à rajouter l'hypothèse que le jacobien de F ne s'annule en aucun point de U), puis on s'affranchit de cette hypothèse[2] grâce au théorème de Sard.

Exemple[modifier | modifier le code]

Le passage en coordonnées polaires est un changement de variables \left(x,y\right)\to\left(r,\theta\right) défini par l'application suivante :

 \begin{array}{rcl}
F : \R_+ \times [0,2\pi] & \longrightarrow & \R^2\\
\left(r,\theta\right) & \longmapsto & \left(r\cos\theta,r\sin\theta\right).
\end{array}

La matrice jacobienne au point \left(r,\theta\right) est :

J_F\left(r,\theta\right) =
\begin{pmatrix}
\cos\theta & -r\sin\theta \\
\sin\theta &  r\cos\theta \\
\end{pmatrix}.

Le jacobien du passage en coordonnées polaires est donc :

r \cos^2\left(\theta\right)+r \sin^2\left(\theta\right) = r.

Si g est une fonction intégrable sur un ouvert V de ℝ2, en posant

U =F^{-1}(V)=\left\{ (r,\theta)\in\R_+\times[0,2\pi]\mid\left( r\cos\theta, r\sin\theta\right) \in V \right\}

et en appliquant le théorème ci-dessus non pas directement à U et V (F n'est pas injective et U n'est pas ouvert dans ℝ2) mais aux ouverts intermédiaires

V'=V\setminus(\R^+\times\{0\})\quad\text{et}\quad U'=F^{-1}(V')=U\cap(\R_+^*\times]0,2\pi[),

on obtient (puisque U\U' et V\V' sont négligeables) :

\iint_V g\left(x,y\right)\,\mathrm dx\mathrm dy=\iint_U g\left(r\cos\theta,r\sin\theta\right)r\,\mathrm dr\mathrm d\theta.

Interprétation[modifier | modifier le code]

Matrice jacobienne[modifier | modifier le code]

La matrice jacobienne intervient dans le développement limité des fonctions à plusieurs variables : au voisinage du point M, l'approximation linéaire de la fonction F est donnée par :

F\left(X\right) \approx F\left(M\right) + J_F\left(M\right) \overrightarrow{MX}.

Jacobien[modifier | modifier le code]

Si le jacobien est positif au point M, l'orientation de l'espace est conservée au voisinage de ce point. À l'inverse, l'orientation est inversée si le jacobien est négatif.

Si l'on considère un « petit » domaine, le volume de l'image de ce domaine par la fonction F sera celui du domaine de départ multiplié par la valeur absolue du jacobien.

Application[modifier | modifier le code]

En mécanique des milieux continus, le tenseur des déformations pour les petites déformations (ou tenseur de Green) est la partie symétrique de la matrice jacobienne du vecteur-déplacement de chaque point du solide. En mécanique analytique, on sait qu'une transformation est canonique si et seulement si sa jacobienne appartient au groupe symplectique.

L'inversion du produit de matrices jacobiennes successives est aussi utile pour déterminer la propagation des incertitudes dans une expérience. Par exemple dans un cas de trois capteurs fournissant respectivement trois observations qui sont chacun sensibles à trois mesurandes, l'inversion de la matrice jacobienne de la relation mesurandes vers observations permet de déterminer l'incertitude sur chacun des mesurandes connaissant expérimentalement l'incertitude sur chacune des observations (bruit de fond expérimental). Lorsque les trois capteurs sont complètement découplés, le cas idéal, les matrices jacobiennes sont diagonales et il n'y a pas de propagation dramatique de l'incertitude.

Notes et références[modifier | modifier le code]

  1. François Laudenbach, Calcul différentiel et intégral, Éditions École Polytechnique,‎ 2000 (ISBN 978-2-73020724-9), 177-182
  2. Laudenbach 2000, p. 184

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Matrice hessienne