Théorème fondamental de l'analyse

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Isaac Newton, historiquement reconnu comme l'auteur du théorème fondamental de l'analyse,
(portrait par Godfrey Kneller (1689))

En mathématiques, le théorème fondamental de l'analyse (ou théorème fondamental du calcul différentiel et intégral) déclare que les deux opérations de base de l'analyse, la dérivation et l'intégration, sont réciproques l'une de l'autre.

Ceci signifie que si une fonction continue est d'abord intégrée et ensuite dérivée, alors la fonction initiale est retrouvée.

Une conséquence importante de ce théorème, appelée parfois le deuxième théorème fondamental du calcul différentiel et intégral, est de permettre de calculer une intégrale en utilisant une primitive de la fonction à intégrer.

Historique[modifier | modifier le code]

Avant la découverte du théorème fondamental de l'analyse, la relation entre intégration et dérivation n'était pas soupçonnée. Les mathématiciens grecs savaient déjà calculer des aires et des volumes à l'aide d'infinitésimaux[1], une opération qui serait actuellement appelée une intégration. La notion de différentiation fut introduite elle aussi dès le Moyen Âge ; ainsi, les notions de continuité de fonctions et de vitesse de déplacement furent étudiées par les Calculateurs d'Oxford au XIVe siècle. L'importance historique du théorème ne fut pas tant de faciliter le calcul des intégrales que de faire prendre conscience que ces deux opérations apparemment sans rapport (le calcul d'aires, et le calcul de vitesses) sont en fait étroitement reliées.

Le premier énoncé (et sa démonstration) d'une forme partielle du théorème fut publié par James Gregory en 1668[2]. Isaac Barrow en démontra une forme plus générale[3], mais c'est Isaac Newton (élève de Barrow) qui acheva de développer la théorie mathématique englobant le théorème. Gottfried Leibniz systématisa ces résultats sous forme d'un calcul des infinitésimaux, et introduisit les notations toujours actuellement utilisées.

Explication intuitive[modifier | modifier le code]

Intuitivement, le théorème dit simplement que si l'on connaît tous les petits changements instantanés d'une certaine quantité, alors on peut calculer le changement général de cette quantité en additionnant tous les petits changements.

Pour se donner une idée de cette affirmation, commençons par donner un exemple. Supposons que nous voyagions sur une ligne droite, et que nous partions à l'instant t = 0, et avec une vitesse variable. Si t\mapsto d(t) indique notre distance à l'origine et t\mapsto v(t) représente notre vitesse à l'instant t, alors v(t) est le taux d'accroissement « infinitésimal » de d et est la valeur de la dérivée de d en t. Supposez que nous n'ayons qu'un compteur de vitesse qui indique la vitesse v(t), et que nous voulions retrouver notre distance d(t). Le théorème fondamental de l'analyse dit que nous devons chercher une primitive de v afin d'obtenir d. Et ceci est exactement ce que nous aurions fait, même sans connaître ce théorème : enregistrer la vitesse à des intervalles réguliers, peut-être toutes les minutes, et alors multiplier la première vitesse par 1 minute pour obtenir une estimation de la distance parcourue dans la première minute, puis multiplier la deuxième vitesse par 1 minute pour obtenir la distance parcourue dans la deuxième minute etc., et enfin ajouter toutes les distances précédentes. Pour obtenir une meilleure estimation de notre distance actuelle, nous avons besoin d'enregistrer les vitesses à des intervalles de temps plus courts. La limite quand la longueur des intervalles tend vers zéro est exactement la définition de l'intégrale de v.

Énoncé et démonstration[modifier | modifier le code]

Énoncé[modifier | modifier le code]

Soit f une fonction continue sur un segment [a, b], alors

F(x)=\int_a^x f (t)\,\mathrm dt

(t étant une variable muette d'intégration) est dérivable sur l'intervalle, et sa dérivée est égale à f.

  • De plus, si G est une fonction dérivable sur [a, b] telle que G'(x) = f(x), alors la fonction F – G est constante.

Démonstration[modifier | modifier le code]

Fixons x[a, b]. D'après la relation de Chasles :

\forall y\in[a,b],F(y)-F(x)=\int_a^yf(t)\mathrm dt-\int_a^xf(t)\mathrm dt=\int_x^yf(t)\mathrm dt.

Il s'agit donc principalement de prouver que

\lim_{y\to x\atop y\in[a,b]\setminus\{x\}}\frac1{y-x}\int_x^yf(t)\mathrm dt=f(x),

c'est-à-dire

\lim_{y\to x\atop y\in[a,b]\setminus\{x\}}\frac1{y-x}\int_x^y\left(f(t)-f(x)\right)\mathrm dt=0.

Soit ε > 0. Par continuité de f en x , il existe η > 0 tel que pour tout t[a, b],

|t-x|<\eta\Rightarrow|f(t)-f(x)|\le\varepsilon.

Pour tout y[a, b] tel que 0 < |y – x| < η on a donc :

\left|\frac1{y-x}\int_x^y\left(f(t)-f(x)\right)\mathrm dt\right|\le\varepsilon,

ce qui conclut.

Pour montrer la dernière partie, il suffit de voir qu'une fonction continue à dérivée nulle sur un intervalle est constante : on applique à la fonction le théorème des accroissements finis, pour n'importe quel sous-intervalle de l'intervalle de définition.

Exemple[modifier | modifier le code]

Ce théorème donne la principale méthode pour calculer l'intégrale de la fonction continue f : si F est une primitive quelconque de la fonction f (c.-à-d. si F vérifie \forall x\in [a,b], F'(x) = f(x)), alors

\int_a^b f(x) \mathrm dx = F(b) - F(a)

Comme exemple, supposons que nous ayons à calculer

\int_2^5 x^2 \mathrm dx

Ainsi, f(x) = x^2 et nous pouvons utiliser F définie par F(x) = x^3/3 comme primitive[4]. On a :

\int_2^5 x^2 \mathrm dx = F(5) - F(2) = \frac{125}{3} - \frac{8}{3} = \frac{117}{3} = 39

Généralisations[modifier | modifier le code]

Le théorème fondamental de l'analyse s'étend aux fonctions non continues de la façon suivante :

  • Si F est une fonction dérivable de dérivée intégrable au sens de Lebesgue, alors \int_a^b F'(x) \mathrm dx = F(b) - F(a). On peut même ne pas supposer F' intégrable, à condition d'utiliser l'intégrale de Kurzweil-Henstock (il suffit même alors de supposer que la fonction continue F est dérivable sur le complémentaire d'un ensemble dénombrable). Il ne suffit pas qu'une fonction F soit dérivable presque partout pour que l'égalité soit vraie, comme le montre le contre-exemple de l'escalier de Cantor, mais l'égalité est vérifiée si on suppose que F est absolument continue.

La formule de Taylor avec reste intégral qui exprime le terme d'erreur comme une intégrale peut être vue comme une généralisation du théorème fondamental.

Il existe une version du théorème pour les fonctions de la variable complexe. Supposons que U soit une partie ouverte de \Complex et que f:U\to\Complex admette une primitive F qui soit une fonction holomorphe sur  U. Alors pour toute courbe \gamma : [a, b] \to U, l'intégrale sur cette courbe peut être obtenue par :

\int_{\gamma} f(z)\,\mathrm dz = F\bigl(\gamma(b)\bigr) - F\bigl(\gamma(a)\bigr)

Le théorème fondamental peut être généralisé à des intégrales sur des contours ou sur des surfaces dans des dimensions supérieures et sur des espaces vectoriels (voir le théorème de Stokes).

Voir aussi[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. Voir par exemple l'article Palimpseste d'Archimède.
  2. Voir, par exemple, (en) Marlow Anderson, Victor J. Katz, Robin J. Wilson, Sherlock Holmes in Babylon and Other Tales of Mathematical History, MAA, 2004, p. 114 ; on sait que Newton avait découvert ce résultat avant 1666, mais il ne le publia que bien plus tard.
  3. (en) Isaac Barrow, Geometrical Lectures, 1916 (traduit de (la) Lectiones Geometricae, 1670), Lecture X, § 11.
  4. Le choix d'une autre primitive, comme G(x) = 42+x^3/3 , ne changerait pas le calcul de l'intégrale, puisque G(b)-G(a)=(F(b)+C)-(F(a)+C)=F(b)-F(a).

Référence[modifier | modifier le code]

Walter Rudin, Analyse réelle et complexe [détail des éditions]