Somme de Riemann

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Ne doit pas être confondu avec Série de Riemann.

En mathématiques, et plus précisément en analyse, les sommes de Riemann sont des sommes approximant des intégrales. Elles peuvent également être utilisées pour définir la notion d'intégration. Leur nom vient du mathématicien allemand Bernhard Riemann.

Définition du cas le plus usuel[modifier | modifier le code]

Soit f:[a,b]\rightarrow\R une fonction partout définie sur le segment [a,b]. On considère un entier n>0 et une subdivision régulière

x_k=a+k\frac{b-a}{n}\quad\text{avec}\quad 0\leq k\leq n.

La somme de Riemann (la plus communément rencontrée) associée à f est :

S_n=\frac{b-a}{n}\sum_{k=1}^n f(a + k\frac{b-a}n)=\sum_{k=1}^n (x_k-x_{k-1}) f(x_k).

Ces sommes de Riemann équidistantes sont celles de la méthode des rectangles pour le calcul des intégrales ; leur intérêt principal vient du « théorème » suivant, qui est en réalité un cas particulier de la définition de l'intégrale de Riemann : si f est intégrable au sens de Riemann,

\lim_{n\rightarrow+\infty}S_n=\int_a^bf(t)~\mathrm dt.

Exemple : la somme de Riemann associée à la fonction x 1 – x2 sur une subdivision régulière de [0, 1] converge vers π/4 : \frac{\pi}4=\int_0^1\sqrt{1-x^2}~{\rm d}x=\lim_{n\to\infty}\frac1n\sum_{k=1}^n\sqrt{1-\left(\frac kn\right)^2}=\lim_{n\to\infty}\frac1{n^2}\sum_{k=1}^n\sqrt{n^2-k^2}.

Variantes : on peut considérer S_n^*=\frac{b-a}{n}\sum_{k=0}^{n-1} f(x_k) ou S_n^{**}=\frac{b-a}{n}\sum_{k=0}^{n} f(x_k), car \lim_{n\rightarrow+\infty}\frac{b-a}{n}f(x)=0 pour n'importe quel point x fixé dans l'intervalle.

Du point de vue du calcul numérique il est plus avantageux de considérer les sommes (méthode des trapèzes) :

T_n=\frac{b-a}{n}\left(\frac12 f(a) + f(a+\frac{b-a}n) + \dots + f(a+(n-1)\frac{b-a}n) + \frac12f(b)\right)

ou encore les sommes de la méthode du point milieu :

U_n=\frac{b-a}{n}\left(f(a+\frac12\frac{b-a}n) + f(a+\frac32\frac{b-a}n) + \dots + f(a+\frac{2n-1}2\frac{b-a}n)\right).

Définition générale, applications[modifier | modifier le code]

Les véritables sommes définies par Riemann ne sont pas assujetties à avoir un pas constant, et le point d'évaluation de la fonction peut être n'importe où dans le sous-intervalle : pour n'importe quelle subdivision marquée σ = (a = x0 < x1 < x2 < ... < xn = b ; ti ∈ [xi – 1, xi] pour i = 1, … , n), on pose :

S =\sum_{i=1}^n(x_i-x_{i-1})f(t_i).

Si le pas de la subdivision σ tend vers zéro, alors la somme de Riemann générale converge vers \int_a^b f(t)~\mathrm dt. C'est d'ailleurs la définition originale[1] par Riemann de son intégrale.

Si, au lieu de demander que les sommes de Riemann convergent vers une limite L lorsque le pas est majoré par un nombre δ qui tend vers zéro, on demande que les sommes de Riemann puissent être rendues arbitrairement proches d'une valeur L lorsque xixi – 1 ≤ δ(ti), ti ∈ [xi – 1, xi], avec δ une fonction strictement positive, on arrive au concept de l'intégrale de Kurzweil-Henstock. C'est une généralisation qui permet d'intégrer plus de fonctions, mais qui donne la même valeur à l'intégrale lorsque la fonction est déjà intégrable au sens de Riemann.

Il est de tradition en première et seconde années de l'enseignement supérieur de donner des exercices sur des calculs de limites de suites où pour s'en sortir il faut penser à y reconnaître une somme de Riemann. Mais même dans les mathématiques hors-bachotage, la relation entre sommes et intégrales demeure un sujet de grand intérêt. L'une des techniques les plus belles, riche d'histoire et d'applications est la formule sommatoire d'Euler-MacLaurin.

Les sommes à pas variables ont aussi leur utilité dans les mathématiques, et ce dès le niveau lycée, comme le montre la méthode de Wallis pour faire la quadrature des fonctions puissances f(x) = x^\alpha. Soit b>a>0 et N\geq1 un entier. Écrivons b = a \omega^N, et prenons comme subdivision du segment [a,b] celle définie par les x_k = a \omega^k. Avec comme points d'évaluations \xi_k = x_{k-1}, on obtient la somme

S_N = \sum_{k = 0}^{N-1} a \omega^{k}(\omega - 1) a^\alpha \omega^{k\alpha} = a^{\alpha+1} \frac{(\omega-1)(\omega^{N(\alpha+1)} -1)}{\omega^{\alpha+1} - 1} = \frac{\omega-1}{\omega^{\alpha+1} - 1}(b^{\alpha+1} - a^{\alpha+1})

Lorsque N\to\infty, on a \omega\to1 (en effet avec \omega = 1+h, on a b/a \geq 1+Nh > 1) et \frac{\omega^{\alpha+1} - 1}{\omega-1}\to {\alpha+1}, (facile lorsque \alpha est entier puisque le quotient vaut alors 1+ \omega + \omega^2 + \dots + \omega^\alpha et vrai en général). D'où

\lim S_N = \frac{b^{\alpha+1} - a^{\alpha+1}}{\alpha+1}

Le pas de la subdivision est \delta = b - b/\omega et il tend vers zéro puisque comme nous l'avons déjà indiqué \omega\to1 pour N\to\infty (concrètement \delta = bh/\omega <bh \leq\tfrac1N b(b/a-1) avec à nouveau \omega = 1+h). On trouve ou retrouve donc

\int_a^b x^\alpha\,dx = \frac{b^{\alpha+1} - a^{\alpha+1}}{\alpha+1}

Le cas \alpha = -1 (quadrature de l'hyperbole), était exclu dans le calcul ci-dessus et en effet il est particulier. On doit reprendre le calcul de S_N qui vaut maintenant S_N = N(\omega -1). On obtient la relation suivante :

\lim N((b/a)^{\frac1N} -1) = \int_a^b \frac{{\rm d}t}t \quad (= \log(b/a))

Une relation bien connue qui s'insère dans la théorie générale des fonctions logarithme et exponentielle et de leurs rapports avec les fonctions puissances. Si ces fonctions et leurs propriétés sont connues, on peut en effet retrouver la limite ci-dessus en écrivant

N((b/a)^{\frac1N} -1)  = \frac{{\rm e}^{\frac1N\log(b/a)} -1}{\frac1N}

et en rappelant que \lim_{\epsilon\to0} \frac{{\rm e}^{\epsilon x} -1}{\epsilon} = x car cela revient à calculer la dérivée au point t=0 de la fonction t\mapsto{\rm e}^{t x}.

Note et référence[modifier | modifier le code]

  1. Notes d'un cours reproduisant le texte de Riemann.

Voir aussi[modifier | modifier le code]

Calcul numérique d'une intégrale