Théorème de Lochs

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 12 janvier 2021 à 17:15 et modifiée en dernier par WikiCleanerBot (discuter | contributions). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

En mathématiques, et plus précisément en analyse, le théorème de Lochs, démontré en 1964 par Gustav Lochs, un élève de Kurt Reidemeister[1], est un résultat concernant la vitesse de convergence du développement en fraction continue d'un nombre réel typique.

Énoncé

Pour presque tous les nombres réels de l'intervalle ]0, 1[, le nombre m de termes du développement de ce réel en fraction continue permettant d'en obtenir les n premières décimales a le comportement asymptotique suivant :

(suite A086819 de l'OEIS)[2].

On peut interpréter ce résultat comme affirmant que chaque terme supplémentaire de la représentation en fraction continue d'un réel « typique » donne une précision d'un peu plus d'une décimale supplémentaire. La base dix est d'ailleurs la plus grande base pour laquelle la représentation positionnelle est moins précise (à ce sens) que celle en fraction continue : en base onze, la constante correspondante, , devient supérieure à 1.

L'inverse de cette limite,

(suite A062542 de l'OEIS),

est le double du logarithme décimal de la constante de Lévy.

Notes

  1. (de) Gustav Lochs, « Vergleich der Genauigkeit von Dezimalbruch und Kettenbruch », Abhandlungen aus dem Mathematischen Seminar der Universität Hamburg, vol. 27,‎ , p. 142-144 (DOI 10.1007/BF02993063).
  2. (en) Eric W. Weisstein, « Lochs' Theorem », sur MathWorld.

Références