Entropie (mathématiques)

Un article de Wikipédia, l'encyclopédie libre.

En mathématiques, l'entropie est une quantité réelle mesurant en un certain sens la complexité d'un système dynamique.

Entropie topologique[modifier | modifier le code]

Entropie métrique[modifier | modifier le code]

Théorème du principe variationnel[modifier | modifier le code]

Le théorème du principe variationnel permet de faire le lien entre l'entropie topologique et l'entropie métrique. D'après le théorème de Krylov-Bogolyubov, tout système dynamique continu sur un espace métrique compact admet au moins une mesure de probabilité borélienne invariante. Le théorème du principe variationnel[1] affirme que l'entropie topologique de f est la borne supérieure des entropies métriques de f associées aux différentes probabilités boréliennes invariantes.

Théorème — Pour tout système dynamique f sur un espace métrique compact X, l'entropie topologique h(f) vérifie :

est l'entropie métrique de f associée à la mesure et M(X,f) est l'ensemble des probabilités boréliennes de X qui soient f-invariantes.

En général, cette borne supérieure n'est pas atteinte[2]. Cependant, si l'application est semi-continue supérieurement, il existe alors une mesure d'entropie maximale, c'est-à-dire une mesure dans vérifiant .

  1. (en) T. N. T. Goodman, « Relating Topological Entropy and Measure Entropy », Bulletin of the London Mathematical Society, vol. 3, no 2,‎ , p. 176–180 (DOI 10.1112/blms/3.2.176, lire en ligne, consulté le )
  2. (en) Michal Misiurewicz, « Diffeomorphism without any measure with maximal entropy », Bull. Acad. Polon. Sci. Sér. Sci. Math. Astronom. Phys., vol. XXI, no 10,‎ , p. 903-910