Entropie (mathématiques)

En mathématiques, l'entropie est une quantité réelle mesurant en un certain sens la complexité d'un système dynamique.

Entropie topologique modifier

Entropie métrique modifier

Théorème du principe variationnel modifier

Le théorème du principe variationnel permet de faire le lien entre l'entropie topologique et l'entropie métrique. D'après le théorème de Krylov-Bogolyubov, tout système dynamique continu sur un espace métrique compact admet au moins une mesure de probabilité borélienne invariante. Le théorème du principe variationnel[1] affirme que l'entropie topologique de f est la borne supérieure des entropies métriques de f associées aux différentes probabilités boréliennes invariantes.

Théorème — Pour tout système dynamique f sur un espace métrique compact X, l'entropie topologique h(f) vérifie :

 

  est l'entropie métrique de f associée à la mesure   et M(X,f) est l'ensemble des probabilités boréliennes de X qui soient f-invariantes.

En général, cette borne supérieure n'est pas atteinte[2]. Cependant, si l'application   est semi-continue supérieurement, il existe alors une mesure d'entropie maximale, c'est-à-dire une mesure   dans   vérifiant  .

  1. (en) T. N. T. Goodman, « Relating Topological Entropy and Measure Entropy », Bulletin of the London Mathematical Society, vol. 3, no 2,‎ , p. 176–180 (DOI 10.1112/blms/3.2.176, lire en ligne, consulté le )
  2. (en) Michal Misiurewicz, « Diffeomorphism without any measure with maximal entropy », Bull. Acad. Polon. Sci. Sér. Sci. Math. Astronom. Phys., vol. XXI, no 10,‎ , p. 903-910