Entropie (mathématiques)
En mathématiques, l'entropie est une quantité réelle mesurant en un certain sens la complexité d'un système dynamique.
Entropie topologique
[modifier | modifier le code]Entropie métrique
[modifier | modifier le code]Théorème du principe variationnel
[modifier | modifier le code]Le théorème du principe variationnel permet de faire le lien entre l'entropie topologique et l'entropie métrique. D'après le théorème de Krylov-Bogolyubov, tout système dynamique continu sur un espace métrique compact admet au moins une mesure de probabilité borélienne invariante. Le théorème du principe variationnel[1] affirme que l'entropie topologique de f est la borne supérieure des entropies métriques de f associées aux différentes probabilités boréliennes invariantes.
Théorème — Pour tout système dynamique f sur un espace métrique compact X, l'entropie topologique h(f) vérifie :
où est l'entropie métrique de f associée à la mesure et M(X,f) est l'ensemble des probabilités boréliennes de X qui soient f-invariantes.
En général, cette borne supérieure n'est pas atteinte[2]. Cependant, si l'application est semi-continue supérieurement, il existe alors une mesure d'entropie maximale, c'est-à-dire une mesure dans vérifiant .
Références
[modifier | modifier le code]- (en) T. N. T. Goodman, « Relating Topological Entropy and Measure Entropy », Bulletin of the London Mathematical Society, vol. 3, no 2, , p. 176–180 (DOI 10.1112/blms/3.2.176, lire en ligne, consulté le )
- (en) Michal Misiurewicz, « Diffeomorphism without any measure with maximal entropy », Bull. Acad. Polon. Sci. Sér. Sci. Math. Astronom. Phys., vol. XXI, no 10, , p. 903-910
Voir aussi
[modifier | modifier le code]