Merci pour l'excellent résumé. J'y vois un peu plus clair qu'avant. Je n'ai pas fait beaucoup de physique. Quand je pense à l'entropie, j'en ai plutôt l'interprétation stochastique de Shannon.
L'entropie I(X) d'une variable aléatoire X est
I(X) = -"intégrale"ln(f(x))f(x)dx
où f(x) est la densité de X.
Par exemple, parmi toutes les distributions de variance donnée, c'est la loi normale qui a la plus grande entropie.
Puisque les deux points de vue s'appuient essentiellement sur le log du nombre d'états possibles, il y a certainement plein de cohérence entre ces deux "formes d'entropie".
Cordialités,
Denis
|