Suivi

L'entropie en physique


Re: Re:Re:Re:Le désordre dans le monde -- Espace
Posté par Denis , Jun 11,2002,16:16 Index  Forum

Salut Espace

Êtes-vous physicien?

Je ne savais pas que les physiciens définissaient l'entropie via les logarithmes base e. Ça m'étonne beaucoup. Si c'est vrai, ils font bande à part (un peu comme les USA avec les pieds-gallons plutôt que les mesures métriques). Je croyais que l'utilisation des logarithmes base 2 était universelle en théorie de l'information. L'emploi de la base e me surprend beaucoup. Avant de me laisser convaincre, j'attendrai confirmation d'un autre physicien du forum.

Vous dites : "Avant le mélange, la probabilité de trouver un grain de sel dans le fond du bac est de 100% et la probabilité de trouver un grain de sucre en haut est de 100%, peut importe les "lignes". Après le mélange, c'est différent. C'est ça l'entropie. Ça n'a rien a voir avec des lignes virtuelles."

Moi, je trouve que, avant le mélange, la probabilité de trouver un grain de sel (donné) à gauche du bac est 50% et la probabilité de trouver un grain de sucre (donné) à droite est 50%. Après le mélange, ce n'est PAS différent. Comment pouvez-vous dire que ça n'a rien à voir avec les lignes virtuelles?

Le problème, je pense, est de paramétriser l'uniformité (à toutes les échelles) du mélange. Un gâteau vanille-chocolat "marbré" aurait une entropie intermédiaire entre un gâteau vanille-chocolat à étages et un gâteau vanille-chocolat bien mêlé. Mais il faut faire attention. Si le mélange est TROP uniforme, on retombe dans l'ordre.

Là où je vois du subjectif (je dirais même du sémantique) c'est dans la caractérisation des structures remarquables.

Pour simplifier, imaginons une grille n x n (type échiquier) où chaque case peut être noire ou blanche (avec probabilité ½ pour chaque cas). La description de l'état de la grille demande n^2 bits. Si n est le moindrement grand, ça demande donc pas mal d'information pour décrire l'état de la grille. Mais il existe des états particuliers qui se définissent de façon commodément concises par des phrases du type "les k colonnes de gauche sont noires et les autres sont blanches" ou encore "on a une alternance rigoureuse (type échiquier) avec le coin haut-gauche noir". Ce sont ces états "qui se décrivent en mots" qui semblent avoir beaucoup d'ordre (et, donc, peu d'entropie).

Il me semble toutefois qu'il y a là une "superposition de plans de langage" propice aux paradoxes. C'est là que je vois un "terrain glissant".

Ça me fait penser à un petit paradoxe amusant en théorie des ensembles. Un théorème dit que tout ensemble (non vide) d'entiers positifs contient nécessairement un plus petit élément. C'est un théorème tout à fait correctement démontré.

Or, considérons l'ensemble A suivant : A = "l'ensemble de tous les nombres entiers positifs qui ne peuvent pas être caractérisés en utilisant moins que vingt mots du dictionnaire". En appliquant le théorème, cet ensemble A devrait nécessairement contenir un plus petit élément. Notons-le x. Par définition, cet élément x est : "le plus petit entier positif qui ne peut pas être caractérisé en utilisant moins que vingt mots du dictionnaire". Cette phrase contient 19 mots. Je viens donc de caractériser x en utilisant moins que 20 mots. Le plus petit élément de A n'est donc pas un élément de A. Paradoxe.

Je soupçonne qu'on s'expose à un péril analogue en faisant comme si un système avait peu d'entropie s'il était possible de le décrire avec peu de mots (et qu'il avait beaucoup d'entropie s'il était difficile à décrire en mots).

Mais, comme je l'ai déjà dit, je ne connais rien en thermodynamique et je ne doute pas que l'entropie des physiciens soit définie d'une façon correctement rigoureuse. Si vous êtes physicien, vous pourrez peut-être m'instruire à ce propos.

Cordialités,

Denis


Suivi