Publié : 26 juil. 2006, 18:13
Je crois surtout que vous mélangez deux notions d'information: d'un coté, l'information thermodynamique, qui est liée à l'entropie, de l'autre, l'information telle qu'on l'entend plus communément, c'est à dire grossièrement des données pour exécuter une tâche.
Les deux notions sont vaguement liées, mais il existe des différences. Pour faire court, disons que la seconde est une partie mais pas tout de la première. La première information est tenue à augmenter par la seconde loi de la thermodynamique, tandis que la seconde peut augmenter ou diminuer, sans que cela pose de problème, du moment qu'une autre composante de l'information thermodynamique varie de manière à respecter la seconde loi.
Et, puisqu'il est si clair que l'ADN contient de l'information/entropie, je vous propose de calculer cette entropie et de nous donner la réponse sous la forme d'un bon chiffre bien rond.
Amicalement,
Adhémar
Les deux notions sont vaguement liées, mais il existe des différences. Pour faire court, disons que la seconde est une partie mais pas tout de la première. La première information est tenue à augmenter par la seconde loi de la thermodynamique, tandis que la seconde peut augmenter ou diminuer, sans que cela pose de problème, du moment qu'une autre composante de l'information thermodynamique varie de manière à respecter la seconde loi.
Et, puisqu'il est si clair que l'ADN contient de l'information/entropie, je vous propose de calculer cette entropie et de nous donner la réponse sous la forme d'un bon chiffre bien rond.
Amicalement,
Adhémar