Voir le résumé
En un siècle et demi, le concept d'entropie a pris des formes diverses qui ont étendu son champ d'application depuis la physique vers la chimie, l'informatique, la biologie ou l'économie, et permis de dégager progressivement sa signification. L'entropie fut initialement introduite comme une grandeur thermodynamique dont l'augmentation au cours du temps sert à caractériser l'irréversibilité des processus d'évolution. L'élaboration à la fin du XIXe siècle de la théorie cinétique, qui explique les propriétés macroscopiques des gaz à partir de leur structure à l'échelle atomique, conduit à lui donner une interprétation probabiliste : elle s'identifie à une mesure du désordre existant à petite échelle en raison du nombre immense de configurations que les molécules sont susceptibles de prendre, et elle s'exprime en fonction des probabilités associées à ces configurations. En 1948 est créée la théorie de la communication, où la quantité d'information transmise par un message est définie en s'inspirant de l'expression mathématique de l'entropie. Celle-ci acquiert en retour, peu après, son interprétation moderne : c'est l'information qui nous manque à l'échelle microscopique sur un système parce que nous ne connaissons que ses caractéristiques macroscopiques ; ou encore, c'est la mesure de la complexité de l'état du système. Cette interprétation est corroborée par l'analyse des échanges d'entropie qui accompagnent les transferts d'information ; elle confère à l'entropie un caractère partiellement subjectif.
Mot(s) clés libre(s) : démon de Maxwell, désordre, deuxième principe, énergie, entropie, fonction d'état, manque d'information, physique statistique, réversibilité, thermodynamique, transformation