Thermodynamique et physique statistique

Physique statistique

Petite série de vidéo sur la physique statistique, de la définition de la température à l’entropie en passant par le facteur de Boltzmann et la loi de Planck :




Entropie


note

PW Atkins a écrit un livre merveilleux sur l’entropie : The Second Law.
Il fait partie de la vieille collection Scientific American Library qui est bourrée de pépites.

L’entropie est une notion passionnante qui ramifie dans différents champs.

En théorie de l’information, Claude Shannon a appelé entropie la mesure de la quantité d’information contenu dans un message. Ramenée à la physique, l’entropie de Shannon mesure le nombre de questions binaires (dont la réponse est oui ou non) auxquelles il faudrait répondre pour spécifier le microétat du système pour un macroétat donné.

Cherchant une réponse au paradoxe de Maxwell, Leó Szilárd a formulé en 1929 une équivalence entre l’énergie et l’information grâce à une version simplifiée du démon de Maxwell. Il en a déduit l’énergie nécessaire au démon pour faire varier l’information d’un bit. Landauer en a fait un principe (en 1961) qui stipule que l’énergie dissipée lors de l’effacement d’un bit d’information vaut au minimum $k_BT \ln(2)$.

Lien entre l’entropie de Shannon et l’entropie thermodynamique dans le cas d’un gaz parfait à l’équilibre (composé de $N$ particules) dans une enceinte de volume $V$ à la température $T$ :

L’information sur une particule consiste à connaître sa position et sa vitesse. L’additivité de l’entropie permet de distinguer ces deux contributions.

Appelons $H_p(V)$ l’entropie de Shannon liée la position d’une particule du gaz.
Après avoir doublé le volume de l’enceinte, on peut revenir à la situtation de départ (en terme d’information) en posant à la particule la question binaire “es-tu dans l’enceinte de gauche ou celle de droite ?”.
On a par conséquent $H_p(2V) = H_p(V) + 1$ (il faut 1 bit d’information en plus). La seule fonction ayant cette propriété est le logarithme en base deux : $\log_2$. D’où $H_p(V) = \log_2(V)+cste$.

À l’équilibre thermique, l’énergie cinétique pour chacun des degrés de liberté possibles (3 pour une particule monatomique, et 5 ou 7 pour une particule diatomique en ajoutant les rotations et vibrations) est proportionnelle à la température. Mais notre information porte sur la vitesse. La vitesse pour chaque réservoir d’énergie cinétique est donc proportionnelle à la racine carrée de la température. En quadruplant la température, on double donc la vitesse dans chacun des réservoirs. Il faudra alors autant de questions binaires que de réservoirs (3 pour une particule monoatomique) pour revenir à la situation informationnelle de départ.
En appelant $H_v(T)$ l’entropie de Shannon liée à la vitesse d’une particule, on a : $H_v(4T) = H_v(T)+3$. La fonction ayant cette propriété est $3\log_4$ ou $\frac{3}{2}\log_2$.
D’où $\displaystyle H_v(T)=\frac{3}{2}\log_2(T) + cste$.

L’entropie de Shannon totale de la particule vaut donc $\displaystyle H(V,T)=H_v(V)+H_p(T) = \frac{3}{2}\log_2(T)+\log_2(V)+cste$

Et pour $N$ particules ? Si les particules sont supposées indiscernables, multiplier $H$ par $N$ nous ferait tomber dans le paradoxe de Gibbs. Comme toutes les permutations de particules amènent à la même quantité d’infomation, il faut retirer $\log_2(N!)$ à l’entropie obtenue : $\displaystyle H_{gaz}(V,T) = N H(V,T) - \log_2(N!) \approx \frac{3N}{2}\log_2(T) + N\log_2(V) + Ncste - N\log_2(N) + N$.

En utilisant le principe de Landauer, on peut convertir ces bits en énergie par unité de température en multipliant par $k_B \ln_2$. On passe alors de $H$ à $S$, l’entropie thermodynamique :
$\displaystyle S(V,T) = \frac{3Nk_B}{2}\ln(T) + Nk_B\ln(V) - Nk_B\ln(N)+CNk_B$ (où $C$ est une constante).

Source : vidéo de Lê Nguyên Hoang sur l’entropie


Information et thermodynamique dans la physique théorique contemporaine

On observe depuis quelques temps une convergence de la recherche en informatique et en physique théorique sur les questions de l’entropie et de la complexité.

John Wheeler est un des premiers à militer pour qu’on s’oriente vers une explication de l’univers basée sur son contenu en information, le bit élémentaire, ce qu’il résume par la formule “it from bit” (Wheeler a un certain talent pour les formules, en plus du reste…).

Le fait qu’un trou noir ait une entropie proportionnelle à son aire et non à sa masse, comme l’ont montré Stephen Hawking et Jacob Bekenstein, semble donner corps à cette idée que le bit est l’atome de notre compréhension de l’univers. Tout horizon se présenterait en effet comme une sorte d’écran sur lequel s’écrit l’information qu’il contient. C’est le principe holographique.



Et plus récemment, Leonard Suskind a jeté un nouveau pont entre physique et information en liant le volume d’un trou noir et sa complexité.


Thermodynamique

Fluide supercritique

On place un échantillon d’eau dans un récipient hermétique à 25 °C. On fait le vide d’air, et on laisse l’équilibre de vaporisation-condensation s’établir. On obtient un mélange d’eau liquide et de vapeur d’eau à une pression de 0,03 atm. Une frontière distincte entre le liquide plus dense et le gaz moins dense est clairement observable. En augmentant la température, la pression de la vapeur d’eau augmente, comme décrit par la courbe liquide-gaz du diagramme de phase de l’eau, et un équilibre diphasique entre les phases liquide et gazeuse persiste. À une température de 374 °C, la pression de vapeur a atteint 218 atm, et toute augmentation supplémentaire de la température entraîne la disparition de la frontière entre les phases liquide et vapeur. Toute l’eau dans le récipient est maintenant présente dans une phase unique dont les propriétés physiques sont intermédiaires entre celles des états gazeux et liquide, le fluide supercritique. Au-dessus de sa température critique, un gaz ne peut pas être liquéfié, quelle que soit la pression appliquée. La pression requise pour liquéfier un gaz à sa température critique est appelée pression critique.

En contournant le point critique, on peut passer de l’état liquide à l’état gazeux (et inversement) continument, sans seuil. On parle alors de transition de phase du deuxième ordre. Au moment du contournement du point critique (lorsque $P>P_C$ et $T>T_C$), on dit que la matière est dans un nouvel état (un 5e état avec les solides, liquides, gaz et plasmas), le fluide supercritique.

Cet état possède à la fois des propriétés d’un gaz et d’un liquide ; comme un gaz, il occupe tout l’espace disponible, possède une grande diffusivité mais pas de tension superficielle, et comme un liquide, il a une grand pouvoir de dissolution de solutés non volatils. Il peut donc pénétrer plus efficacement les petites ouvertures d’un mélange solide et en extraire les composants solubles. Ces propriétés font des fluides supercritiques des solvants extrêmement utiles pour un large éventail d’applications. Par exemple, le dioxyde de carbone supercritique est devenu un solvant très populaire dans l’industrie alimentaire, étant utilisé pour décaféiner le café, éliminer les graisses des chips et extraire les composés aromatiques et les fragrances des huiles d’agrumes. Il est non toxique et relativement peu coûteux. Après utilisation, le $\ce{CO2}$ peut être facilement récupéré en réduisant la pression et en collectant le gaz résultant.

On comprend assez bien les propriétés du fluide superfluide aux vues des conditions pour y parvenir. La grande température rend l’agitation cinétique supérieure aux liaisons intermoléculaires, empêchant l’agglomération, mais la grande pression donne malgré tout au fluide une densité de liquide. Les molécules sont très proches mais ne “collent” pas.

En agitant un extincteur par une journée fraiche, on sent et entend le liquide remuer à l’intérieur. Mais si on répète l’expérience par une journée très chaude, on ne sent plus aucun liquide à l’intérieur de l’extincteur. Où est-il passé ?
À une température supérieure à la température critique du $\ce{CO2}$ (31 °C), aucune pression n’est plus suffisante pour le liquéfier.

On voit dans la vidéo que la proximité du point critique peut se traduire (lors du passage de superfluide à gaz+liquide) par un phénomène spectaculaire : le fluide devient “brouillardeux”. On appelle ce phénomène l’opalescence critique. Lorsque la température ou la pression d’un superfluide passe sous sa valeur critique, on assiste en tout point du fluide à une hésitation de la matière entre liquide et gaz provoquant des fluctuations de densité de toutes tailles. Ces fluctuations de densité entraînent des fluctuations d’indice optique et les plus petites fluctuations (échelles de taille de la longueur d’onde de la lumière visible) vont entraîner la forte diffusion qui caractérise le phénomène (un peu comme les micro-gouttes d’huile dans le lait ou le pastis allongé).

Techniquement, la transition de phase du deuxième ordre que subit alors le superfluide est caractérisée par la divergence de la longueur de corrélation $\xi$ qui traduit la distance sur laquelle une perturbation locale peut influencer le système. Près du point critique, les fluctuations deviennent corrélées sur des distances de plus en plus grandes. Plus précisément, la longueur de corrélation évolue alors en loi de puissance : $\xi=|T-T_C|^\nu$ ($\nu$ est appelé exposant critique). Au point critique, la longueur de corrélation devient théoriquement infinie ; il y a des fluctuations (ici de densité) à toutes les échelles.

Les transitions du premier ordre sont des transitions avec sauts alors que celles du deuxième ordre sont des transitions avec divergences.