La nature statistique de l'entropie
L'espace des phases
L'ensemble des états possibles de tout système physique
donné, à l'intérieur duquel l'évolution
s'effectue autour du temps, est appelé l'espace des phases de ce
système.
Il faut distinguer si l'étude se fait dans le cadre de la physique classique, ou de la physique quantique.
En fin de compte le vrai cadre est bien sûr celui de la physique
quantique. Mais ses propriétés sont plus étranges
et difficiles à se représenter, tant qu'on n'adopte pas
pleinement le formalisme de la physique quantique.
La présente approche se voulant vulgarisée, ne reposera
pas sur le plein formalisme de la physique quantique, trop abstrait,
mais s'appuiera sur certaines de ses propriétés
qualitatives les plus utiles.
Par ailleurs, l'introduction des mêmes notions dans le cas
classique aidera à s'en donner certaine représentation
précise et cohérente, ayant assez de
propriétés essentielles communes avec le cas quantique,
et aidera donc à comprendre par analogie le cas quantique,
même si en toute rigueur les deux cas restent distincts.
Cas classique : l'espace des
phases pour un système de N particules est un espace à 6N
dimensions (dont 3 pour la position et 3 pour la vitesse).
L'évolution conserve le volume dans cet espace, autrement dit
elle se comporte comme le mouvement d'un fluide incompressible. Un
état élémentaire du système y est un point,
évoluant de manière continue et déterministe
(même si cahotique) comme emporté par le fluide.
Tant dans le cas classique que quantique, le volume total de l'espace des phases est ainsi limité par
l'espace et l'énergie disponibles pour le système, mais
peut croître à l'infini s'il dispose d'un espace et/ou
d'une énergie illimité.
Cas quantique, difficilement imaginable, mais à admettre
! L'espace des phases comporte une unité de volume
indivisible. Le volume de toute portion délimitée de cet
espace, compté suivant cette unité, est toujours un
nombre entier. Un état élémentaire du
système est défini par une "case" également appelé micro-état, de volume 1.
Mais la manière dont un espace se divise en micro-états
n'est pas
fixée à l'avance. A l'état naturel, l'espace des
phases n'est pas divisé, mais il est continu et évolue
comme tel. C'est le processus de mesure qui définit une division
en micro-états, et un micro-état donné
n'évolue pas
nécessairement vers un micro-état particulier de la
prochaine
mesure effectuée. S'il tombe entre plusieurs micro-états,
le
résultat de la mesure sera un des micro-états du nouveau
découpage entre lesquels s'étale le micro-état
obtenu par évolution de celui dont on était parti,
aléatoirement suivant une loi de
probabilité déterminée par la manière dont
le micro-état obtenu par évolution est
étalé au travers des nouveaux. Après la mesure, le
micro-état du système sera
exactement défini par celui où il a
été trouvé.
On a un équivalent de la propriété de conservation
des volumes: les systèmes dont l'état est dans un
volume donné à un instant t ne peuvent jamais
évoluer avec certitude vers un volume plus petit à un
instant ultérieur t'. Cela se traduit formellement en disant
que, si un système peut évoluer d'un micro-état A
à un micro-état B suivant une probabilité p et s'il est
possible de renverser exactement le sens de cette
évolution, alors l'évolutionn inverse de B en A se fait
suivant la même probabilité p. Ainsi, tout comme
l'évolution depuis un état initial donné se
décrit par des probabilités d'états finaux
(suivant un découpage final arbitraire) dont la somme vaut 1,
l'incompressibilité de l'espace des phases se traduit par le
fait que, pour un état final donné, la somme des
probabilités d'y aboutir à partir de chaque case d'un
découpage initial, sera également 1.
Définition de l'entropie
L'entropie n'est pas à la base une propriété
intrinsèque, mesurable, d'un système physique; mais c'est
une propriété de la connaissance a priori que l'on a
l'égard du système.
Voici donc sa définition:
L'entropie
d'un système est l'ampleur de l'imprécision de la
connaissance dont on dispose a priori sur le micro-état du système.
Comment traduire une qualité semblant aussi vague que
l'expression ci-dessus, en un nombre, pour pouvoir la traiter
mathématiquement ? Ce nombre se définit intuitivement
ainsi:
L'entropie
mesure la taille moyenne espérée du fichier qui serait
nécessaire pour spécifier le micro-état du
système, présenté suivant le
format conçu comme le plus compressé possible (=
de plus petite taille moyenne espérée) étant
donnée la connaissance préalable qu'on avait de cet
état.
Il y a une définition mathématique exacte de
l'entropie, qui est la suivante (histoire de dire qu'il y a une
définition exacte, mais que pour éviter les formules
nous n'utiliserons guère dans la suite):
La connaissance a priori de l'état du système se
décrit par un découpage adéquat de l'espace des
phases en micro-états possibles x, et une probabilité
p(x) assignée à chacun; son entropie est alors la
somme sur toutes les micro-états x, de -p(x)*ln(p(x)).
L'entropie zéro
Le fait qu'il existe une entropie zéro, sous laquelle on ne peut
pas descendre, tient à la nature quantique des systèmes.
A savoir, que l'espace des phases n'est pas découpable plus
finement qu'en un nombre entier de micro-états. Une fois
spécifié le micro-état dans lequelle se trouve le
système, c'est déjà l'information la plus
exacte possible qu'on puisse en avoir. Aucune mesure
supplémentaire ne peut aboutir à une connaissance plus
précise, car un autre découpage en micro-état ne
ferait que
réduire l'état du système à un
micro-état du nouveau découpage, sans
préserver la
précision que l'ancien découpage pouvait constituer.
Ainsi l'entropie zéro est liée aux effets quantiques du
système qui se manifestent au voisinage du zéro absolu.
Sans ces effets quantiques, autrement dit dans le cadre de la
mécanique classique, il n'y aurait pas de limite
inférieure nécessaire à l'entropie du
système.
Dans l'espace des phases classique, l'état d'un système
est un point, qui ne serait pas spécifiable exactement, mais
chaque avancée de la précision serait une information
supplémentaire. La suite des décimales de
précision des coordonnées du système, qu'on
pourrait extraire de mesures de plus en plus précises, serait
infinie. La notion même d'état exact du système
n'aurait aucun sens, mais nécessiterait pour être
spécifiée une infinité de mesures, autrement dit
nécessiterait d'évacuer du système une
quantité d'entropie infinie. La notion d'entropie zéro
est incompatible avec la mécanique classique.
Unités d'entropie et son caractère non-entier
La formule exacte plus haut fait intervenir un logarithme. Ainsi
l'entropie est au fond une quantité sans dimension, qui
seulement a l'air d'avoir une dimension d'un point de vue
macroscopique, du fait qu'elle y est multipliée par le nombre
d'atomes en jeu. Macroscopiquement, le nombre d'atomes se comporte
comme une quantité dimensionnée avec une unité
arbitraire (une mole). Il en va de même pour l'entropie, dont
l'unité macroscopique est sujette à des liens physiques
précis avec les nombres de moles.
Dans la traduction intuitive de l'entropie en termes de taille des
fichiers, cette unité logarithmique correspond naturellement
à l'unité de mesure des tailles de fichier. La mesure en
bits correspond au logarithme binaire; la mesure en octets correspond
à la base 256. Si on traduisait les fichiers sous un format
décimal (comme suite de chiffres de 0 à 9) il
faudrait ln(10)/ln(2) fois moins de chiffres qu'il ne fallait de bits
pour exprimer la même information.
Un système à N micro-états possibles nécessite un
nombre de 1 à N pour être spécifié, ce qui
constitue une information de taille ln(N) lorsque ces états sont
équiprobables. L'entropie du système est alors ln(N).
Mais cette entropie diminue au fur et à mesure que la loi
de probabilité s'éloigne de
l'équiprobabilité. A la limite, la loi de
probabilité la plus inégale est celle qui donne la
probabilité 1 à un état et 0 à tous les
autres. Son entropie est alors nulle.
Par exemple, imaginons un système à 3 états
possibles A,B,C. S'ils sont de probabilité 1/3 chaque,
l'entropie vaut ln(3) (un chiffre de base 3). Mais si les
probabilités sont 1/2,1/4,1/4, alors il faut d'abord un bit pour
distinguer entre A d'une part, B ou C de l'autre. Une chance sur 2 que
ça soit A et que donc ça suffise; une chance sur 2 que ce
soit (B ou C), et que donc il faille un bit d'information
supplémentaire pour conclure. Finalement, la taille moyenne
du fichier nécessaire pour spécifier l'état est de
1,5 bit, ce qui est moindre que l'entropie dans le cas
d'équiprobabilité qui valait ln(3)/ln(2)=1,585 bit.
On peut demander: si une quantité d'information plus grande
que 1 bit peut se compter en nombre non-entier de bits, un bit
d'information isolé est-il divisible en unités plus
petites ? Bien sûr, ce n'est pas praticable tel quel
isolément, mais ça l'est en un certain sens en
élargissant le contexte. Bien sûr, les états
possibles étant distincts par nature, on ne peut pas avoir
plus de 1 mais moins de 2 états possibles. Mais comme
précédemment, on peut réduire l'entropie d'un
système à un nombre d'états donné en
s'éloignant de l'équiprobabilité. Ainsi, si un bit
a plus de chances de valoir 0 que 1 (s'il y a une chance sur 3 d'avoir
pile et 2 chances sur 3 d'avoir face), on peut réduire sa place
de la manière suivante: il suffit de mettre ensemble N tirages
indépendants d'un tel bit, d'en faire ainsi un fichier à
N bits, puis de compacter le tout. La taille moyenne
espérée du fichier ainsi obtenue est alors
inférieure à N bit, à cause de l'écart
systématique de probabilités entre le pile et le face. Il
y a bien sûr un risque que la taille soit finalement
supérieure à N, à savoir lorsque ses cas a priori
les moins probables sont finalement obtenus. Cela ne survient que
rarement si les probabilités sont effectivement inégales
comme attendu, mais cela arriverait plus souvent dans le cas de
l'équiprobabilité.
Reprenons la formule de l'entropie, et expliquons comment la
description intuitive en terme de taille de fichier, en est le reflet:
Si un micro-état x a la probabilité p(x) de survenir,
alors le fichier d'information le mieux compacté
décrivant le micro-état du système, se trouvera
être de longueur -ln(p(x)) lorsqu'il sera x. On peut le
comprendre en l'imaginant regroupé avec tous les autres
micro-états de même probabilité. Si tous les
états étaient équiprobables, ils seraient en
nombre 1/p(x), donc la taille de l'information spécifiant le
choix serait ln(1/p(x))=-ln(p(x)).
La taille moyenne espérée du fichier, est la moyenne de
ces -ln(p(x)) pondérée par les probabilités p(x),
donc somme des -p(x)ln(p(x)).
La mesure comme extraction d'entropie
Expliquons le comportement de l'entropie lors
d'une mesure d'un système physique en général.
Lorsqu'une mesure améliore l'information dont on dispose sur un
système, elle diminue l'entropie de ce système. Mais elle
ne la diminue généralement que d'une faible
quantité: l'information obtenue comme résultat d'une
mesure physique ordinaire d'un système macroscopique est
généralement négligeable face à la
quantité proprement astronomique d'informations qui serait
idéalement nécessaire pour décrire positions et
vitesses (dans la limite des inégalités de Heisenberg) de
tous les atomes thermiquement agités dans ce système.
On n'est certes pas à ça près en pratique, mais en
toute rigueur on peut se demander: où est passé cette
petite quantité d'entropie qui a quitté le système
lors de la mesure de quelques-uns de ses paramètres ?
Elle a été tout simplement transmise à
l'observateur. Il y a en effet plusieurs états possibles dans
lesquels l'observateur peut se retrouver après la mesure,
suivant le résultat de celle-ci. Si en guise d'observateur on a
un appareil enregistreur, alors l'état final de l'enregistrement
est indéterminé suivant les probabilités des
quantités mesurées de prendre telle ou telle valeur. Donc
cet enregistrement est devenu le support de la petite quantité
d'entropie correspondant à l'information qui a été
extraite du système au cours de la mesure (cette diminution
de l'imprécision de la connaissance dont on disposait sur
le système).
En effet un appareil de mesure et son enregistreur, étant
matériel et inconscient, peut être considéré
comme étant dans un état indéterminé, et
donc porteur d'entropie. Dans le cas d'un observateur conscient, on
aurait envie d'interpréter la situation en disant que
l'indétermination est levée (puisque l'observateur est
conscient du résultat, qui a donc une valeur bien
déterminée), donc comme si l'entropie avait disparu. En
pratique, cela ne peut évidemment pas servir à
éliminer l'entropie, puisque le fonctionnement interne d'un
observateur humain (ou animal...) crée en permanence de
l'entropie en flux bien plus considérable que la quantité
d'information qui peut être reçue par les sens. Le
processus de création d'entropie sera expliqué plus loin.
Comme une information enregistrée signifie une quantité
d'entropie, l'effacement d'une information nécessite
d'évacuer cette entropie ailleurs.
Peut-on mesurer l'entropie ?
On ne peut certes pas donner de signification exacte à la mesure
de l'entropie; mais on peut y donner une signification approximative,
dont la marge d'erreur de plusieurs unités (taille d'expression de l'information mesurée) s'estompe en
compraraison des quantités d'entropie nettement plus
considérables qui sont en jeu dans les systèmes physiques
macroscopiques, et qui sont l'objet de la mesure.
En fait, on a déjà vu un aperçu de cette notion
plus haut, lorsqu'une petite partie de l'information peut servir
à évaluer la taille qui sera prise par le reste de
l'information. Cette taille étant déterminée par
la probabilité des micro-états considérés,
on peut donc concevoir une mesure physique distinguant
différentes classes (ou macro-états) de
micro-états du système, où les micro-états
individuels ont des probabilités voisines dans chaque classe (on
n'est pas à un facteur 1000 près, 3 chiffres
décimaux n'étant pas grand-chose face au nombre
gigantesque d'atomes d'atomes d'un système macroscopique dont
chacun porte plusieurs chiffres d'information), mais peuvent varier
bien plus largement d'une classe à l'autre.
Les classes d'états individuellement les moins probables
contiennent généralement beaucoup plus de
micro-états, que celles des micro-états individuellement
plus probables, afin que le rapport de probabilité totale
entre l'une et l'autre classe soit équitable, et ainsi que la
mesure en vaille la peine.
C'est tout ce qu'on aura en guise de mesure de l'entropie.
Diminutions exceptionnelles d'entropie
Suivant la définition que nous venons de présenter,
l'entropie s'avère plus précisément définie
comme une moyenne espérée par rapport à tous les
micro-états possibles, d'une valeur plus précise de
l'entropie.
La mesure d'un paramètre du système permet de faire une
certaine mesure de l'entropie et ainsi de la modifier. Si par exemple
le résultat de la mesure est une information binaire avec une
probabilité 1/2 chaque, cela divise l'espace des phases en 2
parties. Suivant la manière dont cette division est
configurée par rapport à l'état initial du
système, les deux valeurs S1 et S2 prises par l'entropie finale
suivant le résultat de la mesure, sont reliées à
l'entropie initiale S0 du système, par la formule
S0 - 1bit < (S1+ S2)/2 (qui peut dans certains cas être supérieur à S0)
Si on définit l'entropie finale comme somme des entropies
finales du système et de l'appareil de mesure (hypothèse
qui sera questionnée plus loin), cela donne en moyenne (S1+
S2)/2 + 1 bit, qui est donc supérieur à l'entropie
initiale S0. Mais ce n'est qu'une moyenne espérée. En
l'occurrence, il y a une chance sur 2 qu'on soit dans le premier cas,
d'entropie S1 + 1 bit; et une sur 2 qu'on soit dans l'autre cas, S2 + 1
bit.
Il est possible que de l'entropie soit détruite au cours de certains processus.
Par contre ce qu'on sait, c'est que tout processus qui a des chances de
détruire de l'entropie, a aussi des chances d'en créer;
que ces destructions d'entropie seront le plus souvent très
faibles (de l'ordre de l'unité, donc négligeables pour
les systèmes macroscopiques), et qu'au bilan l'espérance
de variation est positive. Tout comme il n'est pas raisonnable d'aller
jouer au casino avec les machines automatiques dans l'espoir de faire
des affaires, car les gestionnaires du casino ont su s'arranger pour
être bénéficiaires en moyenne espérée
quoi que vous fassiez. De même il n'est pas raisonnable de jouer
avec ces processus de hasard qui peuvent dans certains cas
détruire de l'entropie, parce que cela peut aussi bien en
créer, et que quelle que soit la stratégie
adoptée, en moyenne cela en créera effectivement.
Remarque: les situations où l'entropie de départ est
voisine de la moyenne espérée des entropies
d'arrivée, mais où ces dernières diffèrent
significativement les unes des autres (au moins de l'ordre de
l'unité), sont des situations de déséquilibre
thermodynamique, qui nécessitent donc des conditions
expérimentales difficiles à mettre en place, en ce sens
que cela risque toujours de créer un zeste d'entropie.
L'entropie de dissolution
Une substance soluble dans un fluide (par exemple de l'encre dans de
l'eau) porte une entropie d'autant plus grande qu'elle est
diluée.
Le calcul de cette entropie est le suivant.
Soit N le nombre de molécules diluées. L'information
qu'il faudrait pour décrire le micro-état de la
solution comporte bien sûr diverses données sur les
agitations de toutes les molécules diluées et diluantes.
Contentons-nous des données décrivant les positions des
molécules diluées, et plus précisément
comment varie cette masse de données entre des volumes de
dilutions différents.
On peut décrire l'état de dilution d'un ensemble de
molécules, en décrivant la position de chaque
molécule. En fait, une telle description ne correspond pas
à la réalité, car l'échange de 2
molécules identiques ne modifie pas l'état. Tenant compte
de toutes les permutations possibles entre molécules laissant
ainsi l'état inchangé, cela présenterait donc N!
descriptions différentes du même état physique.
Mais il suffit alors de diviser le nombre d'états par N! (et
donc multiplier la probabilité de chaque état par N!)
pour retrouver un calcul correspondant à la
réalité.
Mais si on fixe le nombre total N de molécules diluées,
le facteur N! étant constant n'intervient pas dans le
résultat des différences d'entropie entre des dillutions
différentes. Donc on peut tranquillement faire le calcul comme
s'il s'agissait de décrire les positions de toutes les
molécules indépendamment les unes des autres.
L'état de N molécules diluées se décrit
simplement en indiquant pour chacune des N molécules sa
position. Ces données sont indépendantes tant que ces
molécules ne se bousculent pas, autrement dit qu'elles tiennent
une faible place par rapport à l'espace disponible (il y a
presque autant d'espace de liberté pour la dernière
molécule que pour la première).
Donc si on double le volume de la dilution, chaque molécule
dispose d'un espace double, de sorte que l'information de sa
position nécessite 1 bit d'information suppémentaire.
A un doublement du volume de dilution d'un ensemble de N molécules, correspond une augmentation d'entropie de N bits
Au fait, mais pourquoi la substance diluée doit-elle se compter en molécules plutôt qu'en atomes ?
C'est parce que la dilution éloigne les molécules les
unes des autres, mais n'éloigne pas entre eux les atomes cormant
chaque molécule.
Il en va de même de l'expansion d'un gaz dans le vide: un gaz qui
s'étend fournit de l'énergie mécanique à
partir de son énergie thermique, tout en gardant son entropie.
Cela le refroidit. Si alors on lui redonne de la chaleur pour remonter
sa température à la sa valeur initiale, cela fait
croître son entropie. Le bilan de ces transformations peut se
décrire comme une "dilution du gaz dans le vide", et
s'accompagne d'une augmentation de l'entropie qui se calcule de la
même manière qu'une dissolution d'une substance dans un
liquide.
En fait, le calcul de l'entropie d'une goutte de substance soluble
diluée dans un liquide, est identique à celui de
l'entropie de l'état d'un système qu'on imagine
abstraitement comme dilué dans l'espace des phases. A savoir, si
on divise abstraitement le volume du liquide en
cellules microscopiques fixé, l'entropie du tout se calcule
comme somme des entropies internes à chaque cellule,
où l'entropie dans une cellule de volume v où la
concentration est c, vaut v*c*ln(c). (Il n'importe pas que le nombre
moyen espéré v*c de molécules présentes
dans cette cellule, soit très supérieur ou
très inférieur à 1, l'important est que ces
molécules soient concrètement rares, = minoritaires dans
le milieu).
D'un cas à l'autre, la loi de probabilité remplace le
champ de concentration; la seule différence est que la somme des
probabilités est égale à 1 par définition,
tandis que la somme des valeurs de concentration dans un liquide
égale le nombre total de molécules diluées (ou le
nombre moyen espéré de molécules).
Création spontanée d'entropie dans un système isolé
L'évolution d'un système isolé se décrit
par un mouvement interne de son espace des phases, à la
ressemblance du mouvement d'un fluide incompressible. La connaissance
initiale de son état se décrit telle une goutte d'encre
dans ce fluide, dont le degré moyen de dilution définit
l'entropie.
Tant que le système est isolé, il n'y a rien du genre loi
de diffusion qui disperse l'encre directement pour la diluer. Il n'y a
qu'un mouvement de convection. En elle-même, cette convection ne
dilue pas, ne modifie pas la concentration de ce qu'elle transporte,
mais ne fait que la transporter.
Imaginons d'abord la situation dans le cas classique. Au cours de ce
transport, les zones de concentrations s'étirent en filaments et
surfaces de plus en plus fins et entremêlés. Sans qu'une
dilution ne se produise en un sens absolu, élémentaire,
il s'en produit néanmoins une dans un sens pratique: chaque
petit volume "de forme normale" (non étirée:
sphère, cube), contiendra le plus probablement un fin
entremêlage de ces filaments et surfaces, avec une
quantité d'encre totale à peu près la même
que dans le volume voisin. Ainsi, bien qu'il ne se soit pas produit de
dilution en un sens absolu, ce qui s'est produit y ressemble
fichtrement, et peut en pratique être assimilé à
une dilution effective (et donc à une création
d'entropie) dans une bonne approximation.
Est-il néanmoins possible de refuser cette conclusion de
création d'entropie, au nom du fait que la dilution (de
l'état du système dans son espace des phases) ne s'est
pas réellement produite au sens fondamental, à savoir
que, bien que fines et entremêlées, les zones de
concentration existent ? Pour que ce fait élémentaire
soit qualifiable de "réalité physique", encore
faudrait-il pouvoir lui donner une conséquence pratique
effective. Il faudrait pouvoir inverser au moins en partie le mouvement
du fluide, en sorte que les zones de concentration se regroupent
à nouveau vers "un même lieu".
Or, même si en théorie tout mouvement est inversible,
à savoir que l'inverse de chaque mouvement possible est un
mouvement possible (et même aussi probable), le problème
est l'impossibilité de mettre en oeuvre ce mouvement inverse
(qui seul pourrait conduire à un regroupement de l'état
dispersé dans l'espace des phases à un certain moment en
une connaissance "descriptible" et observable de l'état final du
système) dans le contexte où on en a besoin.
En effet, ce contexte étant la présence d'un
système physique fait de particules ayant des positions et
vitesses indéterminées, l'idée naïve pour
cela serait de prendre ce système tel quel, sans le
mesurer, conservant la position de chaque particule ou objet, mais
inversant sa vitesse. Mais l'étude générale
de la mécanique classique comporte une propriété
qui établit qu'un tel "rebondisseur" qui renverserait exactement
le mouvement d'un système, quel que soit son état qu'on
n'a pas mesuré, est rigoureusement impossible.
En conclusion, en un sens élémentaire toute
évolution est réversible et l'entropie reste fixe, au
sens où on ne peut pas parler de dilution et de création
d'entropie en un sens clair et précis, comme
si l'entropie se créait suivant des processus précis
et délimités et
qu'on puisse définir sa valeur en chaque lieu et à chaque
instant. Néanmoins, on peut considérer que
l'état se dilue dans l'espace des phases et donc de l'entropie
se crée au bilan, mais uniquement d'un point de vue global et
pratique.
Cela étant ainsi compris dans le cas classique, qu'en est-il
dans le cas quantique ? cela y ressemble beaucoup, avec de subtiles
différences, là encore à admettre faute d'avoir
introduit le formalisme adéquat, qu'on va essayer d'expliquer.
Dans le cas quantique donc, l'équivalent de la situation
où les zones de concentrations sont étirées et
dispersées, sont celles où les grilles d'observation
à disposition ne collent pas avec le micro-état du
système: il est quasi impossible d'opérer une mesure
divisant l'espace des phases en parties de telle sorte que le
micro-état du système soit assez principalement dans une
des parties. Autrement dit,
le système se trouve à cheval entre un grand nombre
des micro-états tels qu'on peut délimiter suivant les
moyens d'observation directement disponibles.
Jusque-là, tout semble pareil. Bien sûr il doit y avoir
une différence, due au fait que l'espace des phases n'est pas
infiniment divisible, et que cela doit bien à un certain moment
mettre une limite à la dispersion du micro-état dans
l'espace des phases, et donc donner une chance pour que le
micro-état se retrouve correspondre à un état
directement mesurable ultérieurement.
Effectivement, cela se produit ainsi: l'espace des phases étant
fini à n micro-états quantique, au bout d'un certain
temps le système revient dans
l'état de départ suivant une bonne probabilité.
Le problème est que dans le cas pessimiste, le
plus général et probable (sans structures ou
symétries particulières aidant spécialement
à reconduire vers l'état intial), le temps
nécessaire pour cela est de l'ordre de l'exponentielle de n.
Euh, l'exponentielle de quelle base ? Si on définit ce temps
comme 10 puissance n, par exemple, il se trouvera un instant dans cet
période où l'état sera trouvé, si on le
mesure, dans l'état initial suivant une probabilité
plus proche de 1, que si on se contente de l'instant de meilleure
probabilité de retour dans un intervalle de durée de 2
puissance n seulement. Les temps où le système se
retrouve dans l'état initial (ou, dans les contextes optimistes,
dans un certain autre état précis) avec une bonne
probabilité si on voulait alors subitement l'y mesurer, sont
ainsi tout-à-faits exceptionnels, et leur occurrence est
semi-périodique (=non pas périodique mais plus on veut
être précis, plus il faut un long temps pour y
trouver une périodicité suivant cette approximation, mais
dont la durée de validité sera de toute manière
limitée aussi). Tout le reste du temps, il est comme
brouillé comme intermédiaire entre un grand nombre
d'états au sens défini par les moyens d'observation
disponibles.
Dès lors, comme chaque particule supplémentaire
ajoutée au système multiplie le nombre d'état
possibles par une constante, cela aboutit à ce que le temps de
retour soit élevé à une certaine puissance !
Ainsi si chaque particule a 10 états possibles, et qu'il y a 100 particules, cela fait un espace des phases de volume 10100
(nombre de micro-états théoriquement distinguables dans
le système), et donc un temps de retour de l'ordre de
l'exponentielle de 10 100. C'est donc bien un temps démentiellement long, qu'on ne peut pas espérer attendre en pratique.
On pourrait se dire: prenons un système bien plus réduit,
à deux particules par exemples, et attendons le temps
nécessaire, quoique long (style 10 puissance 20 fois le temps
qu'il faut pour aller d'un atome à son voisin à la
vitesse du son, pour un système à une trentaine
d'états...), pour qu'il revienne à peu près
à son état initial.
Le problème est que, on a beau savoir que dans le cas
général une périodicité approximative
existe, elle n'est exploitable qu'à condition d'en
connaître la valeur exacte de sa période pour saisir le
système précisément à cet instant. Comment
la connaître: la théorie ou l'observation ? D'une
manière ou de l'autre la tâche est de toute manière
démentielle. Par l'observation il faudrait essayer toutes les
possibilités de périodes un grand nombre de fois, or il y
en a trop. Par le calcul c'est extrêmement complexe
également. Or, tant les observations que les calculs
informatiques sont des processus créateurs d'entropie. La
difficulité de mener cette recherche à bien ne laisse
guère d'espoir d'en faire une entreprise
bénéficiaire énergétiquement (comme
évitement de création d'entropie).
En fait, ces occurrences exceptionnelles de temps dans lesquels un
système peut revenir dans son état initial ou un autre
état précis observable, de par la complexité du
calcul de leur instant d'occurrence, peuvent être qualifiés
de pseudo-aléatoires.
En effet, une donnée pseudo-aléatoire est une
donnée déterminée par un calcul précis,
mais tellement complexe que son résultat est
imprévisible, comme ressemblant au hasard, tant que ce long
calcul n'a pas été effectué. Les occasions
d'exploitation effective de ces cas exceptionnels où un
système a une bonne probabilité de se retrouver dans un
état précis, ne sont généralement pas
saisies par la nature, qui ne sait pas faire le calcul
nécessaire de façon suffisamment "consciente" pour cela.
C'est ainsi que malgré de subtiles différences de nature
entre cas classique et cas quantique, la conclusion est principalement
la même: les lois de la physique ont beau être
rigoureusement réversibles dans leur expression
élémentaire, elles engendrent au bilan une
création d'entropie pratiquement irréversible.
Etats corrélés et non-additivité de l'entropie
Soit un système AB composé de deux sous-systèmes A et B.
On dit que les systèmes A et B sont non-corrélés,
si leurs états sont complètement indépendants,
autrement dit lorsqu'une information plus précise sur
l'état de A
n'apporte aucune indication sur l'état de B, et inversement.
Formellement cela se traduit ainsi: pour tout micro-état a de A
et tout micro-état b de B, étant donné un moyen de
mesurer si A est dans l'état a ou non, et de même mesurer
si B est dans b, alors la probabilité de trouver à la
fois A dans a et B dans b est égale au produit des
probabilités séparément définies (de
trouver A dans a d'une part, B dans b d'autre part).
A travers ce critère formel, on voit que les deux sens sont équivalents: si une information sur A permettait de
préciser l'état de B, alors inversement une information sur B allant
dans le même sens constituerait une indication rendant plus probable
l'indication premièrement évoquée sur A.
Mais ceci, non pas seulement pour chacun des micro-états d'un
découpage donné des deux espaces des phases, mais pour
tous les micro-états possibles suivant quelque découpage
que ce soit.
L'entropie de AB est égale à la somme des deux entropies
de A et B
pris séparément lorsque A et B sont
non-corrélés. Dans le cas contraire, l'entropie de AB est
inférieure à la somme des entropies de A et de B.
Si A et B sont corrélés, donc, on peut considérer
qu'une fois faite une mesure sur A, l'entropie de B a diminué.
On a ainsi une entropie de B relative au résultat d'une mesure
sur A, inférieure à ce qu'était l'entropie de B
avant cette mesure.
On a déjà évoqué un tel scénario
précédemment dans le cas d'un système formé
d'un appareil de mesure et de son objet mesuré: après la
"mesure", l'entropie de l'objet a été
"transféré" à l'appareil de mesure, mais seulement
dans le sens où on considère l'état de l'objet
relatif à l'état supposé connu de l'appareil de
mesure.
Car si jamais on perdait ou ignorait le résutat de la mesure
(information stockée dans l'appareil de mesure), alors on serait
tout aussi mal informé qu'au départ sur l'état de
l'objet, donc l'entropie de celui-ci n'aurait pas diminué.
Sauf bien sûr si après avoir mesuré l'état
de l'objet, l'appareil de mesure, grâce à sa
connaissance de cet état, a ensuite agi sur l'objet pour
l'amener dans un même état final qui ne dépend plus
de l'état initial. Dans ce dernier cas, le transfert de
l'entropie de l'objet vers l'appareil de mesure serait
entièrement accompli.
Faisons enfin quelques remarques sur la distinction entre
corrélation classique et corrélation quantique, et sur le
paradoxe EPR.
La seule distinction, en fait, est qu'une corrélation classique
est "explicable" en se disant que bien qu'étant inconnu,
l'état d'un système physique existe avant
d'être mesuré, la mesure ne fait que le découvrir,
et que la loi de probabilité qu'on lui avait donné
n'était que l'expression de notre ignorance qui n'engage que
nous et non pas l'objet étudié.
Tandis qu'une corrélation quantique n'admet pas une telle
explication. Mais le formalisme de la physique quantique ne comporte en
lui-même aucune raison de distinguer ces deux sortes de
corrélations: il leur attribue la même nature. Une
corrélation quantique est semblable à une
corrélation classique à la seule différence que
les frontières du domaine (le système
d'inégalités) encadrant la loi de probabilité
à laquelle sont assujettis les résultats de mesure en
fonction du type de mesure choisi, peuvent être
dépassés. Le système d'inégalités
qui encadrait les possibles loi de probabilité dans le cas d'une
corrélation classique, est devenu caduque. Seules les
équations en forme d'égalités demeurent valables.
Il en résulte qu'il suffit de brouiller une corrélation
quantique par une proportion suffisante de bruit, pour faire entrer le
système de probabilité dans le domaine des
corrélations classiques.
Donnons des exemples.
Un exemple typique général de corrélation
classique, est celui défini par un certain découpage de
chacun des systèmes A et B en micro-états, une
correspondance injective j entre les deux, et pour chaque
micro-état a de A, la donnée d'une probabilité
p(a) pour que A soit dans a et que B soit dans l'état
correspondant b=j(a). Plus précisément, la
corrélation classique dont il est ici question est celle
où cette description est la seule chose qu'on sache sur le
système AB. En effet, il s'agit de supposer qu'un tirage au sort
a eu lieu, dont le résultat a été de
déterminer A comme étant dans a et B dans b=j(a).
Alors l'entropie de A est égale à celle de B et aussi
égale à celle du système AB. Si on mesure le
micro-état de A suivant ce même découpage, alors B
sera dans un micro-état déterminé, donc son
entropie relative sera nulle. Mais si on mesure le micro-état de
A suivant un autre découpage, observant un micro-état qui
ne coïncide avec aucun de ceux du découpage
précédent, alors il mélange les
possibilités de micro-états initiaux pour A et donc aussi
les possibilités pour B, de sorte que l'entropie relative de B
sera non nulle.
Concernant les corrélations quantiques, l'exemple
extrême, qui est en fait la brique de base qui permet de
construire tous les autres par tirages au hasard de cas de ce type, est
celui d'un unique micro-état du système AB, donc
d'entropie nulle, mais qui ne correspond à aucun couple de
micro-états respectifs des systèmes A et B. Dans ce cas,
A et B ont chacun une même entropie non-nulle mais l'entropie du
tout est nulle.
En fait, la description ressemble beaucoup au cas
précédent: il existe un découpage adapté de
chacun des 2 espaces des phases de A et de B en micro-états,
avec chacun une probabilité, où l'observation d'un des
micro-états de A oblige à être dans le
micro-état correspondant.
Mais il y a une différence essentielle, liée au fait que
l'entropie du tout est nulle (le système AB est dans un seul
micro-état) et non plus égale à la valeur commune
de l'entropie de chacun pris séparément. C'est que pour
tout autre découpage de l'espace des phases de A en
micro-états, quel que soit le micro-état alors
observé, B se trouvera alors dans un micro-état
très précis (bien que ne coïncidant pas avec un de
la liste).
Et de même en échangeant A et B.
De façon générale, l'entropie S d'un système AB et les entropies SA et SB de chacun de ses sous-systèmes, sont liés par les inégalités:
|SA - SB| < S < SA + SB
et la valeur moyenne S'B de l'entropie de B relativement
à un micro-état observé de A, moyennée sur
ces micro-états possibles lors d'une observation, est
liée par les inégalités
max(S, SB) - SA < S'B < min(S, SB)
(mais les valeurs individuelles de l'entropie relative ne sont
liées par aucune inégalité: on peut toujours
ajouter une chance minuscule que A soit dans un état
exceptionnel où B aura n'importe quelle entropie de 0 à
son maximum accessible)
En fait, le cas de la non-corrélation S=SA + SB implique d'égalité S'B=SB mais ne lui est pas équivalent, car S'B=SB n'exprime la non-corrélation que sous l'aspect d'une seule manière de mesurer A. Seulement lorsque S'B=SB a
lieu pour toutes les manières de mesurer A alors cela est
globalement une non-corrélation au sens où S=SA + SB.
Dans le cas inverse S=SB - SA où A porte une corrélation quantique maximale à B, on a S'B=S=SB - SA.
Plus généralement, S'B=SB - SA
exprime la situation où A est un appareil de mesure
idéal qui vient de faire une mesure partielle (un classement) de
l'état de B, et où la mesure ensuite faite sur A est
précisément celle qui retrouve l'information
portée, obtenue par cette mesure: chaque micro-état
possible observé de A correspond à un résultat
possible de la mesure initiale. Ainsi l'état de A est la
pure expression d'une information sur l'état de B.
Création d'entropie par décohérence
Nous avons précédemment expliqué comment
l'entropie peut se créer spontanément dans un
système isolé d'un point de vue pratique, alors
même que d'un point de vue fondamental l'entropie se conserve.
Nous avons précisé comment cette croissance de l'entropie
pratique est liée à la complexité du
système: plus le système a un grand nombre d'états
possibles, donc est capable de porter une entropie
élevée, plus le processus de création d'entropie
paraît net et irréversible; et ce très rapidement
lorsque le nombre d'états accessibles (et donc plus encore le
nombre de particules ou degrés de liberté du
système, autrement dit son entropie maximale) augmente.
Nous allons voir maintenant l'autre raison qui explique la
création d'entropie, de manière encore bien plus claire
et nette que ce qui avait lieu pour un système isolé.
C'est la
création d'entropie par interaction du système avec son
environnement, ce qu'on appelle la décohérence.
Comment l'appréhender ? En un sens on pourrait considérer
le grand système formé par le petit système et son
environnement, comme un système isolé. Oui mais
l'environnement n'est pas isolé non plus, car il interagit avec
un environnement plus lointain. Ainsi l'air à un endroit
interagit avec le reste de l'atmosphère et de la terre, qui
interagit par rayonnement avec le soleil et l'espace
interstellaire, donc finalement avec l'univers entier.
Alors, dans un tel système s'avérant ainsi très
grand (d'autant plus qu'on le regarde sur un temps long, rendant le
temps de retour à l'état initial toujours très
largement plus grand que le temps écoulé, donc
inaccessible), ce qui était déjà approximativement
vrai dans un système un peu grand prend dès lors toutes
les allures d'une vérité exacte: de l'entropie est
effectivement créée.
Nous allons préciser comment cette création d'entropie se
produit lors de l'échange de particules du système
étudié avec le milieu extérieur.
Il suffit en fait de se rapporter aux formules plus haut sur l'entropie.
En permanence le système étudié reçoit des
particules du milieu extérieur (molécules de gaz,
photons...), puis en renvoie de façon à avoir en moyenne
toujours environ autant de particules.
Généralement, les particules reçues sont non
corrélées au système. En effet, même si
à un moment des particules environnantes sont
corrélées au système, elles perdent rapidement
cette corrélation en s'échangeant ou interagissant avec
le milieu plus lointain: pour pouvoir encore retrouver une
corrélation qui dans l'absolu existe, il faudrait mesurer l'état d'un
environnement de plus en plus grand et lointain, ce qui en pratique n'est pas
possible.
Donc:
Un système reçoit quelques particules du milieu
environnant, qui viennent avec leur propre entropie... ou pas; mais qui
en tout état de cause ne sont a priori pas
corrélées. Donc, sans corrélation, le
système augmenté de ces particules a pour entropie
absolue la somme de l'entropie du système initial et des
particules reçues.
Cela interagit, de sorte que, si ce n'était pas
déjà au départ dans son équilibre
thermodynamique (d'entropie maximale, définie par la loi de
Boltzmann), cela a toutes les chances d'engendrer une entropie
pratique supplémentaire par rapport à son entropie
absolue. Puis, lorsque les particules quittent le système, il y
a par contre toutes les chances qu'elles lui soient alors
corrélées (toujours dans le cas où il n'y avait
pas équilibre thermodynamique), car les micro-états non
corrélés du système (définis par un couple
de micro-état de chaque sous-système), bien que formant
un système complet de micro-états (éléments
d'un découpage), ne constituent qu'un cas très
particulier de système complet de micro-états.
Pour un micro-état quelconque du système obtenu suite
à une évolution sauvage à partir d'un
micro-état initial, si A est un système beaucoup
plus petit que B (A est fait de quelques particules, son entropie
maximale est nettement plus faible que celle de B), le plus probable
est d'avoir une situation voisine d'une corrélation quantique,
autrement dit une situation où SB et SA sont tous deux voisins de l'entropie maximale de A.
Plus généralement, étant donnée une
entropie de départ S nettement inférieure au maximum
théorique (qui est aussi l'entropie pratique), à savoir
que leur différence est très supérieure au maximum
de SA, alors à la sortie, SA sera à son maximum, et SB sera très proche de son maximum permis par les inégalités ci-dessus, à savoir SB=S+SA (tant que cette valeur ne dépasse pas le maximum d'entropie possible pour B).
C'est donc l'interaction avec le milieu extérieur qui finalement crée l'entropie.
A savoir, c'est cette interaction qui met son dernier paraphe validant
la quasi-création d'entropie qui avait déjà eu
lieu lors de l'évolution interne du système, et la
transformant en entropie absolue (dans la mesure où la
corrélation du système à son environnement
s'avère inexploitable), à un rythme à peu
près égal au rythme maximal auquel l'entropie
s'échapperait du système s'il n'en recevait pas aussi
régulièrement de l'environnement en retour.
Ainsi, si on prend comme système la Terre, et comme
environnement, le rayonnement échangé par la Terre avec
l'espace, le rayonnement infrarouge émis par la Terre est
capable de convertir l'entropie pratique créée par la
Terre en entropie absolue, au même rythme qu'il peut
évacuer cette dernière entropie elle-même. Ainsi,
en même temps que le rayonnement évacue dans l'espace une
certaine quantité d'entropie pratique, il peut augmenter
l'entropie absolue de la Terre de la même quantité. Cela
peut donc diminuer à un rythme double la différence entre
les 2, de sorte qu'en fin de compte l'entropie absolue de la Terre en
suit de près l'entropie pratique (ne pouvant évidemment
pas dépasser celle-ci).
On peut encore détailler les raisons pour lesquelles cette création d'entropie est irréversible.
Mais il est pour cela intéressant de distinguer 2 cas.
L'un est la simple disparition de toute corrélation entre un
système et son milieu, lorsque celui-ci est simplement
agité thermiquement.
En effet, au départ certaines particules de l'environnement sont
corrélées au système. Mais ces particules se
mêlent ensuite à d'autres qui ne l'étaient pas.
Ainsi, les mesures des premières particules qui
étaient corrélées au système, correspondent
désormais à certaines mesures d'un ensemble plus grand de
particules environnantes, mais ce ne sont plus que des mesures de
corrélations entre un ensemble de particules environnantes de
plus en plus grand. Supposons que certaines de ces particules soient
"perdues", oubliées, négligées, par exemple des
photons infrarouge partant au loin.
Alors du point de vue de cette division arbitraire entre particules
oubliées et l'environnement accessible, les mesures de
l'environnement qui étaient corrélées au premier
système, ne sont plus que des mesures de corrélation
entre les particules oubliées et l'environnement accessible.
Corrélations impossibles à mesurer en pratique, faute
justement d'avoir accès aux particules oubliées. C'est ce
qui explique pourquoi les prochaînes particules de
l'environnement qui interagiront avec le système, ne lui seront
pas corrélées.
L'autre est celui qui fait les choses à moitié, de
façon spéciale: il ne fait que dégrader une
corrélation quantique en corrélation classique, d'une
manière qui n'est autre que la modélisation du processus
de mesure de l'état d'un système par un appareil de
mesure.
Dans ce cas, cela commence de la même manière: l'appareil
de mesure devient corrélé au système
observé, puis interagit avec son environnement. La
différence est l'appareil de mesure est dotée d'une
mémoire capable de préserver son information au lieu de
la perdre en corrélation avec son environnement. Mais il ne
préserve pas n'importe quel micro-état: il
préserve uniquement les informations "classiques",
c'est-à-dire certains découpages particuliers de son
espace des phases, ce qui en théorie peut même être
un découpage complet en micro-état; mais il ne
préserve pas de découpages incompatibles: un
micro-état qui serait non conforme au découpage
préservé, autrement dit à cheval entre plusieurs
classes (qui représentent les résultats de mesure), ne
reste pas un micro-état de cette mémoire mais se perd en
corrélation avec son environnement de la même
manière que dans le cas précédent. C'est de cette
manière que la corrélation quantique entre la
mémoire de l'appareil de la mesure et le système
observé, devient corrélation classique, et que
l'on dit que la mesure a été effectuée et a
subi une décohérence.
En pratique, lorsque l'environnement n'est pas à
l'équilibre thermodynamique, il arrive spontanément que
son défaut d'entropie se convertisse un grand nombre de fois en
mesures du contenu de la mémoire, donc des copies de la
même information classique corrélées entre
elles. Cela constitue bien sûr un défaut d'entropie
d'autant plus grand qu'il y a de copies de cette information. Un tel
processus de copie de l'information classique inscrite dans la
mémoire, autrement dit définie par un même
découpage de l'espace des phases de cette mémoire, suffit
à obliger à ce que soit perdu dans l'environnement comme
indiqué plus haut, tout micro-état (ou toute mesure
ou corrélation de la mémoire avec le système qui a
été observé) qui soit incompatible avec ce
découpage.
Retour