La nature statistique de l'entropie
L'espace des phases
L'ensemble des états possibles de tout système physique
donné, à l'intérieur duquel l'évolution
s'effectue autour du temps, est appelé l'espace des phases de ce
système.
Il faut distinguer si l'étude se fait dans le cadre de la physique classique, ou de la physique quantique.
En fin de compte le vrai cadre est bien sûr celui de la physique
quantique. Mais ses propriétés sont plus étranges
et difficiles à se représenter, tant qu'on n'adopte pas
pleinement le formalisme de la physique quantique.
La présente approche se voulant vulgarisée, ne reposera
pas sur le plein formalisme de la physique quantique, trop abstrait,
mais s'appuiera sur certaines de ses propriétés
qualitatives les plus utiles.
Par ailleurs, l'introduction des mêmes notions dans le cas
classique aidera à s'en donner certaine représentation
précise et cohérente, ayant assez de
propriétés essentielles communes avec le cas quantique,
et aidera donc à comprendre par analogie le cas quantique,
même si en toute rigueur les deux cas restent distincts.
Cas classique : l'espace des
phases pour un système de N particules est un espace à 6N
dimensions (dont 3 pour la position et 3 pour la vitesse).
L'évolution conserve le volume dans cet espace, autrement dit
elle se comporte comme le mouvement d'un fluide incompressible. Un
état élémentaire du système y est un point,
évoluant de manière continue et déterministe
(même si cahotique) comme emporté par le fluide.
Tant dans le cas classique que quantique, le volume total de l'espace des phases est ainsi limité par
l'espace et l'énergie disponibles pour le système, mais
peut croître à l'infini s'il dispose d'un espace et/ou
d'une énergie illimité.
Cas quantique, difficilement imaginable, mais à admettre
! L'espace des phases comporte une unité de volume
indivisible. Le volume de toute portion délimitée de cet
espace, compté suivant cette unité, est toujours un
nombre entier. Un état élémentaire du
système est défini par une "case" également appelé micro-état, de volume 1.
Mais la manière dont un espace se divise en micro-états
n'est pas
fixée à l'avance. A l'état naturel, l'espace des
phases n'est pas divisé, mais il est continu et évolue
comme tel. C'est le processus de mesure qui définit une division
en micro-états, et un micro-état donné
n'évolue pas
nécessairement vers un micro-état particulier de la
prochaine
mesure effectuée. S'il tombe entre plusieurs micro-états,
le
résultat de la mesure sera un des micro-états du nouveau
découpage entre lesquels s'étale le micro-état
obtenu par évolution de celui dont on était parti,
aléatoirement suivant une loi de
probabilité déterminée par la manière dont
le micro-état obtenu par évolution est
étalé au travers des nouveaux. Après la mesure, le
micro-état du système sera
exactement défini par celui où il a
été trouvé.
On a un équivalent de la propriété de conservation
des volumes: les systèmes dont l'état est dans un
volume donné à un instant t ne peuvent jamais
évoluer avec certitude vers un volume plus petit à un
instant ultérieur t'. Cela se traduit formellement en disant
que, si un système peut évoluer d'un micro-état A
à un micro-état B suivant une probabilité p et s'il est
possible de renverser exactement le sens de cette
évolution, alors l'évolutionn inverse de B en A se fait
suivant la même probabilité p. Ainsi, tout comme
l'évolution depuis un état initial donné se
décrit par des probabilités d'états finaux
(suivant un découpage final arbitraire) dont la somme vaut 1,
l'incompressibilité de l'espace des phases se traduit par le
fait que, pour un état final donné, la somme des
probabilités d'y aboutir à partir de chaque case d'un
découpage initial, sera également 1.
Définition de l'entropie
L'entropie n'est pas à la base une propriété
intrinsèque, mesurable, d'un système physique; mais c'est
une propriété de la connaissance a priori que l'on a
l'égard du système.
Voici donc sa définition:
L'entropie
d'un système est l'ampleur de l'imprécision de la
connaissance dont on dispose a priori sur le micro-état du système.
Comment traduire une qualité semblant aussi vague que
l'expression ci-dessus, en un nombre, pour pouvoir la traiter
mathématiquement ? Ce nombre se définit intuitivement
ainsi:
L'entropie
mesure la taille moyenne espérée du fichier qui serait
nécessaire pour spécifier le micro-état du
système, présenté suivant le
format conçu comme le plus compressé possible (=
de plus petite taille moyenne espérée) étant
donnée la connaissance préalable qu'on avait de cet
état.
Il y a une définition mathématique exacte de
l'entropie, qui est la suivante (histoire de dire qu'il y a une
définition exacte, mais que pour éviter les formules
nous n'utiliserons guère dans la suite):
La connaissance a priori de l'état du système se
décrit par un découpage adéquat de l'espace des
phases en micro-états possibles x, et une probabilité
p(x) assignée à chacun; son entropie est alors la
somme sur toutes les micro-états x, de -p(x)*ln(p(x)).
L'entropie zéro
Le fait qu'il existe une entropie zéro, sous laquelle on ne peut
pas descendre, tient à la nature quantique des systèmes.
A savoir, que l'espace des phases n'est pas découpable plus
finement qu'en un nombre entier de micro-états. Une fois
spécifié le micro-état dans lequelle se trouve le
système, c'est déjà l'information la plus
exacte possible qu'on puisse en avoir. Aucune mesure
supplémentaire ne peut aboutir à une connaissance plus
précise, car un autre découpage en micro-état ne
ferait que
réduire l'état du système à un
micro-état du nouveau découpage, sans
préserver la
précision que l'ancien découpage pouvait constituer.
Ainsi l'entropie zéro est liée aux effets quantiques du
système qui se manifestent au voisinage du zéro absolu.
Sans ces effets quantiques, autrement dit dans le cadre de la
mécanique classique, il n'y aurait pas de limite
inférieure nécessaire à l'entropie du
système.
Dans l'espace des phases classique, l'état d'un système
est un point, qui ne serait pas spécifiable exactement, mais
chaque avancée de la précision serait une information
supplémentaire. La suite des décimales de
précision des coordonnées du système, qu'on
pourrait extraire de mesures de plus en plus précises, serait
infinie. La notion même d'état exact du système
n'aurait aucun sens, mais nécessiterait pour être
spécifiée une infinité de mesures, autrement dit
nécessiterait d'évacuer du système une
quantité d'entropie infinie. La notion d'entropie zéro
est incompatible avec la mécanique classique.
Unités d'entropie et son caractère non-entier
La formule exacte plus haut fait intervenir un logarithme. Ainsi
l'entropie est au fond une quantité sans dimension, qui
seulement a l'air d'avoir une dimension d'un point de vue
macroscopique, du fait qu'elle y est multipliée par le nombre
d'atomes en jeu. Macroscopiquement, le nombre d'atomes se comporte
comme une quantité dimensionnée avec une unité
arbitraire (une mole). Il en va de même pour l'entropie, dont
l'unité macroscopique est sujette à des liens physiques
précis avec les nombres de moles.
Dans la traduction intuitive de l'entropie en termes de taille des
fichiers, cette unité logarithmique correspond naturellement
à l'unité de mesure des tailles de fichier. La mesure en
bits correspond au logarithme binaire; la mesure en octets correspond
à la base 256. Si on traduisait les fichiers sous un format
décimal (comme suite de chiffres de 0 à 9) il
faudrait ln(10)/ln(2) fois moins de chiffres qu'il ne fallait de bits
pour exprimer la même information.
Un système à N micro-états possibles nécessite un
nombre de 1 à N pour être spécifié, ce qui
constitue une information de taille ln(N) lorsque ces états sont
équiprobables. L'entropie du système est alors ln(N).
Mais cette entropie diminue au fur et à mesure que la loi
de probabilité s'éloigne de
l'équiprobabilité. A la limite, la loi de
probabilité la plus inégale est celle qui donne la
probabilité 1 à un état et 0 à tous les
autres. Son entropie est alors nulle.
Par exemple, imaginons un système à 3 états
possibles A,B,C. S'ils sont de probabilité 1/3 chaque,
l'entropie vaut ln(3) (un chiffre de base 3). Mais si les
probabilités sont 1/2,1/4,1/4, alors il faut d'abord un bit pour
distinguer entre A d'une part, B ou C de l'autre. Une chance sur 2 que
ça soit A et que donc ça suffise; une chance sur 2 que ce
soit (B ou C), et que donc il faille un bit d'information
supplémentaire pour conclure. Finalement, la taille moyenne
du fichier nécessaire pour spécifier l'état est de
1,5 bit, ce qui est moindre que l'entropie dans le cas
d'équiprobabilité qui valait ln(3)/ln(2)=1,585 bit.
On peut demander: si une quantité d'information plus grande
que 1 bit peut se compter en nombre non-entier de bits, un bit
d'information isolé est-il divisible en unités plus
petites ? Bien sûr, ce n'est pas praticable tel quel
isolément, mais ça l'est en un certain sens en
élargissant le contexte. Bien sûr, les états
possibles étant distincts par nature, on ne peut pas avoir
plus de 1 mais moins de 2 états possibles. Mais comme
précédemment, on peut réduire l'entropie d'un
système à un nombre d'états donné en
s'éloignant de l'équiprobabilité. Ainsi, si un bit
a plus de chances de valoir 0 que 1 (s'il y a une chance sur 3 d'avoir
pile et 2 chances sur 3 d'avoir face), on peut réduire sa place
de la manière suivante: il suffit de mettre ensemble N tirages
indépendants d'un tel bit, d'en faire ainsi un fichier à
N bits, puis de compacter le tout. La taille moyenne
espérée du fichier ainsi obtenue est alors
inférieure à N bit, à cause de l'écart
systématique de probabilités entre le pile et le face. Il
y a bien sûr un risque que la taille soit finalement
supérieure à N, à savoir lorsque ses cas a priori
les moins probables sont finalement obtenus. Cela ne survient que
rarement si les probabilités sont effectivement inégales
comme attendu, mais cela arriverait plus souvent dans le cas de
l'équiprobabilité.
Reprenons la formule de l'entropie, et expliquons comment la
description intuitive en terme de taille de fichier, en est le reflet:
Si un micro-état x a la probabilité p(x) de survenir,
alors le fichier d'information le mieux compacté
décrivant le micro-état du système, se trouvera
être de longueur -ln(p(x)) lorsqu'il sera x. On peut le
comprendre en l'imaginant regroupé avec tous les autres
micro-états de même probabilité. Si tous les
états étaient équiprobables, ils seraient en
nombre 1/p(x), donc la taille de l'information spécifiant le
choix serait ln(1/p(x))=-ln(p(x)).
La taille moyenne espérée du fichier, est la moyenne de
ces -ln(p(x)) pondérée par les probabilités p(x),
donc somme des -p(x)ln(p(x)).
La mesure comme extraction d'entropie
Expliquons le comportement de l'entropie lors
d'une mesure d'un système physique en général.
Lorsqu'une mesure améliore l'information dont on dispose sur un
système, elle diminue l'entropie de ce système. Mais elle
ne la diminue généralement que d'une faible
quantité: l'information obtenue comme résultat d'une
mesure physique ordinaire d'un système macroscopique est
généralement négligeable face à la
quantité proprement astronomique d'informations qui serait
idéalement nécessaire pour décrire positions et
vitesses (dans la limite des inégalités de Heisenberg) de
tous les atomes thermiquement agités dans ce système.
On n'est certes pas à ça près en pratique, mais en
toute rigueur on peut se demander: où est passé cette
petite quantité d'entropie qui a quitté le système
lors de la mesure de quelques-uns de ses paramètres ?
Elle a été tout simplement transmise à
l'observateur. Il y a en effet plusieurs états possibles dans
lesquels l'observateur peut se retrouver après la mesure,
suivant le résultat de celle-ci. Si en guise d'observateur on a
un appareil enregistreur, alors l'état final de l'enregistrement
est indéterminé suivant les probabilités des
quantités mesurées de prendre telle ou telle valeur. Donc
cet enregistrement est devenu le support de la petite quantité
d'entropie correspondant à l'information qui a été
extraite du système au cours de la mesure (cette diminution
de l'imprécision de la connaissance dont on disposait sur
le système).
En effet un appareil de mesure et son enregistreur, étant
matériel et inconscient, peut être considéré
comme étant dans un état indéterminé, et
donc porteur d'entropie. Dans le cas d'un observateur conscient, on
aurait envie d'interpréter la situation en disant que
l'indétermination est levée (puisque l'observateur est
conscient du résultat, qui a donc une valeur bien
déterminée), donc comme si l'entropie avait disparu. En
pratique, cela ne peut évidemment pas servir à
éliminer l'entropie, puisque le fonctionnement interne d'un
observateur humain (ou animal...) crée en permanence de
l'entropie en flux bien plus considérable que la quantité
d'information qui peut être reçue par les sens. Le
processus de création d'entropie sera expliqué plus loin.
Comme une information enregistrée signifie une quantité
d'entropie, l'effacement d'une information nécessite
d'évacuer cette entropie ailleurs.
Peut-on mesurer l'entropie ?
On ne peut certes pas donner de signification exacte à la mesure
de l'entropie; mais on peut y donner une signification approximative,
dont la marge d'erreur de plusieurs unités (taille d'expression de l'information mesurée) s'estompe en
compraraison des quantités d'entropie nettement plus
considérables qui sont en jeu dans les systèmes physiques
macroscopiques, et qui sont l'objet de la mesure.
En fait, on a déjà vu un aperçu de cette notion
plus haut, lorsqu'une petite partie de l'information peut servir
à évaluer la taille qui sera prise par le reste de
l'information. Cette taille étant déterminée par
la probabilité des micro-états considérés,
on peut donc concevoir une mesure physique distinguant
différentes classes (ou macro-états) de
micro-états du système, où les micro-états
individuels ont des probabilités voisines dans chaque classe (on
n'est pas à un facteur 1000 près, 3 chiffres
décimaux n'étant pas grand-chose face au nombre
gigantesque d'atomes d'atomes d'un système macroscopique dont
chacun porte plusieurs chiffres d'information), mais peuvent varier
bien plus largement d'une classe à l'autre.
Les classes d'états individuellement les moins probables
contiennent généralement beaucoup plus de
micro-états, que celles des micro-états individuellement
plus probables, afin que le rapport de probabilité totale
entre l'une et l'autre classe soit équitable, et ainsi que la
mesure en vaille la peine.
C'est tout ce qu'on aura en guise de mesure de l'entropie.
Diminutions exceptionnelles d'entropie
Suivant la définition que nous venons de présenter,
l'entropie s'avère plus précisément définie
comme une moyenne espérée par rapport à tous les
micro-états possibles, d'une valeur plus précise de
l'entropie.
La mesure d'un paramètre du système permet de faire une
certaine mesure de l'entropie et ainsi de la modifier. Si par exemple
le résultat de la mesure est une information binaire avec une
probabilité 1/2 chaque, cela divise l'espace des phases en 2
parties. Suivant la manière dont cette division est
configurée par rapport à l'état initial du
système, les deux valeurs S1 et S2 prises par l'entropie finale
suivant le résultat de la mesure, sont reliées à
l'entropie initiale S0 du système, par la formule
S0 - 1bit < (S1+ S2)/2 (qui peut dans certains cas être supérieur à S0)
Si on définit l'entropie finale comme somme des entropies
finales du système et de l'appareil de mesure (hypothèse
qui sera questionnée plus loin), cela donne en moyenne (S1+
S2)/2 + 1 bit, qui est donc supérieur à l'entropie
initiale S0. Mais ce n'est qu'une moyenne espérée. En
l'occurence, il y a une chance sur 2 qu'on soit dans le premier cas,
d'entropie S1 + 1 bit; et une sur 2 qu'on soit dans l'autre cas, S2 + 1
bit.
Il est possible que de l'entropie soit détruite au cours de certains processus.
Par contre ce qu'on sait, c'est que tout processus qui a des chances de
détruire de l'entropie, a aussi des chances d'en créer;
que ces destructions d'entropie seront le plus souvent très
faibles (de l'ordre de l'unité, donc négligeables pour
les systèmes macroscopiques), et qu'au bilan l'espérance
de variation est positive. Tout comme il n'est pas raisonnable d'aller
jouer au casino avec les machines automatiques dans l'espoir de faire
des affaires, car les gestionnaires du casino ont su s'arranger pour
être bénéficiaires en moyenne espérée
quoi que vous fassiez. De même il n'est pas raisonnable de jouer
avec ces processus de hasard qui peuvent dans certains cas
détruire de l'entropie, parce que cela peut aussi bien en
créer, et que quelle que soit la stratégie
adoptée, en moyenne cela en créera effectivement.
Remarque: les situations où l'entropie de départ est
voisine de la moyenne espérée des entropies
d'arrivée, mais où ces dernières diffèrent
significativement les unes des autres (au moins de l'ordre de
l'unité), sont des situations de déséquilibre
thermodynamique, qui nécessitent donc des conditions
expérimentales difficiles à mettre en place, en ce sens
que cela risque toujours de créer un zeste d'entropie.
L'entropie de dissolution
Une substance soluble dans un fluide (par exemple de l'encre dans de
l'eau) porte une entropie d'autant plus grande qu'elle est
diluée.
Le calcul de cette entropie est le suivant.
Soit N le nombre de molécules diluées. L'information
qu'il faudrait pour décrire le micro-état de la
solution comporte bien sûr diverses données sur les
agitations de toutes les molécules diluées et diluantes.
Contentons-nous des données décrivant les positions des
molécules diluées, et plus précisément
comment varie cette masse de données entre des volumes de
dilutions différents.
On peut décrire l'état de dilution d'un ensemble de
molécules, en décrivant la position de chaque
molécule. En fait, une telle description ne correspond pas
à la réalité, car l'échange de 2
molécules identiques ne modifie pas l'état. Tenant compte
de toutes les permutations possibles entre molécules laissant
ainsi l'état inchangé, cela présenterait donc N!
descriptions différentes du même état physique.
Mais il suffit alors de diviser le nombre d'états par N! (et
donc multiplier la probabilité de chaque état par N!)
pour retrouver un calcul correspondant à la
réalité.
Mais si on fixe le nombre total N de molécules diluées,
le facteur N! étant constant n'intervient pas dans le
résultat des différences d'entropie entre des dillutions
différentes. Donc on peut tranquillement faire le calcul comme
s'il s'agissait de décrire les positions de toutes les
molécules indépendamment les unes des autres.
L'état de N molécules diluées se décrit
simplement en indiquant pour chacune des N molécules sa
position. Ces données sont indépendantes tant que ces
molécules ne se bousculent pas, autrement dit qu'elles tiennent
une faible place par rapport à l'espace disponible (il y a
presque autant d'espace de liberté pour la dernière
molécule que pour la première).
Donc si on double le volume de la dilution, chaque molécule
dispose d'un espace double, de sorte que l'information de sa
position nécessite 1 bit d'information suppémentaire.
A un doublement du volume de dilution d'un ensemble de N molécules, correspond une augmentation d'entropie de N bits
Au fait, mais pourquoi la substance diluée doit-elle se compter en molécules plutôt qu'en atomes ?
C'est parce que la dilution éloigne les molécules les
unes des autres, mais n'éloigne pas entre eux les atomes cormant
chaque molécule.
Il en va de même de l'expansion d'un gaz dans le vide: un gaz qui
s'étend fournit de l'énergie mécanique à
partir de son énergie thermique, tout en gardant son entropie.
Cela le refroidit. Si alors on lui redonne de la chaleur pour remonter
sa température à la sa valeur initiale, cela fait
croître son entropie. Le bilan de ces transformations peut se
décrire comme une "dilution du gaz dans le vide", et
s'accompagne d'une augmentation de l'entropie qui se calcule de la
même manière qu'une dissolution d'une substance dans un
liquide.
En fait, le calcul de l'entropie d'une goutte de substance soluble
diluée dans un liquide, est identique à celui de
l'entropie de l'état d'un système qu'on imagine
abstraitement comme dilué dans l'espace des phases. A savoir, si
on divise abstraitement le volume du liquide en
cellules microscopiques fixé, l'entropie du tout se calcule
comme somme des entropies internes à chaque cellule,
où l'entropie dans une cellule de volume v où la
concentration est c, vaut v*c*ln(c). (Il n'importe pas que le nombre
moyen espéré v*c de molécules présentes
dans cette cellule, soit très supérieur ou
très inférieur à 1, l'important est que ces
molécules soient concrètement rares, = minoritaires dans
le milieu).
D'un cas à l'autre, la loi de probabilité remplace le
champ de concentration; la seule différence est que la somme des
probabilités est égale à 1 par définition,
tandis que la somme des valeurs de concentration dans un liquide
égale le nombre total de molécules diluées (ou le
nombre moyen espéré de molécules).
La suite plus tard:
La création spontanée d'entropie dans un système isolé
L'évolution d'un système isolé se décrit
par un mouvement interne de son espace des phases, à la
ressemblance du mouvement d'un fluide incompressible. La connaissance
initiale de son état se décrit telle une goutte d'encre
dans ce fluide, dont le degré moyen de dilution définit
l'entropie.
Tant que le système est isolé, il n'y a rien du genre loi
de diffusion qui disperse l'encre directement pour la diluer. Il n'y a
qu'un mouvement de convection. En elle-même, cette convection ne
dilue pas, ne modifie pas la concentration de ce qu'elle transporte,
mais ne fait que la transporter.
Imaginons d'abord la situation dans le cas classique. Au cours de ce
transport, les zones de concentrations s'étirent en filaments et
surfaces de plus en plus fins et entremêlés. Sans qu'une
dilution ne se produise en un sens absolu, élémentaire,
il s'en produit néanmoins une dans un sens pratique: chaque
petit volume "de forme normale" (non étirée:
sphère, cube), contiendra le plus probablement un fin
entremêlage de ces filaments et surfaces, avec une
quantité d'encre totale à peu près la même
que dans le volume voisin. Ainsi, bien qu'il ne se soit pas produit de
dilution en un sens absolu, ce qui s'est produit y ressemble
fichtrement, et peut en pratique être assimilé à
une dilution effective (et donc à une création
d'entropie) dans une bonne approximation.
Est-il néanmoins possible de refuser cette conclusion de
création d'entropie, au nom du fait que la dilution (de
l'état du système dans son espace des phases) ne s'est
pas réellement produite au sens fondamental, à savoir
que, bien que fines et entremêlées, les zones de
concentration existent ? Pour que ce fait élémentaire
soit qualifiable de "réalité physique", encore
faudrait-il pouvoir lui donner une conséquence pratique
effective. Il faudrait pouvoir inverser au moins en partie le mouvement
du fluide, en sorte que les zones de concentration se regroupent
à nouveau vers "un même lieu".
Or, même si en théorie tout mouvement est inversible,
à savoir que l'inverse de chaque mouvement possible est un
mouvement possible (et même aussi probable), le problème
est l'impossibilité de mettre en oeuvre ce mouvement inverse
(qui seul pourrait conduire à un regroupement de l'état
dispersé dans l'espace des phases à un certain moment en
une connaissance "descriptible" et observable de l'état final du
système) dans le contexte où on en a besoin.
En effet, ce contexte étant la présence d'un
système physique fait de particules ayant des positions et
vitesses indéterminées, l'idée naïve pour
cela serait de prendre ce système tel quel, sans le
mesurer, conservant la position de chaque particule ou objet, mais
inversant sa vitesse. Mais l'étude générale
de la mécanique classique comporte une propriété
qui établit qu'un tel "rebondisseur" qui renverserait exactement
le mouvement d'un système, quel que soit son état qu'on
n'a pas mesuré, est rigoureusement impossible.
En conclusion, en un sens élémentaire toute
évolution est réversible et l'entropie reste fixe, au
sens où on ne peut pas parler de dilution et de création
d'entropie en un sens clair et précis, comme
si l'entropie se créait suivant des processus précis
et délimités et
qu'on puisse définir sa valeur en chaque lieu et à chaque
instant. Néanmoins, on peut considérer que
l'état se dilue dans l'espace des phases et donc de l'entropie
se crée au bilan, mais uniquement d'un point de vue global et
pratique.
Cela étant ainsi compris dans le cas classique, qu'en est-il
dans le cas quantique ? cela y ressemble beaucoup, avec de subtiles
différences, là encore à admettre faute d'avoir
introduit le formalisme adéquat, qu'on va essayer d'expliquer.
Dans le cas quantique donc, l'équivalent de la situation
où les zones de concentrations sont étirées et
dispersées, sont celles où les grilles d'observation
à disposition ne collent pas avec le micro-état du
système: il est quasi impossible d'opérer une mesure
divisant l'espace des phases en parties de telle sorte que le
micro-état du système soit assez principalement dans une
des parties. Autrement dit,
le système se trouve à cheval entre un grand nombre
des micro-états tels qu'on peut délimiter suivant les
moyens d'observation directement disponibles.
Jusque-là, tout semble pareil. Bien sûr il doit y avoir
une différence, due au fait que l'espace des phases n'est pas
infiniment divisible, et que cela doit bien à un certain moment
mettre une limite à la dispersion du micro-état dans
l'espace des phases, et donc donner une chance pour que le
micro-état se retrouve correspondre à un état
directement mesurable ultérieurement.
Effectivement, cela se produit ainsi: l'espace des phases étant
fini à n micro-états quantique, au bout d'un certain
temps le système revient dans
l'état de départ suivant une bonne probabilité.
Le problème est que dans le cas pessimiste, le
plus général et probable (sans structures ou
symétries particulières aidant spécialement
à reconduire vers l'état intial), le temps
nécessaire pour cela est de l'ordre de l'exponentielle de n.
Euh, l'exponentielle de quelle base ? Si on définit ce temps
comme 10 puissance n, par exemple, il se trouvera un instant dans cet
période où l'état sera trouvé, si on le
mesure, dans l'état initial suivant une probabilité
plus proche de 1, que si on se contente de l'instant de meilleure
probabilité de retour dans un intervalle de durée de 2
puissance n seulement. Les temps où le système se
retrouve dans l'état initial (ou, dans les contextes optimistes,
dans un certain autre état précis) avec une bonne
probabilité si on voulait alors subitement l'y mesurer, sont
ainsi tout-à-faits exceptionnels, et leur occurence est
semi-périodique (=non pas périodique mais plus on veut
être précis, plus il faut un long temps pour y
trouver une périodicité suivant cette approximation, mais
dont la durée de validité sera de toute manière
limitée aussi). Tout le reste du temps, il est comme
brouillé comme intermédiaire entre un grand nombre
d'états au sens défini par les moyens d'observation
disponibles.
Dès lors, comme chaque particule supplémentaire
ajoutée au système multiplie le nombre d'état
possibles par une constante, cela aboutit à ce que le temps de
retour soit élevé à une certaine puissance !
Ainsi si chaque particule a 10 états possibles, et qu'il y a 100 particules, cela fait un espace des phases de volume 10100
(nombre de micro-états théoriquement distinguables dans
le système), et donc un temps de retour de l'ordre de
l'exponentielle de 10 100. C'est donc bien un temps démentiellement long, qu'on ne peut pas espérer attendre en pratique.
On pourrait se dire: prenons un système bien plus réduit,
à deux particules par exemples, et attendons le temps
nécessaire, quoique long (style 10 puissance 20 fois le temps
qu'il faut pour aller d'un atome à son voisin à la
vitesse du son, pour un système à une trentaine
d'états...), pour qu'il revienne à peu près
à son état initial.
Le problème est que, on a beau savoir que dans le cas
général une périodicité approximative
existe, elle n'est exploitable qu'à condition d'en
connaître la valeur exacte de sa période pour saisir le
système précisément à cet instant. Comment
la connaître: la théorie ou l'observation ? D'une
manière ou de l'autre la tâche est de toute manière
démentielle. Par l'observation il faudrait essayer toutes les
possibilités de périodes un grand nombre de fois, or il y
en a trop. Par le calcul c'est extrêmement complexe
également. Or, tant les observations que les calculs
informatiques sont des processus créateurs d'entropie. La
difficulité de mener cette recherche à bien ne laisse
guère d'espoir d'en faire une entreprise
bénéficiaire énergétiquement (comme
évitement de création d'entropie).
En fait, ces occurences exceptionnelles de temps dans lesquels un
système peut revenir dans son état initial ou un autre
état précis observable, de par la complexité du
calcul de leur instant d'occurence, peuvent être qualifiés
de pseudo-aléatoires.
En effet, une donnée pseudo-aléatoire est une
donnée déterminée par un calcul précis,
mais tellement complexe que son résultat est
imprévisible, comme ressemblant au hasard, tant que ce long
calcul n'a pas été effectué. Les occasions
d'exploitation effective de ces cas exceptionnels où un
système a une bonne probabilité de se retrouver dans un
état précis, ne sont généralement pas
saisies par la nature, qui ne sait pas faire le calcul
nécessaire de façon suffisamment "consciente" pour cela.
C'est ainsi que malgré de subtiles différences de nature
entre cas classique et cas quantique, la conclusion est principalement
la même: les lois de la physique ont beau être
rigoureusement réversibles dans leur expression
élémentaire, elles engendrent au bilan une
création d'entropie pratiquement irréversible.
Etats corrélés et non-additivité de l'entropie
Création d'entropie par décohérence
Retour,,,,