La nature statistique de l'entropie

L'espace des phases

L'ensemble des états possibles de tout système physique donné, à l'intérieur duquel l'évolution s'effectue autour du temps, est appelé l'espace des phases de ce système.

Il faut distinguer si l'étude se fait dans le cadre de la physique classique, ou de la physique quantique.
En fin de compte le vrai cadre est bien sûr celui de la physique quantique. Mais ses propriétés sont plus étranges et difficiles à se représenter, tant qu'on n'adopte pas pleinement le formalisme de la physique quantique.

La présente approche se voulant vulgarisée, ne reposera pas sur le plein formalisme de la physique quantique, trop abstrait, mais s'appuiera sur certaines de ses propriétés qualitatives les plus utiles.

Par ailleurs, l'introduction des mêmes notions dans le cas classique aidera à s'en donner certaine représentation précise et cohérente, ayant assez de propriétés essentielles communes avec le cas quantique, et aidera donc à comprendre par analogie le cas quantique, même si en toute rigueur les deux cas restent distincts.

Cas classique : l'espace des phases pour un système de N particules est un espace à 6N dimensions (dont 3 pour la position et 3 pour la vitesse). L'évolution conserve le volume dans cet espace, autrement dit elle se comporte comme le mouvement d'un fluide incompressible. Un état élémentaire du système y est un point, évoluant de manière continue et déterministe (même si cahotique) comme emporté par le fluide.
Tant dans le cas classique que quantique, le volume total de l'espace des phases est ainsi limité par l'espace et l'énergie disponibles pour le système, mais peut croître à l'infini s'il dispose d'un espace et/ou d'une énergie illimité.

Cas quantique, difficilement imaginable, mais à admettre !  L'espace des phases comporte une unité de volume indivisible. Le volume de toute portion délimitée de cet espace, compté suivant cette unité, est toujours un nombre entier. Un état élémentaire du système est défini par une "case" également appelé micro-état, de volume 1.
Mais la manière dont un espace se divise en micro-états n'est pas fixée à l'avance. A l'état naturel, l'espace des phases n'est pas divisé, mais il est continu et évolue comme tel. C'est le processus de mesure qui définit une division en micro-états, et un micro-état donné n'évolue pas nécessairement vers un micro-état particulier de la prochaine mesure effectuée. S'il tombe entre plusieurs micro-états, le résultat de la mesure sera un des micro-états du nouveau découpage entre lesquels s'étale le micro-état obtenu par évolution de celui dont on était parti, aléatoirement suivant une loi de probabilité déterminée par la manière dont le micro-état obtenu par évolution est étalé au travers des nouveaux. Après la mesure, le micro-état du système sera exactement défini par celui où il a été trouvé.

On a un équivalent de la propriété de conservation des volumes: les systèmes dont l'état est dans un volume donné à un instant t ne peuvent jamais évoluer avec certitude vers un volume plus petit à un instant ultérieur t'. Cela se traduit formellement en disant que, si un système peut évoluer d'un micro-état A à un micro-état B suivant une probabilité p et s'il est possible de renverser exactement  le sens de cette évolution, alors l'évolutionn inverse de B en A se fait suivant la même probabilité p. Ainsi, tout comme l'évolution depuis un état initial donné se décrit par des probabilités d'états finaux (suivant un découpage final arbitraire) dont la somme vaut 1, l'incompressibilité de l'espace des phases se traduit par le fait que, pour un état final donné, la somme des probabilités d'y aboutir à partir de chaque case d'un découpage initial, sera également 1.

Définition de l'entropie

L'entropie n'est pas à la base une propriété intrinsèque, mesurable, d'un système physique; mais c'est une propriété de la connaissance a priori que l'on a l'égard du système.
Voici donc sa définition:
L'entropie d'un système est l'ampleur de l'imprécision de la connaissance dont on dispose a priori sur le micro-état du système.

Comment traduire une qualité semblant aussi vague que l'expression ci-dessus, en un nombre, pour pouvoir la traiter mathématiquement ? Ce nombre se définit intuitivement ainsi:

L'entropie mesure la taille moyenne espérée du fichier qui serait nécessaire pour spécifier le micro-état du système, présenté suivant le format conçu comme le plus compressé possible (= de plus petite taille moyenne espérée) étant donnée la connaissance préalable qu'on avait de cet état.

Il y a une définition mathématique exacte de l'entropie,  qui est la suivante (histoire de dire qu'il y a une définition exacte, mais que pour éviter les formules nous n'utiliserons guère dans la suite):
La connaissance a priori de l'état du système se décrit par un découpage adéquat de l'espace des phases en micro-états possibles x, et une probabilité p(x) assignée à chacun; son entropie est alors la somme sur toutes les micro-états x, de -p(x)*ln(p(x)).

L'entropie zéro

Le fait qu'il existe une entropie zéro, sous laquelle on ne peut pas descendre, tient à la nature quantique des systèmes. A savoir, que l'espace des phases n'est pas découpable plus finement qu'en un nombre entier de micro-états. Une fois spécifié le micro-état dans lequelle se trouve le système, c'est déjà l'information la plus exacte possible qu'on puisse en avoir. Aucune mesure supplémentaire ne peut aboutir à une connaissance plus précise, car un autre découpage en micro-état ne ferait que réduire l'état du système à un micro-état du nouveau découpage, sans préserver la précision que l'ancien découpage pouvait constituer.

Ainsi l'entropie zéro est liée aux effets quantiques du système qui se manifestent au voisinage du zéro absolu. Sans ces effets quantiques, autrement dit dans le cadre de la mécanique classique, il n'y aurait pas de limite inférieure nécessaire à l'entropie du système.

Dans l'espace des phases classique, l'état d'un système est un point, qui ne serait pas spécifiable exactement, mais chaque avancée de la précision serait une information supplémentaire. La suite des décimales de précision des coordonnées du système, qu'on pourrait extraire de mesures de plus en plus précises, serait infinie. La notion même d'état exact du système n'aurait aucun sens, mais nécessiterait pour être spécifiée une infinité de mesures, autrement dit nécessiterait d'évacuer du système une quantité d'entropie infinie. La notion d'entropie zéro est incompatible avec la mécanique classique.

Unités d'entropie et son caractère non-entier

La formule exacte plus haut fait intervenir un logarithme. Ainsi l'entropie est au fond une quantité sans dimension, qui seulement a l'air d'avoir une dimension d'un point de vue macroscopique, du fait qu'elle y est multipliée par le nombre d'atomes en jeu. Macroscopiquement, le nombre d'atomes se comporte comme une quantité dimensionnée avec une unité arbitraire (une mole). Il en va de même pour l'entropie, dont l'unité macroscopique est sujette à des liens physiques précis avec les nombres de moles.

Dans la traduction intuitive de l'entropie en termes de taille des fichiers, cette unité logarithmique correspond naturellement à l'unité de mesure des tailles de fichier. La mesure en bits correspond au logarithme binaire; la mesure en octets correspond à la base 256. Si on traduisait les fichiers sous un format décimal (comme suite de chiffres de 0 à 9) il faudrait ln(10)/ln(2) fois moins de chiffres qu'il ne fallait de bits pour exprimer la même information.

Un système à N micro-états possibles nécessite un nombre de 1 à N pour être spécifié, ce qui constitue une information de taille ln(N) lorsque ces états sont équiprobables. L'entropie du système est alors ln(N).
Mais cette entropie diminue au fur et à mesure que  la loi de probabilité s'éloigne de l'équiprobabilité. A la limite, la loi de probabilité la plus inégale est celle qui donne la probabilité 1 à un état et 0 à tous les autres. Son entropie est alors nulle.
Par exemple, imaginons un système à 3 états possibles A,B,C. S'ils sont de probabilité 1/3 chaque, l'entropie vaut ln(3) (un chiffre de base 3). Mais si les probabilités sont 1/2,1/4,1/4, alors il faut d'abord un bit pour distinguer entre A d'une part, B ou C de l'autre. Une chance sur 2 que ça soit A et que donc ça suffise; une chance sur 2 que ce soit (B ou C), et que donc il faille un bit d'information supplémentaire pour conclure. Finalement, la taille moyenne du fichier nécessaire pour spécifier l'état est de 1,5 bit, ce qui est moindre que l'entropie dans le cas d'équiprobabilité qui valait ln(3)/ln(2)=1,585 bit.

On peut demander: si une quantité d'information plus grande que 1 bit peut se compter en nombre non-entier de bits, un bit d'information isolé est-il divisible en unités plus petites ? Bien sûr, ce n'est pas praticable tel quel isolément, mais ça l'est en un certain sens en élargissant le contexte. Bien sûr, les états possibles étant distincts par nature, on ne peut pas avoir plus de 1 mais moins de 2 états possibles. Mais comme précédemment, on peut réduire l'entropie d'un système à un nombre d'états donné en s'éloignant de l'équiprobabilité. Ainsi, si un bit a plus de chances de valoir 0 que 1 (s'il y a une chance sur 3 d'avoir pile et 2 chances sur 3 d'avoir face), on peut réduire sa place de la manière suivante: il suffit de mettre ensemble N tirages indépendants d'un tel bit, d'en faire ainsi un fichier à N bits, puis de compacter le tout. La taille moyenne espérée du fichier ainsi obtenue est alors inférieure à N bit, à cause de l'écart systématique de probabilités entre le pile et le face. Il y a bien sûr un risque que la taille soit finalement supérieure à N, à savoir lorsque ses cas a priori les moins probables sont finalement obtenus. Cela ne survient que rarement si les probabilités sont effectivement inégales comme attendu, mais cela arriverait plus souvent dans le cas de l'équiprobabilité.

Reprenons la formule de l'entropie, et expliquons comment la description intuitive en terme de taille de fichier, en est le reflet:
Si un micro-état x a la probabilité p(x) de survenir, alors le fichier d'information le mieux compacté décrivant le micro-état du système, se trouvera être de longueur -ln(p(x)) lorsqu'il sera x. On peut le comprendre en l'imaginant regroupé avec tous les autres micro-états de même probabilité. Si tous les états étaient équiprobables, ils seraient en nombre 1/p(x), donc la taille de l'information spécifiant le choix serait ln(1/p(x))=-ln(p(x)).
La taille moyenne espérée du fichier, est la moyenne de ces -ln(p(x)) pondérée par les probabilités p(x), donc somme des -p(x)ln(p(x)).

La mesure comme extraction d'entropie

Expliquons le comportement de l'entropie lors d'une mesure d'un système physique en général. Lorsqu'une mesure améliore l'information dont on dispose sur un système, elle diminue l'entropie de ce système. Mais elle ne la diminue généralement que d'une faible quantité: l'information obtenue comme résultat d'une mesure physique ordinaire d'un système macroscopique est généralement négligeable face à la quantité proprement astronomique d'informations qui serait idéalement nécessaire pour décrire positions et vitesses (dans la limite des inégalités de Heisenberg) de tous les atomes thermiquement agités dans ce système.

On n'est certes pas à ça près en pratique, mais en toute rigueur on peut se demander: où est passé cette petite quantité d'entropie qui a quitté le système lors de la mesure de quelques-uns de ses paramètres ?
Elle a été tout simplement transmise à l'observateur. Il y a en effet plusieurs états possibles dans lesquels l'observateur peut se retrouver après la mesure, suivant le résultat de celle-ci. Si en guise d'observateur on a un appareil enregistreur, alors l'état final de l'enregistrement est indéterminé suivant les probabilités des quantités mesurées de prendre telle ou telle valeur. Donc cet enregistrement est devenu le support de la petite quantité d'entropie correspondant à l'information qui a été extraite du système au cours de la mesure (cette diminution de l'imprécision de la connaissance dont on disposait sur le système).

En effet un appareil de mesure et son enregistreur, étant matériel et inconscient, peut être considéré comme étant dans un état indéterminé, et donc porteur d'entropie. Dans le cas d'un observateur conscient, on aurait envie d'interpréter la situation en disant que l'indétermination est levée (puisque l'observateur est conscient du résultat, qui a donc une valeur bien déterminée), donc comme si l'entropie avait disparu. En pratique, cela ne peut évidemment pas servir à éliminer l'entropie, puisque le fonctionnement interne d'un observateur humain (ou animal...) crée en permanence de l'entropie en flux bien plus considérable que la quantité d'information qui peut être reçue par les sens. Le processus de création d'entropie sera expliqué plus loin.

Comme une information enregistrée signifie une quantité d'entropie, l'effacement d'une information nécessite d'évacuer cette entropie ailleurs.

Peut-on mesurer l'entropie ?

On ne peut certes pas donner de signification exacte à la mesure de l'entropie; mais on peut y donner une signification approximative, dont la marge d'erreur de plusieurs unités (taille d'expression de l'information mesurée) s'estompe en compraraison des quantités d'entropie nettement plus considérables qui sont en jeu dans les systèmes physiques macroscopiques, et qui sont l'objet de la mesure.
En fait, on a déjà vu un aperçu de cette notion plus haut, lorsqu'une petite partie de l'information peut servir à évaluer la taille qui sera prise par le reste de l'information. Cette taille étant déterminée par la probabilité des micro-états considérés, on peut donc concevoir une mesure physique distinguant différentes classes (ou macro-états) de micro-états du système, où les micro-états individuels ont des probabilités voisines dans chaque classe (on n'est pas à un facteur 1000 près, 3 chiffres décimaux n'étant pas grand-chose face au nombre gigantesque d'atomes d'atomes d'un système macroscopique dont chacun porte plusieurs chiffres d'information), mais peuvent varier bien plus largement d'une classe à l'autre.

Les classes d'états individuellement les moins probables contiennent généralement beaucoup plus de micro-états, que celles des micro-états individuellement plus probables, afin que le rapport de probabilité totale entre l'une et l'autre classe soit équitable, et ainsi que la mesure en vaille la peine.

C'est tout ce qu'on aura en guise de mesure de l'entropie.

Diminutions exceptionnelles d'entropie

Suivant la définition que nous venons de présenter, l'entropie s'avère plus précisément définie comme une moyenne espérée par rapport à tous les micro-états possibles, d'une valeur plus précise de l'entropie.
La mesure d'un paramètre du système permet de faire une certaine mesure de l'entropie et ainsi de la modifier. Si par exemple le résultat de la mesure est une information binaire avec une probabilité 1/2 chaque, cela divise l'espace des phases en 2 parties. Suivant la manière dont cette division est configurée par rapport à l'état initial du système, les deux valeurs S1 et S2 prises par l'entropie finale suivant le résultat de la mesure, sont reliées à l'entropie initiale S0 du système, par la formule

S0 - 1bit < (S1+ S2)/2  (qui peut dans certains cas être supérieur à S0)

Si on définit l'entropie finale comme somme des entropies finales du système et de l'appareil de mesure (hypothèse qui sera questionnée plus loin), cela donne en moyenne (S1+ S2)/2 + 1 bit, qui est donc supérieur à l'entropie initiale S0. Mais ce n'est qu'une moyenne espérée. En l'occurence, il y a une chance sur 2 qu'on soit dans le premier cas, d'entropie S1 + 1 bit; et une sur 2 qu'on soit dans l'autre cas, S2 + 1 bit.
Il est possible que de l'entropie soit détruite au cours de certains processus.
Par contre ce qu'on sait, c'est que tout processus qui a des chances de détruire de l'entropie, a aussi des chances d'en créer; que ces destructions d'entropie seront le plus souvent très faibles (de l'ordre de l'unité, donc négligeables pour les systèmes macroscopiques), et qu'au bilan l'espérance de variation est positive. Tout comme il n'est pas raisonnable d'aller jouer au casino avec les machines automatiques dans l'espoir de faire des affaires, car les gestionnaires du casino ont su s'arranger pour être bénéficiaires en moyenne espérée quoi que vous fassiez. De même il n'est pas raisonnable de jouer avec ces processus de hasard qui peuvent dans certains cas détruire de l'entropie, parce que cela peut aussi bien en créer, et que quelle que soit la stratégie adoptée, en moyenne cela en créera effectivement.

Remarque: les situations où l'entropie de départ est voisine de la moyenne espérée des entropies d'arrivée, mais où ces dernières diffèrent significativement les unes des autres (au moins de l'ordre de l'unité), sont des situations de déséquilibre thermodynamique, qui nécessitent donc des conditions expérimentales difficiles à mettre en place, en ce sens que cela risque toujours de créer un zeste d'entropie.

L'entropie de dissolution

Une substance soluble dans un fluide (par exemple de l'encre dans de l'eau) porte une entropie d'autant plus grande qu'elle est diluée.

Le calcul de cette entropie est le suivant.
Soit N le nombre de molécules diluées. L'information qu'il faudrait pour décrire le micro-état de la solution comporte bien sûr diverses données sur les agitations de toutes les molécules diluées et diluantes. Contentons-nous des données décrivant les positions des molécules diluées, et plus précisément comment varie cette masse de données entre des volumes de dilutions différents.
On peut décrire l'état de dilution d'un ensemble de molécules, en décrivant la position de chaque molécule. En fait, une telle description ne correspond pas à la réalité, car l'échange de 2 molécules identiques ne modifie pas l'état. Tenant compte de toutes les permutations possibles entre molécules laissant ainsi l'état inchangé, cela présenterait donc N! descriptions différentes du même état physique. Mais il suffit alors de diviser le nombre d'états par N! (et donc multiplier la probabilité de chaque état par N!) pour retrouver un calcul correspondant à la réalité.
Mais si on fixe le nombre total N de molécules diluées, le facteur N! étant constant n'intervient pas dans le résultat des différences d'entropie entre des dillutions différentes. Donc on peut tranquillement faire le calcul comme s'il s'agissait de décrire les positions de toutes les molécules indépendamment les unes des autres.

L'état de N molécules diluées se décrit simplement en indiquant pour chacune des N molécules sa position. Ces données sont indépendantes tant que ces molécules ne se bousculent pas, autrement dit qu'elles tiennent une faible place par rapport à l'espace disponible (il y a presque autant d'espace de liberté pour la dernière molécule que pour la première).
Donc si on double le volume de la dilution, chaque molécule dispose d'un espace double, de sorte que l'information de sa position nécessite 1 bit d'information suppémentaire.

A un doublement du volume de dilution d'un ensemble de N molécules, correspond une augmentation d'entropie de N bits

Au fait, mais pourquoi la substance diluée doit-elle se compter en molécules plutôt qu'en atomes ?
C'est parce que la dilution éloigne les molécules les unes des autres, mais n'éloigne pas entre eux les atomes cormant chaque molécule.

Il en va de même de l'expansion d'un gaz dans le vide: un gaz qui s'étend fournit de l'énergie mécanique à partir de son énergie thermique, tout en gardant son entropie. Cela le refroidit. Si alors on lui redonne de la chaleur pour remonter sa température à la sa valeur initiale, cela fait croître son entropie. Le bilan de ces transformations peut se décrire comme une "dilution du gaz dans le vide", et s'accompagne d'une augmentation de l'entropie qui se calcule de la même manière qu'une dissolution d'une substance dans un liquide.

En fait, le calcul de l'entropie d'une goutte de substance soluble diluée dans un liquide, est identique à celui de l'entropie de l'état d'un système qu'on imagine abstraitement comme dilué dans l'espace des phases. A savoir, si on divise abstraitement le volume du liquide en cellules microscopiques fixé, l'entropie du tout se calcule comme somme des entropies internes à chaque cellule, où l'entropie dans une cellule de volume v où la concentration est c, vaut v*c*ln(c). (Il n'importe pas que le nombre moyen espéré v*c de molécules présentes dans cette cellule, soit très supérieur ou très inférieur à 1, l'important est que ces molécules soient concrètement rares, = minoritaires dans le milieu).

D'un cas à l'autre, la loi de probabilité remplace le champ de concentration; la seule différence est que la somme des probabilités est égale à 1 par définition, tandis que la somme des valeurs de concentration dans un liquide égale le nombre total de molécules diluées (ou le nombre moyen espéré de molécules).

La suite plus tard:

La création spontanée d'entropie dans un système isolé

L'évolution d'un système isolé se décrit par un mouvement interne de son espace des phases, à la ressemblance du mouvement d'un fluide incompressible. La connaissance initiale de son état se décrit telle une goutte d'encre dans ce fluide, dont le degré moyen de dilution définit l'entropie.
Tant que le système est isolé, il n'y a rien du genre loi de diffusion qui disperse l'encre directement pour la diluer. Il n'y a qu'un mouvement de convection. En elle-même, cette convection ne dilue pas, ne modifie pas la concentration de ce qu'elle transporte, mais ne fait que la transporter.

Imaginons d'abord la situation dans le cas classique. Au cours de ce transport, les zones de concentrations s'étirent en filaments et surfaces de plus en plus fins et entremêlés. Sans qu'une dilution ne se produise en un sens absolu, élémentaire, il s'en produit néanmoins une dans un sens pratique: chaque petit volume "de forme normale" (non étirée: sphère, cube), contiendra le plus probablement un fin entremêlage de ces filaments et surfaces, avec une quantité d'encre totale à peu près la même que dans le volume voisin. Ainsi, bien qu'il ne se soit pas produit de dilution en un sens absolu, ce qui s'est produit y ressemble fichtrement, et peut en pratique être assimilé à une dilution effective (et donc à une création d'entropie) dans une bonne approximation.

Est-il néanmoins possible de refuser cette conclusion de création d'entropie, au nom du fait que la dilution (de l'état du système dans son espace des phases) ne s'est pas réellement produite au sens fondamental, à savoir que, bien que fines et entremêlées, les zones de concentration existent ? Pour que ce fait élémentaire soit qualifiable de "réalité physique", encore faudrait-il pouvoir lui donner une conséquence pratique effective. Il faudrait pouvoir inverser au moins en partie le mouvement du fluide, en sorte que les zones de concentration se regroupent à nouveau vers "un même lieu".
Or, même si en théorie tout mouvement est inversible, à savoir que l'inverse de chaque mouvement possible est un mouvement possible (et même aussi probable), le problème est l'impossibilité de mettre en oeuvre ce mouvement inverse (qui seul pourrait conduire à un regroupement de l'état dispersé dans l'espace des phases à un certain moment en une connaissance "descriptible" et observable de l'état final du système) dans le contexte où on en a besoin. En effet, ce contexte étant la présence d'un système physique fait de particules ayant des positions et vitesses indéterminées, l'idée naïve pour cela serait de prendre ce système tel quel, sans le mesurer, conservant la position de chaque particule ou objet, mais inversant sa vitesse. Mais l'étude générale de la mécanique classique comporte une propriété qui établit qu'un tel "rebondisseur" qui renverserait exactement le mouvement d'un système, quel que soit son état qu'on n'a pas mesuré, est rigoureusement impossible.
En conclusion, en un sens élémentaire toute évolution est réversible et l'entropie reste fixe, au sens où on ne peut pas parler de dilution et de création d'entropie en un sens clair et précis, comme si l'entropie se créait suivant des processus précis et délimités et qu'on puisse définir sa valeur en chaque lieu et à chaque instant. Néanmoins, on peut considérer que l'état se dilue dans l'espace des phases et donc de l'entropie se crée au bilan, mais uniquement d'un point de vue global et pratique.

Cela étant ainsi compris dans le cas classique, qu'en est-il dans le cas quantique ? cela y ressemble beaucoup, avec de subtiles différences, là encore à admettre faute d'avoir introduit le formalisme adéquat, qu'on va essayer d'expliquer.

Dans le cas quantique donc, l'équivalent de la situation où les zones de concentrations sont étirées et dispersées, sont celles où les grilles d'observation à disposition ne collent pas avec le micro-état du système: il est quasi impossible d'opérer une mesure divisant l'espace des phases en parties de telle sorte que le micro-état du système soit assez principalement dans une des parties. Autrement dit,
le système se trouve à cheval entre un grand nombre des micro-états tels qu'on peut délimiter suivant les moyens d'observation directement disponibles.

Jusque-là, tout semble pareil. Bien sûr il doit y avoir une différence, due au fait que l'espace des phases n'est pas infiniment divisible, et que cela doit bien à un certain moment mettre une limite à la dispersion du micro-état dans l'espace des phases, et donc donner une chance pour que le micro-état se retrouve correspondre à un état directement mesurable ultérieurement.
Effectivement, cela se produit ainsi: l'espace des phases étant fini à n micro-états quantique, au bout d'un certain temps le système revient dans l'état de départ suivant une bonne probabilité.
 Le problème est que dans le cas pessimiste, le plus général et probable (sans structures ou symétries particulières aidant spécialement à reconduire vers l'état intial), le temps nécessaire pour cela est de l'ordre de l'exponentielle de n. Euh, l'exponentielle de quelle base ? Si on définit ce temps comme 10 puissance n, par exemple, il se trouvera un instant dans cet période où l'état sera trouvé, si on le mesure, dans l'état initial suivant une probabilité plus proche de 1, que si on se contente de l'instant de meilleure probabilité de retour dans un intervalle de durée de 2 puissance n seulement. Les temps où le système se retrouve dans l'état initial (ou, dans les contextes optimistes, dans un certain autre état précis) avec une bonne probabilité si on voulait alors subitement l'y mesurer, sont ainsi tout-à-faits exceptionnels, et leur occurence est semi-périodique (=non pas périodique mais plus on veut être précis, plus il faut un long  temps pour y trouver une périodicité suivant cette approximation, mais dont la durée de validité sera de toute manière limitée aussi). Tout le reste du temps, il est comme brouillé comme intermédiaire entre un grand nombre d'états au sens défini par les moyens d'observation disponibles.

Dès lors, comme chaque particule supplémentaire ajoutée au système multiplie le nombre d'état possibles par une constante, cela aboutit à ce que le temps de retour soit élevé à une certaine puissance !
Ainsi si chaque particule a 10 états possibles, et qu'il y a 100 particules, cela fait un espace des phases de volume 10100 (nombre de micro-états théoriquement distinguables dans le système), et donc un temps de retour de l'ordre de l'exponentielle de 10 100. C'est donc bien un temps démentiellement long, qu'on ne peut pas espérer attendre en pratique.
On pourrait se dire: prenons un système bien plus réduit, à deux particules par exemples, et attendons le temps nécessaire, quoique long (style 10 puissance 20 fois le temps qu'il faut pour aller d'un atome à son voisin à la vitesse du son, pour un système à une trentaine d'états...), pour qu'il revienne à peu près à son état initial.
Le problème est que, on a beau savoir que dans le cas général une périodicité approximative existe, elle n'est exploitable qu'à condition d'en connaître la valeur exacte de sa période pour saisir le système précisément à cet instant. Comment la connaître: la théorie ou l'observation ? D'une manière ou de l'autre la tâche est de toute manière démentielle. Par l'observation il faudrait essayer toutes les possibilités de périodes un grand nombre de fois, or il y en a trop. Par le calcul c'est extrêmement complexe également. Or, tant les observations que les calculs informatiques sont des processus créateurs d'entropie. La difficulité de mener cette recherche à bien ne laisse guère d'espoir d'en faire une entreprise bénéficiaire énergétiquement (comme évitement de création d'entropie).

En fait, ces occurences exceptionnelles de temps dans lesquels un système peut revenir dans son état initial ou un autre état précis observable, de par la complexité du calcul de leur instant d'occurence, peuvent être qualifiés de pseudo-aléatoires. En effet, une donnée pseudo-aléatoire est une donnée déterminée par un calcul précis, mais tellement complexe que son résultat est imprévisible, comme ressemblant au hasard, tant que ce long calcul n'a pas été effectué. Les occasions d'exploitation effective de ces cas exceptionnels où un système a une bonne probabilité de se retrouver dans un état précis, ne sont généralement pas saisies par la nature, qui ne sait pas faire le calcul nécessaire de façon suffisamment "consciente" pour cela.

C'est ainsi que malgré de subtiles différences de nature entre cas classique et cas quantique, la conclusion est principalement la même: les lois de la physique ont beau être rigoureusement réversibles dans leur expression élémentaire, elles engendrent au bilan une création d'entropie pratiquement irréversible.

Etats corrélés et non-additivité de l'entropie


Création d'entropie par décohérence


Retour,,,,