• 10 mai 2026

    Comment l’entropie éclaire le fonctionnement caché de l’Univers

Le mot qui fait peur… et qui façonne le monde : qu’est-ce que l’entropie ?

Il y a des mots qui, dès qu’ils surgissent dans une conversation, font lever les sourcils ou froncer les sourcils : l’entropie en fait partie. C’est l’un de ces concepts « fourre-tout » en apparence — mystérieux, parfois évoqué comme un synonyme du désordre, voire du chaos. Mais sous cette façade intimidante se cache l’une des clés majeures pour comprendre non seulement la physique, mais aussi l’évolution profonde de tous les systèmes, du grain de sable au cosmos.

Nous allons regarder ensemble, étape par étape, pourquoi l’entropie, loin de n’être qu’un « mot compliqué », est le fil rouge qui relie la fonte d’un glaçon, la combustion d’une étoile et—chose plus inattendue—l’apparition de la vie.

Aux origines : une histoire de chaleur, de vapeur… et de machines

Pour comprendre l’entropie, il faut remonter à la première révolution industrielle. À l’époque, le problème du jour était celui-ci : comment convertir au mieux la chaleur en travail utile ? Les ingénieurs s’arrachent les cheveux pour rendre les machines à vapeur plus efficaces.

Un physicien allemand, Rudolf Clausius, propose alors en 1865 un terme nouveau : l’entropie. À l’origine, il s’agit d’une mesure : celle de l’énergie qu’on ne peut plus utiliser pour effectuer un travail. Un peu comme si, dans une cuisine, plus on prépare de plats, plus la vaisselle entassée (et inutilisable immédiatement) s’accumule.

En d’autres termes, l’entropie mesure à quel point l’énergie d’un système devient « diluée », moins apte à être transformée de façon ordonnée (par exemple en mouvement, en électricité, etc.).

Aujourd’hui, sa définition s’est élargie : c’est une grandeur physique qui mesure le nombre de façons dont un système peut être arrangé sans que cela change son apparence extérieure. Là, l’image du désordre devient plus pertinente : plus il y a de façons possibles de mélanger les éléments sans changer l’ensemble, plus l’entropie est élevée.

Un concept, deux facettes : énergie et information

  • Côté énergie : On parle d’entropie dans la thermodynamique. Si vous observez un glaçon qui fond dans un verre d’eau chaude, c’est l’entropie qui dicte le sens du phénomène : la chaleur va de l’eau chaude vers le glaçon—jamais l’inverse—parce que le résultat est statistiquement plus probable.
  • Côté statistique et information : Le physicien Ludwig Boltzmann, à la fin du XIXe siècle, fait le lien entre l’entropie et le nombre de configurations microscopiques possibles d’un système. Sur le plan de l’information, l’entropie, c’est aussi la quantité d’incertitude ou de désordre dans les données (ce que Claude Shannon, père fondateur de la théorie de l’information, étendra au codage informatique).

Dans les deux cas : l’entropie décrit ce passage irréversible du « possible » au « plus probable ». Ce mouvement, ce flux, façonne tout ce qui bouge, chauffe, se mélange ou communique dans l’Univers.

La flèche du temps : pourquoi l’entropie donne un sens à l’évolution

Il existe une question simple, mais abyssale : pourquoi nos souvenirs sont-ils tournés vers le passé, jamais vers le futur ? Pourquoi un œuf cassé ne se recolle-t-il pas spontanément ? La réponse se trouve dans ce qu’on appelle le deuxième principe de la thermodynamique : l’entropie de l’Univers ne peut qu’augmenter (ou, au mieux, rester constante dans des cas idéaux).

Ce principe donne une direction au temps, ce que les scientifiques appellent la « flèche du temps ». Au niveau microscopique, les lois physiques sont théoriquement réversibles. Mais statistiquement, il y a tout simplement plus de façons de détruire l’ordonné que de le créer par hasard.

  • Choisissez un jeu de cartes rangé (ordonné) : une façon unique d’être.
  • Mélangez-le : des milliards de possibilités d’« ordre désordonné ».

L’entropie explique pourquoi tout ce qui nous entoure a tendance à évoluer vers un état plus dispersé, plus mélangé, plus probable.

Concrètement, qu’est-ce que cela change ? Des glaçons à la formation des galaxies

Prenons un collage express de phénomènes variés, du plus familier au plus cosmique :

  • Dans notre cuisine : La fonte de la glace, l’évaporation de l’eau des pâtes… Si l’on laisse une tasse de café chaud sur la table, elle refroidit ; jamais l’inverse. Parce que la chaleur se répand vers le plus froid. Ce phénomène n’est jamais spontané en sens inverse : impossible de voir une tasse froide chauffer toute seule.
  • Dans notre société : Un document bien rangé peut vite dégénérer en désordre, ce qui demande sans cesse des efforts pour maintenir l’ordre. La vie quotidienne est une lutte contre l’augmentation naturelle de l’entropie.
  • Dans les étoiles : Les étoiles comme notre Soleil brûlent leur carburant nucléaire et émettent de l’énergie sous forme de lumière et de chaleur—ça, c’est l’entropie en action. Lorsqu’une étoile meurt, le résidu est un objet dont l’entropie est très élevée (trous noirs, naines blanches, etc.).
  • Dans l’Univers : Depuis le Big Bang, l’entropie de l’Univers n’a fait qu’augmenter. Aujourd’hui, les trous noirs sont les objets les plus « contenant d’entropie » connus (source : Hawking, Penrose, 1970s).

Un tableau pour s’y retrouver : mesures et valeurs remarquables

Phénomène / Système Entropie associée (ordre de grandeur) Commentaire
Fonte d’un glaçon (10g) ~0,13 J/K Libération de chaleur : énergie ne pouvant plus être « récupérée » pour du travail.
Notre atmosphère entière ~1034 J/K L’ensemble de l’air terrestre est un extraordinaire réservoir d’entropie.
Un trou noir stellaire (masse du Soleil) ~1054 J/K C’est LE champion de l’entropie (source : Hawking 1974).
L’Univers observable ~10104 J/K Estimation mettant en avant le poids du « désordre » cosmique (source : Egan & Lineweaver, 2010).

Les paradoxes et la richesse de l’entropie : la vie, un combat permanent ?

Un point passionnant : si l’entropie, c’est le « désordre », alors pourquoi la vie foisonne d’ordre ? Un embryon qui se construit, une forêt qui pousse… N’y aurait-il pas contradiction ?

Pas du tout. La vie, en réalité, s’entretient en produisant plus de désordre autour d’elle qu’elle n’en réduit localement. Une cellule vivante, par exemple, consomme de l’énergie (sucre, lumière) pour organiser ses molécules. Mais ce faisant, elle génère encore plus d’entropie dans la forme de chaleur ou de déchets rejetés. C’est ce que le physicien Erwin Schrödinger a appelé « se nourrir d’ordre » (What is Life?, 1944).

  • Un organisme, pour survivre, doit sans cesse puiser de l’énergie pour contrer l’augmentation de son entropie interne.
  • Mais, au final, le total : vie + environnement, voit toujours l’entropie augmenter.

C’est là l’un des ponts les plus fascinants entre la physique et la biologie : le moteur fondamental de l’évolution des systèmes, c’est la recherche d’équilibres dynamiques dans un Univers voué à la dispersion et au mélange.

Au-delà de la science : entropie et société, langage et création

L’entropie ne se borne pas aux laboratoires ou à l’astrophysique. Les informaticiens l’utilisent pour mesurer la quantité de « surprise » dans un message crypté : plus un texte est imprévisible, plus son entropie est élevée (source : Claude Shannon, Bell System Technical Journal, 1948). Les linguistes parlent, eux, d’entropie pour qualifier la diversité ou l’homogénéité d’une langue.

Cela touche aussi à des phénomènes sociaux ! Une société très organisée, mais rigide, tend à décroître son entropie (moins de diversité dans les comportements). À l’inverse, une société en pleine transformation augmente son entropie : l’innovation y fleurit, mais la prévisibilité baisse.

Même en création artistique, l’entropie est une façon de penser la nouveauté : plus une œuvre surprend, bouscule les attentes, plus elle génère de possibles arrangements et, donc, d’"entropie créative".

Quelques idées reçues à déconstruire

  • Non, entropie ≠ désordre absolu : C’est une mesure de possibilités, pas de chaos. Un gaz parfaitement mélangé est « désordonné », mais aussi parfaitement prévisible statistiquement. L’entropie mesure la perte d’information, ou la pluralité des états, pas notre échec à ranger nos tiroirs !
  • Il existe des baisses locales d’entropie : Mais toujours payées par une hausse ailleurs. Votre réfrigérateur « refroidit » des aliments : mais en rejetant encore plus de chaleur à l’arrière !
  • L’entropie ne s’applique pas qu’à la chaleur : Toute transformation impliquant des probabilités, de l’information « manquée

Finir sur une note d’interrogation : vers l’ultime entropie ?

À l’échelle ultime, certains physiciens imaginent l’Univers finir dans la « mort thermique » : toute l’énergie s’est entièrement dispersée, les différences de températures, de mouvements ou de structures disparaissant lentement. Ce pourrait être l’état d’entropie maximale : plus rien n’évolue, plus rien ne se crée, tout est uniforme – un silence total, mais pas une absence d’énergie. 

Loin d’être une fatalité pessimiste, l’histoire de l’entropie nous rappelle combien notre existence—et celle de tout ce qui vit, transforme ou même pense—est liée à l’exploitation temporaire des différences, à l’inventivité de la nature pour retarder, jouer, détourner cette marche inexorable vers le probable. Travailler, créer, aimer, c’est, au fond, inventer des chemins dans les possibles du monde avant que tout ne s’uniformise.

Une chose est sûre : comprendre l’entropie, ce n’est pas seulement regarder couler le sablier du temps, c’est plonger dans l’un des ressorts les plus profonds du réel. Et si la science nous apprend une chose, c’est qu’il reste toujours d’autres niveaux à explorer—jusqu’où nous mènera la prochaine montée d’entropie ?

  • Sources principales :
    • Boltzmann, Statistical Mechanics (1877)
    • Clausius, Über die bewegende Kraft der Wärme (1850)
    • Schrödinger, What is Life? (1944)
    • Hawking, Black hole explosions? (Nature, 1974)
    • Egan & Lineweaver, A Larger Estimate of the Entropy of the Universe (2010)
    • Shannon, A Mathematical Theory of Communication (1948)

En savoir plus à ce sujet :