Discussion:Entropie (thermodynamique)/Archive 1

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

Aucun onglet n'existant actuellement pour les sources, la première section de la page de discussion leur est ici consacrée.

Désordre[modifier le code]

Il faudrait remplacer la notion de "désordre", subjectif et mal défini, par celui de "manque d'information", concept mathématique venant de la théorie de l'information, bien défini, précis, et adapté à l'entropie.

Zeilinger[modifier le code]

Ouvrage "Information : the new language of science" de Hans Christian von Baeyer, phoeniw/orionboobs, 2003, 2004 195.132.57.12 12 déc 2004 à 00:49 (CET)


Au fait, est-ce que les remarques de cet Anton Zeilinger font aujourd'hui autorité parmi les scientifiques de son domaine ? Je dis ça, parce que des découvertes si récentes (2001 !), dans des domaines si pointus trouvent en général difficlement leur place dans une encyclopédie (qui n'est pas là pour suivre l'actualité de la recherche scientifique). Qu'est-ce qui nous assure que d'ici ne serait-ce qu'un mois un autre chercheur se rende compte que les travaux de Zeilinger ne sont après tout pas si pertinents que ça ? Il serait mieux de se contenter d'exposer ici du savoir déjà bien éprouvé et qui a résisté aux attaques pendant un peu plus que seulement trois ans. Je ne crois pas que ce Zeilinger ait déjà sa place aux côtés de Shannon (du moins pas pour ses travaux les plus récents). Mais peut-être que je me trompe. Des avis ?
--[[Utilisateur:Aldoo|Aldoo]] 12 déc 2004 à 01:43 (CET)
Nous sommes assez loin des trois ans, me semble-t-il (cela dit, en effet, il manque sans doute à la Wikipédia : l'équivalent de l'organum (ou du symposium, je ne sais plus) de l'Universalis). Toutefois, comme ses travaux sont cités au conditionnel, il est clair qu'ils sont cités pour complétude de l'article, afin que personne ne parte sur une idée incomplète de la façon dont est vue l'entropie par les physiciens. Une encyclopédie de l'électricité datée de 1895 que j'ai ici parle de la "théorie de l'électron". 195.132.57.12 12 déc 2004 à 02:11 (CET)
1975  	Prize of the City of Vienna for the Encouragement of Young Scientists
1979 	Prize for Junior Scientists, Kardinal Innitzer Foundation, Vienna
1980 	Prize of the Theodor Körner Foundation, Vienna
1984 	Sir Thomas Lyle Fellow, University of Melbourne
1994 	Corresponding Member, Austrian Academy of Sciences
1995 	Prix "Vinci d' Excellence", Fondation LVHM, Paris
1996 	Kardinal Innitzer Würdigungspreis, Vienna
1996 	Austrian Scientist of the Year
1996 	European Lecturer, European Physical Society
1997 	Welsh Lecturer, University of Toronto
1997 	European Optics Prize, European Optical Society
1998 	Honorary Professor, University of Science and Technology of China
1998 	Full Member, Austrian Academy of Sciences
1999 	Fellow, American Physical Society
2000 	Member, Academia Scientiarum et Artium Europaea
2000 	Senior Humboldt Fellow Prize, Alexander von Humboldt-Stiftung
2000 	Science Prize of the City of Vienna
2001 	Ehrenzeichen for the Sciences and Arts of the Republic of Austria
2001 	Member, Order "Orden pour le mérite für Wissenschaften und Künste"
2001 	Prize "Visionär 2001", ORF and "Der Standard" Austria
2001 	"World Future Award 2001", Men´s World Day
2001 	"Erwin Wenzl Preis 2001", Upper Austria
2002 	Chemerda Lecturer, Pennsylvania State University
2002 	Member, Berlin-Brandenburgische Akademie der Wissenschaften
2002 	Johannes Kepler-Prize, Upper Austria


L'article qui est cité ici est celui de 2001 qui aurait donné naissance au principe de Zeilinger (et c'était bien il y a trois ans, j'insiste !). Un principe vieux de trois ans, me semble un peu jeune pour être un principe éprouvé. Mais je ne dis pas que c'est le cas de toute l'œuvre de Zeilinger (je suppose que ses publications des années 70 ont déjà été largement débattues, par exemple). Néanmoins, si le principe de Zeilinger est représentatif des questions que la communauté se pose aujourd'hui, il est à ce moment justifié de le citer en exemple (mais il faut clarifier le passage concerné dans l'article). Je ne suis pas théoricien de l'information, et encore moins physicien, et je ne me permets pas juger Zeilinger. En revanche, je voulais juste m'assurer que vous compreniez bien ce que l'on souhaite faire figurer dans cette encyclopédie. Cordialement, --[[Utilisateur:Aldoo|Aldoo]] 12 déc 2004 à 02:22 (CET)
OK, je vais rechercher la date de premier énoncé de ce principe et remanier le passage de l'article en conséquence ;-) 195.132.57.12 12 déc 2004 à 02:34 (CET)
Merci :-), les choses sont mieux posées ainsi. Maintenant, si le paragraphe n'est pas pertinent, il ne manquera pas de choquer assez vite un spécialiste du domaine, qui le corrigera assez tôt. Donc je considère avoir joué mon rôle ;-). Bonne continuation ! --[[Utilisateur:Aldoo|Aldoo]] 12 déc 2004 à 14:20 (CET)

Critiques[modifier le code]

  • Le "degré de désordre" n'est pas une définition de l'entropie, seulement une aide pour l'intuition. L'entropie est une grandeur thermodynamique, pas une vague idée sur le désordre.
  • Il y a beaucoup de choses justes dans cet article mais elles sont toutes dans le désordre.
  • L'ensemble est assez confus. Les auteurs connaissent mal l'histoire et les raisons des concepts qu'ils présentent. Ni Rudolf Clausius, ni Ludwig Boltzmann (sauf par sa constante) ne sont cités.
  • La façon classique de définir l'entropie comme une fonction d'état n'est pas présentée, alors qu'avec la définition de Boltzmann, elles devraient être les points essentiels de cet exposé.
  • L'argument final me semble faux. Pourquoi des concentrations de matière ne pouraient-elles pas se disperser ?

--TD 17 mar 2005 à 10:53 (CET)

Je suis d'accord avec ceci: "Le "degré de désordre" n'est pas une définition de l'entropie, seulement une aide pour l'intuition. L'entropie est une grandeur thermodynamique, pas une vague idée sur le désordre." Le problème est pourtant que tout le monde à repris cette interprétation de l'entropie sans aucune critique et en fait absolument n'importe quoi. Il serait intéressant de savoir d'où viens cette interprétation foireuse.
Pour ma part, j'ai trouvé dans le livre de J. Tonnelat, Thermodynamique et biologie (éd. Maloine, 1978), les indications suivantes: Dans son ouvrage de 1865, Clausius reprend en passant cette interprétation de l'entropie comme mesure du désordre ; il ne la justifie pas et ne dit pas non plus d'où elle vient. Elle est donc juste postérieure, et Tonnelat avance l'hypothèse qu'elle a été formulée en rapport avec les machines à vapeur (sujet principal du livre de Carnot en 1824, et application dominante à l'époque): la dispersion de la chaleur dans la machine, par les frottements, les fuites, la diffusion à travers les pièces, etc., aurait alors été interprétée comme un "désordre", et l'image serait restée.
Quand je dis que "tout le monde à repris cette interprétation", il y a là dedans pas n'importe qui. Erwin Schrödinger, pourtant élève de Boltzmann, fait de cette interprétation de l'entropie le pilier de son ouvrage Qu'est-ce que la vie ? de 1944, qui deviendra un ouvrage fondateur de la biologie moléculaire. Schrödinger constatant "l'ordre" à l'intérieur des êtres vivants, cherche à savoir d'où il vient, puisque cela est, selon lui, contraire au second principe de la thermodynamique (en fait, à son interprétation en termes de mesure du "désordre"). De fait, il conçoit l'émergence de "l'ordre" dans les êtres vivants comme le produit d'un autre ordre, un code stocké dans un "cristal apériodique", qui sera identifié comme la molécule d'ADN par Watson & Crick en 1953.
Il y a donc une confusion considérable autour de cette interprétation qu'il serait bon de dissiper, d'autant qu'il existe un article néguentropie qui n'est absolument pas critique sur ce point, entièrement fondé qu'il est sur cette interprétation trompeuse. L'entropie est la mesure de la dégradation et de la dissipation de l'énergie (et rien d'autres) qui a lieu dans tous les phénomènes, qu'il s'agisse de "systèmes fermés" ou "ouverts". Les notions d'ordre et de désordre, totalement subjectives, n'ont rien à faire là dedans, et la néguentropie n'existe pas, contrairement à ce que croyait Schrödinger lui-même...
--Dickin 29 octobre 2009 à 14:17 (CET)
Je note une contradiction : d'un côté tu dis être d'accord avec Dugnolle sur le fait que "c'est une aide pour l'intuition", et de l'autre tu dis que c'est une "interprétation foireuse/trompeuse". Une "interprétation foireuse/trompeuse" ne peut être une aide pour l'intuition. Dugnolle ne remet pas en cause le désordre en tant qu'interprétation, mais en tant que définition seulement. Toi, tu est contre les deux, visiblement, mais je crains que tu ne mélanges les deux concepts, qui sont pourtant différents, comme le souligne Dugnolle.
Ce qui est sûr c'est que ce débat devrait avoir un reflet dans l'article, tout en soulignant que l'interprétation en tant que désordre est largement (à tort ou à raison, ce n'est pas la question) acceptée. Si tu as des sources valables remettant en cause le désordre en tant qu'interprétation de l'entropie, il n'y a pas de souçi pour ajouter une phrase ou deux à ce sujet. --Jean-Christophe BENOIST (d) 29 octobre 2009 à 15:23 (CET)
La question qui se pose est : Quelles sont les sources valables établissant le désordre en tant qu'interprétation de l'entropie ? La réponse est qu'il n'y en a pas ! C'est ça, véritablement, le problème, il me semble, non ? C'est ça qui devrait être signalé dans l'article, non ?
"Aide pour l'intuition", peut-être. Mais chez Schrödinger, qui prend cette interprétation au pied de la lettre, qui à partir d'"une vague idée sur le désordre" et sur l'ordre bâti une théorie des êtres vivants, cela aide surtout à la confusion, il me semble, non ?
Cela, on le sait, donc parlons-en. Plutôt que de se perdre en considérations sur ce que nous ne savons pas.
--Dickin 29 octobre 2009 à 18:34 (CET)

Connaissez vous quelque chose a la physique statistique ? a la lecture de vos critiques, on peut fortement se poser la question ! Bien sur que oui l'entropie statistique est une grandeur qui caractérise le désordre ! le nombre de micro état décrivant un macro état caractérise le manque d'information dont on dispose sur le systeme, donc son désordre. Selon la loi S= k.ln(Omega), le nombre de micro état Omega possible pour décrire le même macro état augmente, plus l'entropie augmente, et donc plus le désordre augmente. C'est vraiment de la physique de base !— Le message qui précède, non signé, a été déposé par Agrégé (discuter)

Le manque d'information, auquel se réfère l'interprétation statistique de l'entropie, n'est pas la "mesure" du désordre, mais de notre ignorance. Le désordre n'a pas de définition objective en physique. Le désordre est toujours lié à une notion d’ordonnancement (souvent parmi d'autres), qui est elle-même, un critère arbitraire.--Naibed (d) 15 septembre 2012 à 10:28 (CEST)

suppressions ?[modifier le code]

J'ai supprimé les passages suivants parce que selon moi, il n' ont pas leur place ici (mais je sais que Zeilinger est un très grand physicien).--TD 17 mar 2005 à 13:30 (CET)

La « flèche du temps », posée pour rendre compte de faits d'expériences, s'articule difficilement avec des équations physiques macroscopiques, qui pour leur part sont réversibles. Encore aujourd'hui, cette question est l'objet d'intenses recherches, de par son lien avec la nature profonde de l'univers (relativité, mécanique quantique). Il est à noter qu'en mécanique quantique, des expériences comme celles dérivées des fentes d'Young ou l'expérience de Marlan Scully ne font plus apparaître de véritable notion de « temps ». Le sujet de savoir si l'on peut considérer le temps comme une propriété émergente fait l'objet de discussions actuellement (2004).

  • Enfin, la notion d'entropie de Shannon est actuellement examinée de plus près à la suite de critiques de Tim Palmer (physicien) sur la notion d'information émises en 1995 et concernant deux implicites de la théorie que l'on ne peut considérer comme allant de soi en mécanique quantique :
    • Le fait qu'un état à observer (par exemple la face d'un dé) existe préalablement à la démarche d'observation
    • La considération que les événements qu'on observera ne dépendent pas de l'ordre dans lequel ils seront examinés
L'article Conceptual inadequacy of the Shannon information in quantum measurement, publié en 2001 par Anton Zeilinger et Caslav Brukner, a synthétisé et développé ces remarques. On nomme pour cette raison principe de Zeilinger l'idée que la quantification observée en mécanique quantique serait liée à des questions de quantification de l'information (on ne peut obtenir moins d'information qu'un bit, et ce qui n'est pas observé est par définition aléatoire) qu'à la nature du monde physique. En 2004 on n'a toujours pas trouvé de contre-exemple à ce principe. Ce dernier, comme tous les autres principes en physique, devra être abandonné dès lors que l'on en constaterait un seul.
  • Ce passage me semble incorrect :--TD 17 mar 2005 à 13:30 (CET)

L'organisation d'un chaos apparent de corps interstellaire en disques d'accrétion donne l'impression d'un contre-exemple, mais la notion d'irréversibilité du temps lève celle-ci : on peut en effet imaginer un tel chaos se transformer au cours du temps en disque d'accrétion, mais non l'inverse. C'est donc bien l'état de disque (anneaux planétaires, plan de l'écliptique, forme des galaxies) qui doit être considéré comme « dégradé ».

Réponse à Lucronde[modifier le code]

Je suis sûr que le texte que j'ai proposé est à revoir mais les modifications apportées par Lucronde aussi.

  • Y a-t-il des phénomènes qui ne subissent pas l'influence du temps ? Tous les phénomènes se produisent dans le temps et ils ne sont pas toujours irréversibles.
  • Un article sur l'entropie doit commencer par donner une définition, même incomplète,* de l'entropie et non par énoncer le principe de la conservation de l'énergie, qui est déjà exposé ailleurs.
  • La chaleur ne se dégrade pas en travail, c'est le contraire.
  • Que veut- dire conjuguer des définitions ?
  • Avant de parler des philosophes sur un ton dédaigneux ("soi-disant ordre naturel"), il faudrait se donner la peine de les connaître et de dire précisément ce qu'ils disent.
  • Il est peu judicieux d'illustrer le second principe avec un exemple emprunté à la matière granulaire, alors que l'application de la thermodynamique à ces questions pose beaucoup de difficultés de principe.

--TD 17 mar 2005 à 15:31 (CET)

J'ai répondu à ces réponses :

  • 1/ Je suis surement moins qualifié que les contributeurs actuels
  • 2/par contre je trouve que l'article dans sa forme actuelle ne délivre pas de définition claire, alors que certaines lectures m'avaient laissé penser que j'avais compris certaines choses et que j'ai voulu les faire partager (ce qui après tout est le but de wikipedia)
  • 3/ Je ne suis pas dédaigneux quand je dis que les philosophes du XVIII° siècles ce sont appuyés à tort sur un "soit-disant ordre naturel". Je constate que l'évolution des idées en physique nous fait plutôt penser que l'ordre naturel n'existe pas. Maintenant il est inutile de citer Voltaire ou Rousseau pour comprendre de quoi il en retourne, même si ces deux grands philosophes ont fait beaucoup pour la philosophie, ils n'ont utilisés que des concepts de leur époque. Ce qui me semble intéressant c'est de constater qu'il y a une évolution des idées en physique ( cf à ce sujet un très intéressant ouvrage de Einstein paru chez Payot), et une création de concepts : mon domaine de prédilection, la musique, s'appuie souvent sur des nouveaux concepts de la physique pour certaines créations de matériau compositionnels. Il me semble que Le son devrait être soumis aux lois de la conservation de l’énergie et de l'équilibre thermodynamique et qu'il y a une auto-organisation qui exige l’incorporation à une structure, corps ou instrument pour permettre la transformation de l’énergie en information. Me trompe-je ?
  • 4/ Quant à l'illustration de l'ordre et du désordre, je laisse les spécialistes à leurs problématiques ; mais je suis fasciné par cette (comment dites vous ? "équivalence d'échelle" ?) transposition possible du microscopique au macroscopique. En gros, la musique contemporaine essaie souvent, elle aussi de reproduire au niveau de la forme musicale, c'est-à-dire de la macroforme, ce qu'elle à pu découvrir au niveau de la décomposition du son, c'est-à-dire de la microforme. Et je pense que cette vision de la physique entre le microscopique et le macroscopique entre la dimension de l'atome et celle de l'univers a quelquechose de fascinant. Vision d'artiste ?

Cordialement --LR 21 mar 2005 à 17:49 (CET)

Oui, l'article tel qu'il est n'est pas satisfaisant. Il doit être complété et toutes les bonnes volontés y sont conviées, et toi aussi bien sûr - je devrais m'en rappeler plus souvent - pourvu que tu fasses un peu attention - souvent il suffit d'ajouter un peut-être pour transformer une erreur en une vérité.
L'article dit ce qu'est l'entropie parce qu'il donne deux de ses définitions (une quantité conservée lors des transformations réversibles que l'on mesure avec la formule dS = dQ / T , cette équation est vraie par définition, ou bien S = k ln oméga , ...) mais cela ne suffit pas pour comprendre ce qu'est l'entropie.
Est-ce qu'une définition simple, du genre "l'entropie est la mesure du désordre", pourrait commencer l'article, avant de manipuler des concepts où "il faut étudier davantage de physique.
Ex. le dégré d'entropie de mon tiroir dépend du nombre de paires de chaussettes, et de la distribution des "unités" chaussette par rapport à la "paire de chaussette". C'est-y-complètement idiot ? --LR 23 mar 2005 à 08:14 (CET)
Ce n'est pas complètement idiot. Mais quand même y a un problème. L'entropie n'est pas la mesure du désordre. Elle est une façon de mesurer un certain type de désordre, difficile à définir.
Oui il faut commencer par les idées les plus accessibles. La partie "vulgarisation" (qui est aussi en un sens la partie la plus noble de la science) devrait se trouver au début. Ce n'est pas le cas parce que je la trouve peu satisfaisante (voir la fin de l'article) et qu'elle nuit à mes yeux à l'image de l'encyclopédie. J'ai préféré provisoirement des définitions précises, (pour m'imposer comme scientifique), mais pour le lecteur ce n'est peut-être pas mieux.
On pourrait prendre l'exemple du tiroir et des chaussettes. Il suffirait de préciser le caractère pédagogique d'une telle approche. Le concept d'entropie est avant tout destiné à l'étude des équilibres thermodynamiques (mais aussi il est vrai dans la théorie de l'information).
A suivre. Merci de tes réponses.--TD 23 mar 2005 à 11:48 (CET)

Pour cela il faut étudier davantage de physique et voir sur des exemples le sens des concepts mis en oeuvre. C'est une théorie difficile, et pour ma part, j'ai commencé à la comprendre plusieurs années après avoir passé des examens sur ce sujet (et avoir lu quelques milliers de pages là-dessus).

Ce que tu dis sur le son est tout à fait juste (sauf sur l'auto-organisation, je ne vois pas bien ce que tu veux dire). La dynamique des fluides donne une des bases de la physique du son et on peut la voir comme une extension de la thermodynamique (une partie de la physique des flux proches de l'équilibre).
Je suis d'accord avec toi sur le caractère fascinant de cette question. De façon générale de nombreuses questions de physique sont fascinantes, il est heureux qu'elles intéressent des personnes de tous horizons. Cordialement. --TD 21 mar 2005 à 19:49 (CET)

Àṭ


Pour ma part, je ne comprends l'entropie après avoir lu cet article. Pour moi une mesure doit avoir des unités, est-ce le cas pour l'entropie ? Ce n'est pas inscrit dans l'article. Je croyais que l'entropie est une mesure de l'énergie dispersée qu'on ne peut pas récupérer pour faire un travail. A la lecture de l'article dans sa forme actuelle, je n'en suis plus si sur. Laurent


Be simple, not too simple. 20 novembre 2005 à 19:34 (CET) Dans la partie physique stat, c'est bien vu de parlait de l'audace de Boltzmann, mais cependant historiquement les propriétés quantiques sont à des années lumieres de la thermodynamique. Il faudrait plutot mettre l'accent sur le fait qu'a l'époque la théorie atomique n'était pas trés bien considéré par la communauté des physiciens (alors que les chimistes l'avait déja adopté depuis bien longtemps). C'est d'ailleurs une des causes du suicide du pauvre Ludwig!!



Ma propre contribution :[modifier le code]

Cet article, c'est un vrai BORDEL. Comme illustrer la notion de désordre... dans l'article entropie, ça fait pas sérieux. Alors fixons quelques trucs, hein.

-L'entropie est une grandeur ad hoc que l'on définit en réalité comme une sorte de super potentiel : en gros, c'est le truc qui augmente quand le temps passe, puisqu'on a constaté que l'évolution macroscopique était irréversible.

-Le désordre dont on parle est essentiellement un désordre ENERGETIQUE : l'équipartition de l'énergie, sous forme de chaleur, donc d'énergie cinétique macroscopique. Quand un système s'effondre sur lui-même sous l'effet de la gravité, son énergie potentielle se transforme en chaleur, il y a augmentation du désordre énergétique. Et comme c'est une évolution irréversible, il y a bien augmentation de l'entropie, par définition de l'entropie en fait.

-Il y a l'entropie statistique, celle de la théorie de l'information, ou plutôt celle des probabilités. Cette entropie donne une mesure de notre ignorance. Quand on aborde un système, et qu'on doit supposer des probabilités a priori, il faut choisir les probabilités pour qu'elles maximisent cette entropie la. Par exemple, si on prend des particules dans une boite, on a une chance sur deux pour chaque particule pour qu'elle se trouve dans une moitié donnée de la boite. Si on ne fait pas ça, on doit avoir une raison. Il doit y avoir quelque chose que l'on sait pour dire ça. Donc l'entropie statistique n'est pas maximale.

-Quand on maximise pour un système donné cette entropie, c'est à dire qu'on suppose que les probabilités de chacun de ses états possibles est choisie de manière à maximiser l'entropie statistique, on obtient l'entropie de Boltzman. Et cette quantité peut être reliée à l'entropie classique. On peut identifier les deux. L'idée c'est que l'évolution irréversible macroscopique est en fait dûe au fait qu'avec un grand nombre de particules, les évènements les plus probables ont en général lieu. En gros, si vous avez une assemblée de particules groupées dans une moitié de boite, c'est sur qu'elles vont se répartir. Disons que c'est infiniment plus probable. Voilà pour l'origine statistique de l'entropie et la raison pour laquelle on peut identifier l'entropie maximisée et l'entropie classique.

Voilà. Il faudrait vraiment tout refaire.

Renard 8 décembre 2005 à 10:51 (CET)

Tout à fait d'accord. Tu pourrais peut-être faire des suggestions en créant un article Wikipédia:Projet/Physique/entropie qui reprenne certains des éléments actuels mais en les intégrant dans un plan plus rigoureux. Qu'en penses-tu ? Si d'autres contributeurs pouvaient aussi s'exprimer ? --Lucronde 9 décembre 2005 à 14:10 (CET)

Entropie de Shannon[modifier le code]

Bonjour,

Je trouve bizarre de ne pas retrouver de lien vers cet article (http://fr.wikipedia.org/wiki/Entropie_de_Shannon) dans celui parlant d'entopie.

Je ne sais pas comment en ajouter un donc j'en reste à une "suggestion"...

    • Et bien voilà qui est fait. Pour rajouter un lien tu sélectionnes le mot et tu cliques sur le troisième bouton Ab, ce qui te le met entre crochet [[ ]] --Lucronde 12 janvier 2006 à 16:41 (CET)


Au diable l'entropie ! Le second principe est violé dans la plupart des réactions chimiques qui dégagent de la chaleur, loin de l'équilibre il est vrai, mais les réactfs tendent vers un état d'équilibre. Quand les réactifs sont parvenus infiniment près de cet état, le second pricipe devrait être valable puisue dQ est positive: les réactifs devraient absorber de la chaleur. Comment, au cours d'un processus continu, le sens de la transmission d'énergie peut-il s'inverser? L'entropie est une notion mal définie. Le raisonnement de Clausius est incorrect: Il ne pet exister de chemin réversible pour une réaction spontanée puisque l'état initiale est hors équilibre. Les raisonnement de Boltzmann et de Gibbs ne sont valable que pour les gaz parfaits et seulement pour une détente isotherme infinitésimale au voisinage de l'équilibre. Voir le site <<j.tonnelat.free.fr>>.

L'entropie est une fonction d'état ...[modifier le code]

Ok, mais alors le titre de l'article devrais être entropie (thermodynamique), ce qui semble mieux convenir à l'ensemble de l'article.

Je pense que celui qui viens pour comprendre ce terme, utilisé dans un langage courant (souvent abusif), risque fort de partir bredouille. A vot' bon coeur m'sieurs dames. ;-) 18 septembre 2006 à 16:13 (CEST)

Nouvelle version entropie[modifier le code]

Bonjour G.Gonczi

J’ai lu avec intérêt ta contribution sur l’entropie. Je suis plus ou moins d’accord avec la façon dont tu présentes l’entropie et je pense que certaines explications au niveau microscopique sont très intéressantes . Néanmoins il n’est pas dans la déontologie de wikipédia de rayer d’un trait, une réflexion qui dure depuis plusieurs mois voire plusieurs années et qui concerne des dizaines d’intervenants. Il existait un article que tu aurais pu améliorer sans pour autant tomber dans le travers d’un cours magistral destiné à des étudiants physiciens. Il y a aussi la possibilité de laisser des messages, des propositions dans la rubrique « discussion ». Pour ma part je regrette surtout que soit disparu le cas des systèmes fermés pour lesquels la création d’entropie correspond à la somme des variations d’entropie du système et du milieu extérieur. L’exemple de la solidification de l’eau est pédagogique pour comprendre à la fois que l’entropie d’un système peut diminuer et toucher du doigt que la création d’entropie est quasi-nulle si on se rapproche de la réversibilité. Ton exposé est essentiellement basé sur les systèmes isolés. De plus, tu alourdis le thème en ne renvoyant pas nombre de définitions par des liens internes, à ce qui existe déjà : il y a déjà beaucoup de choses d’écrites sur la thermo.

Je ne suis pas persuadé que ton article soit globalement plus clair et plus accessible à des internautes ayant certes des connaissances scientifiques mais n’étant pas physiciens. Je propose de revenir à la version antérieure en essayant d’intégrer les descriptions à l’échelle microscopiques.

Maghémite 7 février 2007 à 16:51 (CET)


Réponse de G.Gonczi:

Bon d'accord, je reconnais que j'y suis allé un peu fort en remplaçant le texte entier par un autre. Mais il faut dire que la présentation que l'on peut appeler "historique" (d'abord macroscopique puis microscopique) contribue à rendre la thermo (qui n'est déjà pas très simple) particulièrement obscure. En effet elle ne répond pas aux questions simples comme:

  • qu'est-ce que c'est concrètement que l'entropie ?
  • pourquoi est-ce une fonction d'état ?
  • pourquoi seulement pour une transformation réversible ?
  • etc ...

Il faut rappeler ici que dans le programme officiel des classes prépa il est dit l'interprétation statistique de l'entropie est hors programme. Il s'en suit que le microscopique est généralement présenté presque comme une curiosité de laboratoire et que le lien avec le macro est rarement établi. De plus l'entropie est souvent définie de la façon suivante: tout système est caractérisé par une fonction d'état S ayant les propriétés suivantes etc... Mais ce n'est pas concret ça, ce n'est pas de la Physique! Quoi de plus concret que de rappeler que la matière est formée de particules en mouvement aléatoire ?

Certes mon texte nécessite un peu plus de math que l'exposé classique (je ne sais pas le présenter autrement) et est peut-être plus utile au lecteur ayant une formation suffisante. Je propose donc de faire un texte en deux parties. La première, avec la version précédente, pourrait s'appeler (par exemple) présentation courante de l'entropie et la seconde définition et propriétés de l'entropie déduites de la structure de la matière en particules (c'est peut être un peu long). Qu'en penses-tu ? Je pourrais m'en occuper mais il faudrait me laisser quelques jours ....

Très cordialement --G.Gonczi 9 février 2007 à 17:26 (CET)


Bonjour

J'ai intégré la partie développée par G.Gonczi sur le niveau microscopique dans l'ancienne version ce qui permet à mon sens de l'améliorer. Je pense malgré tout que l'entropie définie à l'échelle macroscopique est plus fructueuse pour l'étude des machines thermiques et des équilibres chimiques. Ses variations sont plus aisément calculables que dans le cas de la définition statistique dont le calcul se limite, à ma connaissance, pratiquement au gaz parfait. De plus l'ordre de la définition de l'entropie à l'échelle microscopique ou macroscopique n'apporte à mon sens aucune facilité pour la compréhension de l'entropie.

Il resterait à exposer le calcul différentiel et le calcul des variations d'entropie d'un corps pur mais je pense qu'il ne faudrait pas alourdir l'exposé de l'entropie et qu'il faudrait créer un nouvel article.

Maghémite 10 février 2007 à 18:28 (CET)

Conflit d'intéret[modifier le code]

Rappel : pour des raisons de déontologie évidente, toute forme d'auto-promotion est interdite dans les articles de la Wikipedia, notamment la publicité pour ses publications.


Bonjour, je ne suis pas physicien et je ne comprends décidément pas l'intérêt de wikipédia vu la confusion une fois de plus de cet article. Une simple remarque de bon sens : "Il est courant de dire que l'entropie est une mesure du désordre. En effet, considérons par exemple un jeu de 52 cartes et posons-les toutes du même côté (ordre parfait); cet état macroscopique ne peut être réalisé que d'une seule façon: Ω = 1." À mon avis, dèjà là il y a erreur, car il y 2 possibilités pour réaliser cet état, face et dos. Alors j'ai un peu de mal à donner un quelconque crédit aux autres calculs savants. encore un effort…

Mmm.. Je ne pense pas qu'il y aie erreur. Les 52 cartes côté face et côté dos sont un seul et même état qui est l'état "les 52 cartes montrent le même côté". D'ailleurs, il suffit de renverser la tête pour transformer les "52 cartes côté dos" en "52 cartes côté face". Il est clair que renverser la tête ne change rien à l'état des cartes. --Jean-Christophe BENOIST 5 avril 2007 à 13:07 (CEST)
Je suis d'accord, il n'y a pas d'erreur car ici la définition de l'ordre est choisie par le rédacteur. D'ailleurs ensuite dans l'exemple suivant, l'ordre est défini autrement en rangeant les cartes par couleur et par valeur croissante. Il ne faut pas oublier que ce sont des exemples simples pour la compréhension de phénomènes complexes ! Maghémite 26 avril 2007 à 15:57 (CEST)

Contribution à la définition[modifier le code]

La lecture de l'article et celle de la discussion ne fait pas améliorer la caractérisation de la 'chose' nommée ENTROPIE.

Premier problème: tout ce qui est dit est physico-mathématique du niveau 3 ième cycle.
Sans intérêt pour une définition générale, et pour beaucoup de lecteurs.
Deuxième problème: des interprétations incorrectes et/ou ambigües, ainsi que des affirmations
que je qualifie de déplacées.
Exemple: l'intuition commune comprend déjà difficilement le concept d'énergie, cette grandeur
qui, pour un système isolé, a la propriété de se conserver jusqu'à la nuit des temps. ???
Autrement surprenant est le concept d'entropie. ???

Le lecteur d'un bon niveau reste perplexe.

1- l'énergie est un "hyperconcept". Le mot 'énergie' désigne une notion du plus haut niveau
d'abstraction dont est capable notre conscience humaine, sans pouvoir en fabriquer une
représentation.
Le concept fait correspondre le concret à l'abstrait. Le mots 'arbre', 'chaise',... désignent
des objets qui ont une représentation dans notre conscience. Dans une autre langue d'autres
mots désignant les mêmes objets produident les mêmes représentations dans notre conscience.
L'action à faire est d'auto-apprendre la correspondance entre les deux 'choses', et de 
s'auto-conditionner pour mémoriser.
2- Le mot 'entropie' est un hyperconcept pour désigner les constatations que l'on voit dans
la réalité, que nous percevons par nos sens.
Aucun humain ne 'verra', ne percevra l'entropie. La conscience humaine perçoit, par ses sens,
que des phénomènes, qui sont des flux d'énergie. Le mot entropie est un indicateur du flux
observé. (comme la température) Lorsque l'on quantifie l'entropie d'un flux (G/T), cela
désigne un gradient.

Après de nombreuses observations, on constate qu'un tas de sable s'applatit, qu'une pomme tombe de l'arbre, qu'en tombant elle s'abîme, provoquant son pourrissement. Conséquence sa durée de vie est plus courte.

On peut remarquer que la Terre possède une durée de vie longue (relativement à la nôtre), malgré les milliards de calories par seconde qui sont éjectées dans le cosmos, avec la reception d'autres milliards/s envoyées par le Soleil. Les spécialistes disent qu'il y a une usine nucléaire au centre de la Terre. C'est faux car une usine nucléaire a une durée de vie courte, du fait de la pollution de l'endroit de fission, produite par les déchets résultants. Dans le centre de la Terre, compte tenu de sa durée de vie, le taux de pollution doit être très petit, ce qui veut dire très petite entropie. C'est la preuve que le processus interne de la Terre, qui produit beaucoup de chaleur, doit être complexe. Il est intéressant de le connaître.

On peut constater que le système solaire, qui existe localement depuis longtemps, est un ensemble d'énergies de différentes natures, qui se transforment les unes dans les autres. La preuve: la Vie des êtres mamifères ont un rendement plus grand que celui de la photosynthèse, dont ils dépendent. Ces énergies constituent un système 'isolé' dans le cosmos, avec une durée de vie très longue.

Concrètement on perçoit la notion d'entropie lorsque l'on regarde une bille qui descend et remonte sur une paroi parabolique. Elle ne remonte jamais à la hauteur de laquelle elle est partie sur la même paroi. Après n oscillations elle s'arrête. L'entropie du système produit son arrêt. Sa durée de vie est limitée. Notre conscience perçoit une cause à l'arrêt du système. La différence entre l'énergie initiale et l'énergie finale s'est transformée en une énergie de nature différente. Pour notre conscience c'est l'entropie.

PROPOSITION de définition:

L'entropie est le fait que dans un espace, il existe un endroit de grande densité d'énergie,
de natures d'énergie différentes compatibles, telle que cette densité dépassant le seuil de
cohésion de ces énergies, celles-ci vont se déconstruire pour que la densité d'énergie
diminue.
Ce phénomène produit un flux d'énergie VERS son environnement proche. Ce phénomène est
irréversible car la nature des énergies libérées sont d'une densité plus petite et/ou plus
grande. 212.194.216.78 19 novembre 2007 à 22:27 (CET)

Indice d'entropie[modifier le code]

Bonjour, je crois que l'entropie ne se résume pas aux sciences exactes, mais il existe aussi l'indice d'entropie au niveau des sciences sociales. Il faudrait ajouter une définition. Malheureusement, je ne connais que des définitions provenant de pages web, donc je ne peux pas les ajouter.

"en communications"[modifier le code]

est un terme vague, y rattacher la théorie de l'information n'éclaire pas le lecteur. Rigolithe 13 février 2008 à 18:52 (CET)


Je trouve que l'article ne parle pas assez du temps, c'est-à-dire des tentatives pour penser le temps à partir de l'entropie, à partir par conséquent du "contenu" physique du temps. (Je n'ai pas les connaissances scientifiques pour compléter l'article, je trouve simplement "bizarre" l'idée d'un temps réversible quand l'entropie est maximale. Le concept "ordinaire" du temps ne se réduit pas à l'irréversibilité, il enveloppe encore l'idée que le passé n'est plus, et pas seulement qu'on ne revient pas à un état physique (un contenu) passé.) Merci à qui saura m'éclairer! Slonimsky (d) 21 mars 2008 à 19:49 (CET)

Introduction[modifier le code]

L'introduction énumère les différents type d'entropie, c'est bien. Cependant avant cela je pense qu'il faudrait débuter l'article pas une, deux ou trois phrase explicant le concept de manière générale et compréhensible pour tous... ce qui ne semble pas vraiment le cas ici. Kelson (d) 7 mai 2008 à 11:59 (CEST)

oui je trouve vraiment l'article rebutant pour un non physicien non historien. je pensai mettre un introduction de vulgarisation comme celle ci:
"L’entropie est une grandeur physique thermodynamique. L’entropie d’un système caractérise sa complexité. Hormis le vivant, tout système physique isolé hors équilibre (différence de température, de densité…etc) aura tendance à évoluer naturellement vers un état plus complexe, et donc a augmenter son entropie. C’est le second principe de la thermodynamique.
Ainsi la variation d’entropie caractérise l’évolution du système vers un état d’ordre (variation d’entropie négative) ou de désordre (variation d’entropie positive)
Un système dont on connait parfaitement ses constituants microscopiques (position vitesse…etc) à une entropie nulle. C’est le troisième principe de la thermodynamique."
QU'EN PENSEZ VOUS?
— Le message qui précède, non signé, a été déposé par Agrégé (discuter)
Pourquoi « Hormis le vivant » ? Le vivant est soumis aux lois de la thermodynamique comme tout autre système… jusqu'à preuve du contraire. Kropotkine_113 26 septembre 2010 à 16:01 (CEST)
Allusion à la néguentropie du vivant, de Schrödinger (notamment) --Jean-Christophe BENOIST (d) 26 septembre 2010 à 19:25 (CEST)
Mais les systèmes « vivants » ne sont pas des systèmes isolés. Kropotkine_113 26 septembre 2010 à 22:11 (CEST)
Bonjour. Un paragraphe de ce genre ne serait pas de trop dans l'article en effet. En revanche, il y a plusieurs choses qui me gênent dans cette proposition. Je rejoins kropotkine sur la question du vivant. Je suis de plus opposé à l'utilisation du mot "complexité". Pourquoi recourir à ce mot vague alors qu'on a déjà la notion de désordre ? Enfin, la dernière phrase me semble fausse : je ne vois aucun rapport entre la connaissance parfaite des "constituants" microscopiques du système (dont Heisenberg nous dit en passant qu'elle est impossible) et le troisième principe. De fait, l'allusion au troisième principe est largement dispensable à ce stade amha. Tizeff (d) 27 septembre 2010 à 11:11 (CEST)

Lorsqu'un amas d'étoiles finit par s'organiser sous les effets gravitationnels et autres en forme de galaxie, l'entropie de l'ensemble a-t-elle augmenté entre ces deux états ?

Je pose la question, parce que l'organisation en galaxie ne correspond pas intuitivement à ce que nous désignerions dans le langage courant par désordre; et certainement moins, justement, que l'état initial.

Ne faudrait-il pas expliquer dans l'article, au moins en quelques lignes, ce résultat qui peut sembler à première vue paradoxal ? 212.198.23.126 (d) 19 juin 2008 à 08:33 (CEST)

Erreur à corriger, SVP[modifier le code]

Bonjour, je suis --Guerinsylvie (d) 5 août 2008 à 16:28 (CEST)

dans le paragraphe interprétation, Il est marqué que l'entropie d'un gaz parfait est 159 J/K/mol ( je suppose dans les conditions dites CNTP (conditions normales de température et de pression)).

Quelles que soient ces CNTP (celles des chimistes ou des physiciens), cela ne saurait être vrai, car l'entropie d'un gaz parfait monoatomique dépend de sa masse molaire,par l'addition du terme :

3/2 R Log M .

En regardant les tables de l'aide-mémoire Bernard-Busnot(ed Dunod), je trouve effectivement les valeurs suivantes : en J/K/mol

  • Néon  : 146.328(3)
  • Argon : 154.846(3)
  • Krypt : 164.085(3)
  • Xenon : 169.685(3)
  • Radon : 176.1

et les masses molaires

  • Ne  : 20.1797(6)
  • Ar  : 39.948(1)
  • Kr  : 83.798(2)
  • Xe  : 131.293(6)
  • Rn  : 222

Ayant pris comme référence l'élément Argon, je trouve que ces data fittent avec la formule 3/2 R Log M , en prenant la valeur ordinaire R = 8.3145 J/K/mol.

Ceci est évidemment bien en accord avec la formule de Sackur-Tetrode, trouvée dans la WP anglaise. Il n'y a rien là de bien original (cela date de 1908, je crois).

En tout cas, si une formule est vraie à 5ChS ( CHiffres Significatifs) et est considérée comme juste par la majorité de la communauté scientifique,

je ne comprends pas pourquoi la WP française dirait autre chose.

Je comprends que le concept Entropie soit difficile à expliquer, et je trouve méritoire les tentatives faites; moi-même, j'ai du mal avec mes élèves littéraires, mais je trouve réducteur l'exemple des pompes à chaleur ou des climatisations (même si un auteur considère, chagriné, que l'EDF a trompé son monde longtemps en confondant rendement et efficacité : of course, I agree!) :

L'entropie issue de l'analyse de Shannon est bien plus protéiforme ( cf article de Balian, in UTLS).Et je trouve dommage en 2008, de se référer seulement à l'entropie historique de Clausius (1865)

Assez cultivée sur le sujet(toute modestie mise de côté), je pense qu'il conviendrait de scinder :

  • l'entropie en thermodynamique ;
  • l'entropie en mécanique statistique ;
  • l'entropie en tant que manque d'information en théorie de l'information

En France, à part Balian(cours de l'X) , 2 textes ont dominé l'après Bruhat - Kastler : le "mécanique statistique" de Diu, Roulet & Coll , et le "thermodynamique" des mêmes auteurs. A l'étranger, il ya pléthore de bons ouvrages.

D'autre part, il existe encore des "conflits" dès que l'on parle d'entropie de non-équilibre, ce qui est évidemment un sujet plus vaste et délicat, mais digne d'intérêt aussi.

Je ne sais pas très bien avec qui entrer en contact, pour une aide plus efficace.Wikialement.

--Guerinsylvie (d) 5 août 2008 à 16:28 (CEST)

et ca depend surtout si il s'agit d'un gaz parfait monoatomique ou diatomique, et ca dépend de la temperature ! — Le message qui précède, non signé, a été déposé par Agrégé (discuter)

réflexion sur la probabilité du jeu carte (à généraliser, je pense)[modifier le code]

l'auteur indique que la configuration initiale se retrouvera obligatoirement entre maintenant et je sais plus combien de milliards d'années ( 52! combinaisons à une combinaison toutes les secondes).

ça me parait éronné ... en effet, cela signifie que le jeux de carte se "souvient" et ne fait pas deux fois la même config ... ce qui est bien évidemment faux.

en extrapolant avec une pièce: 2 états possibles, si l'état initial est pile, il peux falloir un nombre très grand de tirage avant de trouver face (prob de l'ordre de 1/2^nb_tirage je crois ... que la pièce ne fasse que pile)

donc dans le cas d'un système quelconque, la probabilité que le système ne revienne pas dans son état initial en un temps fini est non nulle ... et donc, on ne peut définir un temps maximum pour obtenir l'état initial ...

je sais pas si ceci apporte quelque chose, mais ça me parait important ...

Fut un temps où ça m'inquiétait aussi, mais la justification que mon prof m'a donnée à l'époque, c'est qu'une approche purement mathématique n'a guère de sens en physique. Pour reprendre ton exemple du lancer de pièce, si on la lance une fois par seconde, il "peut", mathématiquement, falloir un nombre très grand de tirages... mais d'un point de vue pratique, on a plus de chance de se faire toucher par une météorite que d'avoir besoin d'une minute pour retrouver l'état initial. De la même manière, on utilise le temps de demi-vie en radioactivité (temps pendant lequel un atome à une chance sur deux de se désintégrer) comme signifiant de manière équivalente temps au bout duquel la moitié de la population d'atomes du départ s'est désintégrée. Donc, pour en revenir à la phrase en cause, le "obligatoirement" est peut-être de trop, mais le sens est là. Esprit Fugace (d) 23 février 2009 à 23:18 (CET)
Il n'est nullement précisé dans l'article que c'est "obligatoire" et cela pourrait se produire avant ce temps et même après mais ce qui est important c'est de comprendre que la probabilité de revenir à l'état initial est quasiment nulle. Cette démonstration avec ses limites, me semble utile pour le montrer plutôt que de l'affirmer. Maghémite (d) 25 avril 2009 à 18:38 (CEST)
Je suis d'accord avec cette critique. L'auteur écrit: "Toutes les configurations ont la même probabilité et il y en a 8.10^67. Supposons que chaque configuration existe pendant 1 seconde, il faudrait battre le jeu pendant 8.1067 s, soit 2,5.1051 milliards d’années pour avoir peut-être une chance de revenir à l’état ordonné. On peut donc conclure avec certitude, que cette probabilité est quasi-nulle." L'hypothèse posant que "chaque configuration existe pendant une seconde" est complètement foireuse, aussi bien sur le plan scientifique que didactique: elle suppose effectivement une séquence particulière dans laquelle se succèdent 8.10^67 arrangements strictement différents. C'est la probabilité de cette séquence qui est quasi-nulle! Il est évident que des arrangements identiques peuvent se répéter indéfiniment. Il est donc simplement impossible de quantifier le temps nécessaire pour revenir à l'état initial, celui-ci étant compris entre t+1 et l'infini...L'expression "pour avoir peut-être une chance de revenir à l’état ordonné" n'a d'ailleurs strictement aucun sens en probabilités. Si l'auteur suit son hypothèse initiale d'une séquence d'arrangements strictement distincts toutes les secondes, il est certain qu'au bout de 8.10^67s celui-ci sera réalisé. Quand à "la certitude d'une probabilité quasi-nulle", l'expression n'a non plus strictement aucun sens, puique seuls les évènements de probabilité égale à 1 ou à 0 sont des évènements certains, mais en aucun cas les évènements de probabilité "quasi-nulle", c'est-à-dire non nulle! En réalité, la seule "conclusion" certaine qu'on peut tirer de cet exercice est qu'on a, à chaque tirage, une chance sur 8.10^67 de retrouver l'arrangement initial, ou tout arrangement quelconque choisi au départ. Plus généralement, cette section didactique, intitulée bizarrement "Exemples de compréhension" est globalement fantaisiste. On ne voit pas en quoi un paquet de cartes toutes retournées représenterait un quelconque ordre supérieur à n'importe quel autre arrangement. Une interprétation raisonnable du second principe est simplement que "tout systême isolé tend vers son état le plus probable". L'auteur se rend compte que la probabilité maximale correspond à l'ensemble des arrangements où la moitié des cartes sont retournées et l'autre sont de face: il s'agit d'un résultat trivial, qu'il qualifie arbitrairement de désordre maximal. Les situations les plus probables correspondant en même temps aux évènements potentiellement les plus nombreux, il n'est pas étonnant que le sentiment d'indétermination l'emporte. Ce sentiment est celui du joueur qui s'étonne de perdre à la roulette...En réalité, ce pseudo-ordre ne traduit qu'une préférence particulière de l'observateur: il aurait pu très bien choisir un arrangement initial quelconque, où telle carte est de face et telle autre est retournée, le tout dans une proportion de 50/50, et définir celui-ci comme un ordre initial. Il aboutirait alors à la conclusion inverse d'une entropie génératrice d'ordre, la probabilité de retrouver des arrangements de ce type étant la plus élevée. Interpréter l'entropie selon les catégories subjectives de l'ordre et du désordre ne mène strictement à rien. Je ne vois rien d'autre qu'une réécriture complète ou une suppression de cette section.
N'importe quoi, et cette page n'est pas un forum. Il est à peu près évident que si l'on bat chaque seconde les cartes "au hasard", le temps d'attente moyen avant le retour de la configuration initiale possède une valeur bien définie (une espérance) ; un peu moins évident mais presque que ce temps devrait être de l'ordre deu ombre de configurations multiplié par le temps entre deux tirages (cfLoi de Poisson). Pour le reste, si ça vous plait pas, donnez-nous des sources disant le contraire...--Dfeldmann (d) 15 septembre 2012 à 11:50 (CEST)

Entropie économique et décroissance[modifier le code]

Je pense qu'il serait intéressant de créer une section entropie et économie dans cet article... Je ne suis pas expert dans ce domaine je suis un parfait autodidacte en économie donc je laisse faire les experts!

Voir:
Nicholas Georgescu-Roegen
Décroissance (économie)

Jerayld 22 février 2009 à 18:48 (CET)

Réponse de jean-pierre TERIBAT:

Avant de transposer la notion et le concept d' entropie à l' économie (sujet vaste à ma connaissance!), il faudrait mieux envisager dans une première approche étudier les textes relatifs au rapport qu'il y a entre l' entropie et l' information; au niveau fondamental et appliquée par la suite. Il existe une relation relativement à l'"entropie informationnelle": cf "INFORMATION" Encyclopédie Universalis Suggestion : cf PRIGOGINE Y.; Prix Nobel de chimie.

JP TERIBAT; jpteribat at yahoo.fr

Il manque en effet soit un article (jumeau de en:Entropy in thermodynamics and information theory) soit un paragraphe consacré à ce sujet dans cet article. Par cercle concentrique, je suis en train de me rapprocher de ce sujet (je suis en ce moment sur Paradoxe de l'information, qui est très très voisin) et je finirais par faire un article sur ce sujet, mais n'hésitez pas à me devancer ! Ce n'est pas pour demain à mon rythme actuel.. --Jean-Christophe BENOIST (d) 12 mars 2012 à 17:13 (CET)