Aller au contenu

Discussion utilisateur:G.Gonczi/Entropie

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.

Modifications[modifier le code]

Bonjour Maghémite,

J'ai pris connaissance des modifications que tu as apportées à l'article que j'ai publié il y a quelques jours. Je suis d'accord mais l'une d'elles me pose problème car je ne la comprends pas (je ne suis pas chimiste): pourquoi as-tu ajouté : ( pas de réaction électrochimique) ? Est-il impossible d’imaginer une réaction électrochimique infinitésimale ?

Cordialement

--G.Gonczi (d) 4 février 2012 à 19:43 (CET)[répondre]

Bonjour G.Gonczi
Je pense qu'il est nécessaire de préciser qu'il n'y a pas de travail autre que celui des forces de pression comme par
exemple le travail électrique, δW' dans un montage électrochimique:
Si V=cte et si δW'= 0 ( pas de montage électrochimique), alors et l'on peut écrire que
, d'où .
pour plus de détails voir enthalpie libre.
D'autre part, dans le paragraphe pression dans un fluide la relation:
obtenue si l'énergie interne est constante peut être introduite ::simplement:
Si l'énergie interne est constante on obtient:
d'où .
Bien cordialement; Maghémite (d) 5 février 2012 à 18:02 (CET)[répondre]

Article à wikifier[modifier le code]

J'ai posé le bandeau pour wikification et sources, car elles manquent cruellement. L'article est bon mais la forme non encyclopédique. A terme, il serait bon de fusionner avec Entropie. Vu la description méthodique ici, je pense qu'on pourrait passer Entropie en BA en y incorporant les information de cet article.Euterpia (d) 8 février 2012 à 00:14 (CET) Cet article pourrait être incorporé à Entropie ou Thermodynamique. Ces deux articles manquent de rigueur, de source ou tout simplement de contenu suffisamment bien présenté. Une fusion ou une incorporation de celui-ci aux autres pourrait permettre de faire progresser ces deux articles très importants au stade de BA.Euterpia (d) 8 février 2012 à 00:29 (CET)[répondre]

Relecture[modifier le code]

  • Sur la présentation en elle-même
    • Les conventions typographiques font que les points d'exclamation et d'interrogation sont à proscrire. Ici, il n'est pas question d'interpeler un public sur un point dur, mais de décrire et expliquer, de manière neutre
    • Un article traite d'un thème ou d'un sujet précis. L'article dans son état actuel semble couvrir tout le domaine de la thermodynamique, de manière plus ou moins approfondie. Si c'est le cas, alors le contenu de l'article aurait sa place dans l'article Thermodynamique. Mais le sujet traité semble se rapprocher d'une description pédagogique de l'entropie. Auquel cas, le contenu aurait sa place dans Entropie. Lors de la création d'un article, il faut toujours être sûr que l'article n'existe pas déjà. S'il existe, alors son contenu peut être étoffé.
    • Pour qu'un article soit le plus encyclopédique possible, il faut éviter les comparaisons, images et métaphores sans rapport avec le sujet ou n'étant pas des applications numériques directes de formules importantes.
  • Sur les parties
    • Matière : Partie peu complète. Pas de mention du terme du mouvement Brownien. A rassembler avec Energie.
      • faire une section système avec sous-partie matière et énergie et une deuxième sous-partie système, pour décrire un système ouvert et un système fermé
    • Transformations d'un système : On y trouve des assertions qui ne sont compréhensibles que grâce à l'équation des gaz parfait. L'exemple du sel dans l'eau est non pertinent puisqu'on traite ici non pas de chimie ou de dissolution mais de thermodynamique.
    • Transformations irréversibles : Avec la partie précédente, il faudrait les rassembler.
      • Faire une section Transformations avec les sous sections nécessaires, tranformation réversible, irréversible, puis introduire la notion de transformation infinitésimale.

Voilà pour ce soir, la suite de la relecture demain Euterpia (d) 8 février 2012 à 00:48 (CET)[répondre]

Quelques remarques[modifier le code]

Salut,

Cette version est globalement sur de biens meilleurs rails que la version actuelle il me semble. J'ai pas mal de remarques et suggestions à faire, il va falloir que j'y aille petit à petit sinon je vais y passer la journée :). Dans la foulée, je prends la liberté de faire directement des modifications dans la page, en expliquant ci-dessous. Si vous n'êtes pas d'accord, on réverte, on discute, comme d'habitude.

La première remarque, c'est que ceci doit être un article sur l'entropie, et pas un article ou un cours général sur la thermo. Même s'il va de soi qu'il faut faire attention à définir a minima les notions qu'on manipule, il faut se garder de la tentation de vouloir parler de tout à la fois. Tout doit être écrit sous l'angle de l'entropie. Ainsi certaines parties me semblent constituer des digressions hors sujet qui pourraient être ahma purement et simplement retirées :

  • le paragraphe sur l'apparition de la vie, qui relève de l'article sur le second principe éventuellement mais pas directement de l'entropie.
D'accord, je vais l'enlever G.Gonczi (d) 19 mars 2012 à 18:48 (CET)[répondre]
  • le paragraphe "température et chaleur". Amha ce n'est pas à cet article sur l'entropie de lever cette confusion. Il y a d'autres articles pour cela. En revanche, il est évidemment impératif d'utiliser correctement ces termes.
OK. Mais c'est quoi Amha ? G.Gonczi (d) 19 mars 2012 à 18:48 (CET)[répondre]
Pardon, c'est du jargon : une abbréviation pour "à mon humble avis". Tizeff (d) 19 mars 2012 à 21:11 (CET)[répondre]
Ouf! On en apprend tous les jours sur WP ! -- G.Gonczi (d) 21 mars 2012 à 12:00 (CET)[répondre]

De même, les paragraphes qui décrivent les transformations thermodynamiques gagneraient à être raccourcis je pense.

Comment ? G.Gonczi (d) 19 mars 2012 à 18:48 (CET)[répondre]
Je ne sais pas trop a priori, je vais essayer de faire des propositions. Tizeff (d) 20 mars 2012 à 00:18 (CET)[répondre]

Le suite au prochain numéro... Tizeff (d) 14 mars 2012 à 09:19 (CET)[répondre]

Quelques petites remarques sur la partie "du micro au macro" :
  • Il est écrit "on définit la température dite thermodynamique par... (équation 6)... pour montrer que cette température est égale à la température courante etc.". "Température courante" ne veut pas dire grand chose, on ne sait pas du tout à ce stade de quoi on parle. De plus, dans la suite on a "Cette relation bien connue est l'équation d'état du gaz parfait; ceci montre que la température T définie par la relation (6) est bien la température (dite thermodynamique) habituelle." On tourne en rond...
  • Dans cette partie toujours, le raccourci est trop violent : en gros en recolle la physique state à la thermo en montrant que ça marche sur le gaz parfait. Mais quid de tous les autres systèmes ?
Bonne remarque, j'ai oublié une partie de la démo mais c'est facile ... avec quelques équations. Oublions un instant que j'ai défini T par dU/dS. L'équation d'état du GP s'écrit PV= Nk(dU/dS)gp. Je suppose qu'un système quelconque est en équilibre avec le GP (l'ensemble étant isolé); en écrivant que l'entropie de l'ensemble est maxi on obtient (dU/dS)syst = (dU/dS)gp (c'est une démo classique que j'évoque sans la donner dans la section "transition vers l'équilibre et transformations réversibles). Voici la démo: l'entropie de l'ensemble isolé (S=Sgp+Ssyst) est maximum ce qui s'écrit dS= dSsyst + dSgp =0; mais dS=(dS/dU)syst * dUsyst + (dS/dU)gp * dUgp + termes semblables en dV. Comme le système est isolé dUsyst + dUgp =0 (conservation de l'énergie) et dS=[(dS/dU)syst - (dS/dU)gp] * dUsyst + termes semblables en dV. Les termes en dUsyst et dV étant indépendants, dS est nul si chacun des termes est nul. Il reste donc (dS/dU)syst = (dS/dU)gp. CQFD. En fait c'est comme ça qu'on montre qu'à l'équilibre la T est uniforme. -- G.Gonczi (d) 21 mars 2012 à 19:30 (CET)[répondre]
Il faut impérativement commenter ça. Sur la façon de retrouver la thermo à partir des définitions de la physique stat, on peut s'appuyer sur Greiner et Callen par exemple.
Je vais essayer d'arranger ça. Je vais consulter ces bouquins. G.Gonczi (d) 19 mars 2012 à 18:48 (CET)[répondre]
Bon, désolé, ces remarques sont un peu fouilli. J'espère réussir à être un peu plus clair et plus complet plus tard. Tizeff (d) 15 mars 2012 à 09:47 (CET)[répondre]

Définition[modifier le code]

En fait, la définition n'apparait pas clairement. La formule en elle-même n'est pas réellement une définition. Il y avait une tentative, dans l'article actuel, d'encadrer une définition, mais qui n'est pas satisfaisante non plus. Que diriez vous d'encadrer une définition du style de la suivante (qui est de Leonard Susskind, mais on peut citer aussi d'autres auteurs qui donnent des versions presque semblables) :

L'entropie est une mesure du nombre de configurations microscopiques qui se conforment à un critère spécifique reconnaissable

.

Il y a N définitions du même genre, bien entendu, mais qui tournent toutes autour de la même idée. Telle que formulée, c'est une que je vois le plus souvent.

Pour ma part je préfère une formule (bien encadrée!) convenablement expliquée car on peut en déduire les propriétés. Si l'on ne met que du texte comment fait-on à démontrer les résultats. Je pense par exemple à l'équilibre n'est obtenu que lorsque la température est uniforme; ceci montre que le second principe c'est l'expérience quotidienne ... G.Gonczi (d) 19 mars 2012 à 19:12 (CET)[répondre]
C'est peut être là une différence entre l'approche "cours" dont je parlais, et une approche "encyclopédique" où la compréhension est plus importante que la déduction des résultats, qui est en revanche importante en effet dans les cours. Mais les deux peuvent être complémentaires. Il y a sans doute de la place dans cet article pour les deux approches. --Jean-Christophe BENOIST (d) 20 mars 2012 à 01:42 (CET)[répondre]

Le lien avec l'équiprobabilité n'est pas immédiat, et si j'étais lecteur de Wikipédia, j'aimerais bien que ce lien soit expliqué.

il n'y a pas de lien direct entre la définition et l'équiprobabilié: c'est une définition et un axiome qui rend la définition d'application interessante. G.Gonczi (d) 19 mars 2012 à 19:12 (CET)[répondre]

Il y a un thème fréquent concernant l'entropie qui est de signaler que l'entropie n'est pas une valeur absolue, intrinsèque et mesurable d'un système, mais est relative à la connaissance du système. Ce relativisme apparait dans la définition sus-citée (par l'entremise d'un critère) mais n'apparait pas, ou pas clairement dans le paragraphe "définition".

Mais c'est faux ! L'entropie c'est le nombre de config. micro. (ou son log); ce n'est pas du tout relatif. G.Gonczi (d) 19 mars 2012 à 19:12 (CET)[répondre]
Si c'est relatif, car pour un système donné, rien ne dit quoi prendre en compte au juste dans le décompte des configurations. Il y a toujours des choix qui sont faits, même s'ils sont le plus souvent évidents et implicites. Par exemple, prenons l'hélium (gazeux). Si on veut calculer un nombre de configurations selon la méthode classique, on va s'intéresser à la position et la vitesse des atomes, en gros. Mais pourquoi ne pas tenir compte aussi des différents niveaux d'énergie des électrons de chaque atome, ou des noyaux ? Cela fait pourtant autant de configurations microscopiques en plus, et l'entropie s'en trouverait augmentée d'autant. C'est à ce genre de chose, j'imagine, que Jean-Christophe pense quand il évoque une notion "relative". Tizeff (d) 19 mars 2012 à 21:09 (CET)[répondre]
Ce n'est pas moi qui parle de relatif, ou d'arbitraire, mais à peu près toutes les sources dont je dispose. Une autre façon de présenter la même chose est le "coarse graining", c'est à dire le découpage de l'espace des phases en "compartiments" : un "compartiment" est l'ensemble des points de l'espace des phases qui sont équivalents macroscopiquement. L'entropie est le log du volume du compartiment dans lequel se situe l'état du système. Typiquement, le "compartiment" de l'espace des phases correspondant à un équilibre thermique est très vaste, et donc son entropie élevée. Mais évidement, cela dépend à quel niveau ou précision de mesure on s'arrête pour déterminer ce qui est distinguable macroscopiquement ou non, qui est arbitraire. Ce qui "sauve" la notion d'entropie est (je suis Penrose) que on prend le logarithme du volume, et qu'il faudrait des critères de "compartimentation" radicalement différents pour avoir des logs sensiblement différents. Donc tout le monde s'accorde à peu près sur la valeur de l'entropie, mais qui reste fondamentalement arbitraire et relative. --Jean-Christophe BENOIST (d) 20 mars 2012 à 01:04 (CET)[répondre]
En fait dans Ω il faut tout compter (position, énergie cinétique, potentielle, niveaux électroniques, nucléaires ...). Et c'est, dans les cas concrets, impossible à calculer sauf parfois si on fait des choix; et c'est ce qui semble lui donner ce caractère relatif. La question est: est-ce qu'on a besoin de sa vraie valeur dans un état d'équilibre donné ? La réponse est non. Car dans les problèmes concrets on n'a besoin que des variations de l'entropie lors de transformations définies par des grandeurs macroscopiques (P, V, T, moment magnétique ...) et on sait (généralement) exprimer ΔS en fonction de ces variations sans avoir à exprimer Ω. D'ailleurs Clausius qui a introduit S n'a pas dit S=Q/T mais ΔS= Q/T. -- G.Gonczi (d) 21 mars 2012 à 11:49 (CET)[répondre]
Pour définir l'entropie (par la formule de Boltzmann), il faut d'une part compter les configurations, mais ce n'est pas tellement cela qui est arbitraire comme vous venez de le rappeler, mais aussi il faut catégoriser, ou compartimenter, les configurations (par exemple, la catégorie ou le compartiment "équilibre thermique") qui sont considérées comme identiques macroscopiquement, et c'est cela qui est arbitraire. Mais votre remarque sur le delta est intéressante et judicieuse car en effet, raisonner en delta relativise également le caractère arbitraire de la compartimentation. J'ai trouvé une source (en:Fundamentals_of_Physics) qui présente le calcul de l'entropie en prenant l'exemple de 6 molécules, et en définissant 7 catégories de configurations, définies en considérant le nombre de molécules à droite et à gauche d'une boite close. Chaque catégorie a une entropie différente, et l'entropie se calcul à partir du nombre de configurations de la catégorie. La source ne s'étend pas sur le caractère arbitraire de la catégorisation, mais fait bien apparaitre d'une part le comptage et d'autre part la catégorisation, et je pense qu'il faudrait également le faire bien apparaitre dans l'article. Cordialement --Jean-Christophe BENOIST (d) 21 mars 2012 à 13:08 (CET)[répondre]
En fait je ne comprends pas du tout ce que sont ces catégories et je n'ai pas trouvé l'exemple des 6 molécules dans en:Fundamentals_of_Physics --G.Gonczi (d) 21 mars 2012 à 19:34 (CET)[répondre]
p. 551 de la 9e édition. En fait, c'est 0 molécules d'un côté, 6 de l'autre (0,6), (1,5), (2,4), (3,3) etc.. La catégorie qui a la plus forte entropie est évidemment (3,3), et la plus faible (0,6) et (6,0). Le comptage est fait indépendamment pour chaque catégorie, avec 1 pour (0,6)/(6,0) et 20 pour (3,3). Une des choses que j'ai apprise avec WP, est l'extrême diversité des cursus et cultures. Ce qui parait évident ou bien connu pour l'un ne l'est pas du tout pour un autre, tout dépend comment il a l'habitude d'aborder le sujet. C'est toujours étonnant de voir cela. Cela mène parfois à des conflits éditoriaux, mais - par définition - une approche encyclopédique doit aborder tous les points de vues pertinents, et bien souvent ils convergent et sont les facettes d'une même chose alors qu'à première vue ils étaient très différents. Cordialement --Jean-Christophe BENOIST (d) 21 mars 2012 à 20:59 (CET)[répondre]
Je n'ai pas ce bouquin sous les yeux mais il me semble que cet exemple avec les 6 molécules ressemble beaucoup à celui que j'ai donné avec les 52 cartes dans la partie "Entropie et désordre". Je me trompe ? -- G.Gonczi (d) 22 mars 2012 à 18:00 (CET)[répondre]
C'est la même idée ! Il est moins proche de la physique, mais j'aime bien l'exemple des cartes, car il montre que on a volontairement (et arbitrairement ?) négligé de l'information (la couleur des cartes, leur valeur, et même leur position) pour ne garder macroscopiquement qu'une information : retournée ou non, et ainsi faire des "catégories". Si on tenait compte macroscopiquement de toutes les informations, toutes les configurations seraient uniques, et on aurait autant de catégories que de configurations, chacune d'entropie nulle. On en vient à une autre définition secondaire assez courante de l'entropie : l'entropie est de l'information cachée (Susskind). Et, avec le même jeu de carte, on aurait pu (arbitrairement) définir des catégories tout à fait différentes (au lieu de face retournée ou non, compter le nombre de cartes de même couleur à droite et à gauche par exemple). --Jean-Christophe BENOIST (d) 22 mars 2012 à 23:27 (CET)[répondre]
J'ai aussi trouvé d'autres exemples de ce genre dans divers bouquins. Apparemment, Boltzmann lui-même avait présenté des raisonnements de ce genre aussi, il me semble que ce sera très pertinent dans l'article.
Juste une chose : il me semble que pour une rédaction claire de l'article, il conviendrait de distinguer ce qui relève d'une définition et de ce qui relève de l'interprétation. La démarche adoptée à ce titre dans Entropy and its Physical Meaning - J. S. Dugdale par exemple me semble pas mal. En gros il fait :
  1. exemples du genre du jeu de carte ou des particules dans des boîtes, pour montrer ce qu'on cherche à "capturer" avec la notion d'entropie. On est plus dans l'interprétation.
  2. définition, plus propre et plus précise, y compris avec une formulation mathématique.
  3. évoquation des problèmes (mathématiques, mais ça peut se décrire avec des phrases aussi) que pose cette définition, pour en faire vraiment le point de départ solide pour la suite des développements.
A voir éventuellement, mais j'aime assez cette démarche. Tizeff (d) 23 mars 2012 à 09:55 (CET)[répondre]
Ça y est !!! Je crois que j'ai compris cette histoire de catégories. L'état macro d'un système est défini (par exemple) par U et V. Chaque config micro est définie par l'énergie et la position de chaque molécule. Si j'étudie une transformation à U constant (système isolé comme dans la détente de Joule) je n'ai pas besoin d'exprimer la répartition de U sur les molécules (catégorie U) ce qui ne signifie pas qu'il n'y a pas un tel terme dans S. En fait si l'on savait exprimer S il y aurait toutes les catégories. Seulement on ne sait pas le faire et en plus je ne sais pas si ça aurait de l'intérêt. Est-ce que je me trompe ?
Quant aux interprétations comme information cachée, désordre il faut bien sûr les signaler car elles sont présentes dans la littérature mais essayer de faire sentir au lecteur que ce n'est pas ça qui explique pourquoi les gaz d'échappement sont chauds ! Pour moi l'entropie (en thermo) c'est le nombre de config micro (ou son log avec un kB devant car c'est plus pratique), un point c'est tout; et en plus c'est concret même si on ne sait pas le calculer! Les interprétations relèvent un peu du mystique.
Alors je vais reprendre le tout en regroupant les calculs dans une section particulière (du genre pour en savoir +) et dans le texte il y aurait à la place on démontre que ... (voir pour en savoir +). Allez, bon WE. --- G.Gonczi (d) 23 mars 2012 à 19:07 (CET)[répondre]


Je précise que je ne suis pas un spécialiste de ce concept; je le connais par le biais de l'astrophysique (et de la thermodynamique des trous noirs) et assez peu par l'étude classique et macroscopique, où mes souvenirs scolaires sont anciens. Je pose donc des questions d'un semi-néophyte qui aimerait avoir plus de détails et de lien entre les définitions telle que celle encadrée, et les définitions telles qu'elles sont actuellement dans l'article. Je profite en quelque-sorte de la présence d'un spécialiste pour tirer au clair ces points. Cordialement --Jean-Christophe BENOIST (d) 14 mars 2012 à 15:08 (CET)[répondre]

Personnellement, j'aime bien la physique qu'on fait avec des phrases :). Avec cette phrase-ci, j'ai un peu de mal avec l'expression "spécifique reconnaissable", mais j'imagine que ça nécessite des commentaires de toute façon. Je suis assez pour une approche de ce genre.
Sur le lien avec l'équiprobabilité, pour moi, c'est un truc qui doit venir dans un second temps. Mais il faudrait que j'écrive quelque chose pour que ce soit plus clair. Je vais tacher de proposer des modifs en ce sens. Tizeff (d) 15 mars 2012 à 09:45 (CET)[répondre]
Oui, moi aussi, j'ai une préférence pour les articles de physiques textuels, dans WP en tout cas. "critère spécifique reconnaissable" doit être commenté bien sûr. Parmi les N variantes de cette définition que l'on trouve, il y a une variante qui précise un "critère" : "L'entropie est une mesure du nombre de configurations microscopiques qui ne sont pas macroscopiquement distinctes" (Roger Penrose). --Jean-Christophe BENOIST (d) 15 mars 2012 à 10:31 (CET)[répondre]
En effet, j'ai une préférence pour celle-ci. Un premier paragraphe qui tournerait autour de cette définition m'irait tout à fait. Tizeff (d) 15 mars 2012 à 12:22 (CET)[répondre]
Je ne résiste pas à la tentation de relater une anecdote concernant les problématiques de la définition de l'entropie, citée par Leonard Susskind. Son professeur partait de pour définir l'entropie. Il disait que l'entropie, c'est l'accroissement de l'énergie thermique divisée par la température. Susskind, qui était le meilleur élève de la classe, n'y comprenait goutte et pour lui (et pour tout le monde) c'était aussi clair que s'il avait dit "l'accroissement du nombre de saucisses divisée par l'oignonisation est appelé blanctourin" Émoticône. Heureusement, dans cet article on part plutôt de la formule de Boltzmann qui se prête bien à une définition textuelle, qui reste à ajouter dans ce paragraphe. --Jean-Christophe BENOIST (d) 15 mars 2012 à 13:57 (CET)[répondre]
Ben alors ça discute ! J'ai aussi une histoire à raconter. Imaginez que l'Histoire de la Physique ne se soit pas déroulée dans le sens que nous connaissons mais que les machines à vapeur aient été inventées après que Boltzmann ait imaginé que dans la matière les particules évoluent en permanence d'une config à une autre (je résume ...). On nous aurait alors enseigné la thermo dans le sens micro=>macro et je pense qu'il y aurait eu beaucoup moins de discussions autour de l'entropie. Certaines idées ont du mal à passer, même en Physique. Je me souviens que mon premier bouquin de Chimie en Seconde (1957-58) comportait un chapitre intitulé "l'hypothèse atomique" et le prof nous a dit de remplacer par "la certitude atomique". Aujourd'hui dans le programme officiel des classes prépas il est précisé que "la nature microscopique de l'entropie est hors programme" comme si la notion de configuration microscopique était incompréhensible ... Bon j'arrête pour ce soir. Mais dès que possible je reprends vos commentaires et suggestions et j'intercale les miens dans vos textes G.Gonczi (d) 15 mars 2012 à 19:00 (CET)[répondre]

Bon je vais essayer d'arranger ce texte. Il faut me laisser quelques jours. Cordialement -- G.Gonczi (d) 22 mars 2012 à 18:08 (CET)[répondre]