Ensemble microcanonique

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En physique statistique, l'ensemble microcanonique est un ensemble statistique[1], [2] constitué des répliques fictives d'un système réel pouvant être considéré comme isolé[N 1], par suite dont l'énergie (E), le volume (V) et le nombre de particules (N) sont fixés. Cet ensemble statistique a une importance particulière, car c'est à partir de celui-ci que le postulat de la physique statistique est défini. Cet ensemble permet aussi de déterminer les ensembles canonique et grand-canonique, à l'aide d'échanges d'énergie ou de particules avec un réservoir.

Le terme d'ensemble microcanonique a été introduit par Gibbs dans son traité fondateur de la mécanique statistique[3]. Toutefois Boltzmann avait déjà considéré une telle situation, qu'il avait nommé ergode dans un article de 1884[4], [5].

Définitions et propriétés générales[modifier | modifier le code]

Paramètres extérieurs et variables internes[modifier | modifier le code]

En physique statistique, la description macroscopique d'un système va faire appel à un certain nombre de grandeurs macroscopiques, telles que l'énergie, la température, le volume, la pression, le nombre de particules, etc. Pour un système donné, certaines de ces grandeurs peuvent être fixées, à une incertitude près[N 2]: dans ce cas il s'agit de paramètres extérieurs (ou contraintes) imposés au système. A contrario, certaines grandeurs thermodynamique seront libres fluctuer justement selon les contraintes imposées au système: une telle grandeur est appelée variable interne.

Par exemple, dans le cas un gaz contenu dans un récipient pouvant être considérée comme indéformable, le volume total V est un paramètre extérieur. La pression de ce gaz pourra varier au sein de ce récipient, par exemple en fonction de sa température, et sera donc une variable interne. Il est aussi possible de considérer le cas d'un gaz dans un récipient déformable, par exemple muni d'un piston étanche: dans ce cas la pression pourra être un paramètre extérieur, alors que le volume, libre de fluctuer selon les contraintes imposées, deviendra une variable interne.

La situation microcanonique[modifier | modifier le code]

Dans le cas microcanonique, le système considéré supposé constitué d'objets microscopiques identiques[N 3], pouvant être des atomes, des molécules, etc., et est considéré comme isolé, c'est-à-dire qu'il ne peut pas échanger de masse ou d'énergie avec l'extérieur[N 1]. Il en résulte que les valeurs de son énergie totale E, de son volume V ainsi que du nombre de particules N qu'il contient sont fixées[N 4].

L'ensemble statistique constitué des répliques fictives d'un système réel dont l'énergie E, le volume V et le nombre particules N sont fixées est appelé ensemble microcanonique. Bien entendu, il s'agit d'une situation idéalisée, qui n'est pas exactement réalisable en pratique. Toutefois, cet ensemble est important sur le plan théorique car il permet d'énoncer le postulat fondamental de la physique statistique, et également de servir de base pour établir la distribution statistique des états internes à l'équilibre dans les cas canonique et grand-canonique, qui correspondent à des situations plus "réalistes" en pratique.

Remarque: la situation envisagée est ici celle d'un volume fixé d'un corps pur, sans échange d'énergie avec l'extérieur, donc thermiquement isolé. Il est bien sûr possible d'étendre le raisonnement à d'autres situations, par exemple pour un système ayant des propriétés électriques ou magnétiques sa polarisation ou son aimantation pourront être fixées en même temps que son énergie, son volume et nombre de particules totaux.

États accessibles du système - Postulat fondamental[modifier | modifier le code]

Au niveau microscopique, la donnée des paramètres microscopiques de chacune des particules constituant le système correspond à un "micro-état" (ou état interne) de celui-ci. Par exemple, pour un gaz parfait, un micro-état sera spécifié par la données de l'ensemble des positions, vitesses, énergies, masses ... de chaque particule.

Pour des valeurs fixes de E, V et N, le système considéré va en revanche évoluer à l’équilibre vers un "macro-état" donné, où outre les paramètres extérieurs fixés les variables internes telles que sa température, sa pression, etc. auront des valeurs fixées, aux fluctuations microscopiques près. À un tel macro-état du système correspond un (très grand) nombre de micro-états, les différentes particules passant continuellement d'un micro-état à l'autre, y compris à l'équilibre[N 5].

L'existence de contraintes extérieures limite en principe le nombre de micro-états dans lesquels le système peut se trouver à l'équilibre thermodynamique. L'ensemble de ces micro-états, compatibles avec les contraintes extérieures du système, constitue les états accessibles de celui-ci, dont le nombre est noté Ω (notation introduite par Boltzmann. Il est important de souligner que pour un système macroscopique Ω est toujours fantastiquement grand, de l'ordre de grandeur minimum de la constante d'Avogadro, voire souvent beaucoup plus. En effet, pour une valeur de l'énergie totale du système il existe de très nombreuses possibilités de répartition de l'énergie au sein de ses différents micro-états, dès lors que le nombre de particules est suffisamment grand[N 6]

Par ailleurs, la question des incertitudes sur les valeurs des paramètres extérieurs que sont l'énergie, le volume et le nombre de particules, n'est pas seulement d'ordre pratique, mais est en réalité très importante pour la cohérence interne de la théorie. En effet, au niveau microscopique, et donc pour un micro-état donné, il convient d'avoir recours à la mécanique quantique, et donc de tenir compte de la quantification des états d'énergie des différentes particules. Or si la valeur de l'énergie totale était exactement fixée à une valeur E, il est très improbable que lors du passage d'un micro-état à un autre la somme des énergies microscopiques des différentes particules du système redonne exactement cette valeur E, ce qui conduirait à des variations arbitraires du nombre d'états accessibles avec la valeur de E.

En revanche s'il est tenu compte de l'incertitude δE sur la valeur de l'énergie totale E (et δV sur le volume total, δN sur le nombre de particules), avec δE faible devant E mais très grand devant l'espacement moyen entre les niveaux d'énergie microscopiques, cette difficulté disparaît.

Ceci étant précisé, il est clair qu'à un macro-état donné du système, il va correspondre une distribution statistique de ses Ω états accessibles. Dans le cas d'un système isolé, le postulat de la physique statistique précise pour un système isolé (E, V, N fixés) :

Étant donné un système isolé en équilibre, il se trouve avec des probabilités égales dans chacun de ses micro-états accessibles.

c'est-à-dire les états du système sont également probables.

Si désigne la probabilité associée à chaque micro-état i, ce postulat implique alors que pour tout micro-état accessible du système à l'équilibre:

Il peut sembler étrange que tous les états accessibles aient la même probabilité pour un système isolé. Ainsi, pour un gaz contenu dans une enceinte rigide, thermiquement isolée, et étanche, il paraît impossible que toutes les molécules du gaz puissent se trouver dans une seule moitié du récipient, quand bien même l'énergie totale resterait égale à E. De fait, le principe fondamental de la physique statistique prévoit que cette configuration est aussi probable que chacune de celles où les molécules sont réparties sur tout le volume de l'enceinte. Toutefois, le nombre total de ces dernières est bien supérieur à la configuration précédente, aussi la probabilité que cette configuration soit effectivement réalisée est excessivement faible.

Entropie microcanonique[modifier | modifier le code]

Expression[modifier | modifier le code]

Article détaillé : entropie (thermodynamique).

Dans l'ensemble microcanonique, l'entropie statistique a été définie par Boltzmann par la relation :


s'appelle la constante de Boltzmann.

Cette relation peut être obtenue à partir de l'expression générale de l'entropie statistique d'un système quelconque pour laquelle la distribution des états accessibles à l'équilibre est donnée par :

,

la sommation portant sur la totalité des états accessibles du système à l'équilibre. Or il est clair que dans le cas microcanonique où pour tout micro-état i , il est évident que par substitution on obtient après réarrangement évident l'expression précédente de l'entropie dite microcanonique.

Maximisation de l'entropie à l'équilibre[modifier | modifier le code]

Le postulat fondamental précédent pourrait bien sûr être discuté dans son principe. De fait, il revient à considérer que pour un système isolé à l'équilibre, aucun micro-état accessible n'est privilégié par rapport à un autre. Il s'agit d'une hypothèse à tout le moins raisonnable dans le cas d'un tel système: elle correspond de fait à l'information minimale que l'on peut avoir sur la distribution des états accessibles de celui-ci. En effet, il n'existe aucun moyen de savoir compte tenu des contraintes extérieure imposées au système, qu'un micro-état puisse être être plus probable qu'un autre.

De fait, il est possible de façon équivalente au postulat précédent de considérer que pour un système isolé, celui-ci évolue spontanément vers un état d'équilibre tel que l'entropie est maximale, compte tenu des contraintes extérieures. Ceci permet en fait de retrouver la formulation classique du second principe de la thermodynamique pour un système isolé.

Il est alors possible de démontrer, en maximisant la valeur de l'entropie statistique sous la contrainte de normalisation de la distribution de probabilité, par exemple par la méthode des multiplicateurs de Lagrange, que la seule distribution de probabilité rendant l'entropie maximale est celle donnée précédemment.

Grandeurs thermodynamiques microcanoniques[modifier | modifier le code]

Dans la situation microcanonique il est possible de définir diverses grandeurs thermodynamiques comme la température, la pression et le potentiel chimique du système considéré, qui traduisent en fait les conditions d'équilibre respectivement thermique, mécanique et chimique du système.

Il convient de préciser que cette notion d'équilibre peut se définir de deux façons. Un système peut être considéré comme ayant atteint l'équilibre si:

  • la distribution de probabilité de ses micro-états accessibles est indépendante du temps;
  • ou, de façon équivalente, si tous ses sous-systèmes sont en équilibre mutuel[6], i.e. il n'y a pas d'échange net d'énergie (équilibre thermique), de volume (équilibre mécanique) ou de particules (équilibre chimique) entre elles.

Par "sous-système" il est entendu une partie du système considérée, de dimensions et / ou de nombre de particules petites devant celles du système, mais qui peut encore être considérée comme macroscopique[7], . Ainsi par exemple, si le système est constitué d'un litre d'air dans les conditions ordinaires, des sous-systèmes d'un volume de 10 μm3, soit 1 pL, bien que semblant de très petites dimensions à l'échelle de l'observateur, satisferont encore largement à ces conditions[N 7].

C'est cette seconde définition de l'équilibre d'un système qui est intéressante afin de définir les différentes grandeurs thermodynamiques de celui-ci.

Hypothèse de faible couplage[modifier | modifier le code]

Soit un système constitués de la réunion de deux sous-systèmes isolés (1) et (2), dont les énergies sont données par et . Comme les deux sous-systèmes sont supposés isolés l'un de l'autre, l'énergie du système global est simplement la somme des énergies des deux sous-systèmes: (il en est de même pour le volume ou le nombre de particules globaux).

De même le nombre d'état accessibles du système global d'énergie E, de volume V et de nombre de particules N est donné par , ce qui traduit l'indépendance statistique entre les micro-états des deux sous-systèmes, évidente du fait de l'absence d'interaction ente eux.

Cette formule implique bien sûr que l'entropie du système global est égale à la somme des entropies des deux sous-systèmes: :.

Si maintenant les deux sous-systèmes sont mis en contact thermique l'un avec l'autre, c'est-à-dire qu'ils peuvent échanger de l'énergie par exemple via une paroi fixe, non poreuse, mais diatherme, il n'y a aucune raison que les relations précédentes restent valables. En effet, il faudrait normalement tenir compte des interactions entre les particules constituants les deux sous-systèmes, le hamiltonien global contenant désormais un terme d'interaction: .

Ainsi il ne sera normalement plus possible de définir séparément l'énergie de chacun des deux sous-systèmes, du fait de ces interactions: les énergies et sont désormais des variables internes, libres de fluctuer, seule leur somme étant fixée à tout moment puisque le système global demeure isolé. De ce fait d'ailleurs, seule peut être considérée comme une variable interne puisque n'est pas indépendante de celle-ci.

Par suite, le nombre d'états accessibles du système n'a aucune raison d'être donné par le produit des états accessibles des deux sous-systèmes, qui ne sont pas statistiquement indépendants, et donc l'entropie n'est pas a priori additive.

Toutefois, pour la plupart des système macroscopiques, il est possible de faire l'hypothèse du couplage faible, autrement dit . Il est possible de montrer[8] que cette hypothèse est très bien vérifiée lorsque:

  • les interactions entre les particules du système sont à courte portée;
  • le système est de taille macroscopique dans toutes ses dimensions, ce qui permet de négliger les effets de surfaces par rapport à ceux de volumes;
  • enfin que les fluctuations soient trop petites en valeurs relatives pour être décelables.

Dans ces conditions, très largement vérifiées en pratique, l'énergie d'interaction entre les sous-systèmes est négligeable devant leurs énergies propres, et l'état statistique d'un sous-système n'est influencé que de façon également négligeable par l'autre[N 8]: dans ce cas, il est possible de considérer avec une très grande approximation que les deux sous-systèmes demeurent statistiquement indépendants[9], et donc que leurs entropies demeurent additives.

Équilibre thermique: température microcanonique[modifier | modifier le code]

Pour simplifier le raisonnement, et considérer uniquement l'équilibre thermique, le système global est divisé en deux sous-système pouvant uniquement échanger de l'énergie par transfert thermique mais ni volume ni particules[N 9].

Définition[modifier | modifier le code]

Dans ce cas et du fait de l'additivité de l'entropie la condition d'équilibre thermique s'exprime sous la forme avec et , or vu le caractère isolé du système global , d'où , par suite la condition d'équilibre thermique au sein du système s'écrit:

,

cette relation étant valable pour tous sous-systèmes, il est intéressant de définir une nouvelle grandeur, appelée température microcanonique:

,

et la condition d'équilibre thermique au sein du système correspond à l'égalité des températures microcanoniques de deux sous-systèmes quelconques: .

Propriétés de la température microcanonique[modifier | modifier le code]

L'entropie étant maximale à l'équilibre, il est clair que ce qui implique que [N 10], i.e. la température microcanonique est une fonction strictement croissante de l'énergie du système, ce qui correspond bien à la notion intuitive de température.

Maintenant, en revenant aux deux sous-systèmes, initialement à des températures microcanoniques différentes, il est possible de déterminer aisément le sens de l'échange de chaleur. En effet est une fonction croissante de , et est donc une fonction strictement décroissante de . Il est alors évident, afin que la condition d'équilibre d'égalité des température soit vérifiée, que le sous-système initialement à la température microcanonique la plus haute[N 11], transfère de l'énergie à celui dont la température est la plus basse, la température microcanonique finale étant intermédiaire entre les deux températures initiales.

Par suite, les propriétés de la température microcanonique permettent de retrouver l'énoncé classique du second principe de la thermodynamique, sui indique que le transfert thermique se fait toujours spontanément[N 12]du corps "chaud" (plus haute température) vers le corps "froid" (plus basse température).

Équilibre mécanique: pression microcanonique[modifier | modifier le code]

En considérant à présent que les deux sous-systèmes peuvent échanger de l'énergie et du volume (par exemple, ils sont en contact via une paroi mobile et diatherme), et procédant de même que précédemment il vient pour la condition d'équilibre thermique et mécanique:

,

ce qui implique:

.

Bien entendu cette égalité ne sera vérifiée en général que si les deux termes devant et sont simultanément nuls, soit:

, qui correspond à l'égalité des températures microcanonique des deux sous-systèmes, ,

et

,

il est alors possible de définir la pression microcanonique par la relation:

,

et la condition d'équilibre mécanique se réduit alors à celle de l'égalité des pressions microcanoniques des deux sous-systèmes: .

Équilibre chimique: potentiel chimique microcanonique[modifier | modifier le code]

Un raisonnement rigoureusement analogue au précédent, cette fois-ci pour deux sous-systèmes pouvant échanger énergie et particules, conduit à définir le potentiel chimique microcanonique par la relation:

,

la condition d'équilibre chimique entre les deux sous-systèmes correspondant alors à l'égalité de leurs potentiels chimiques microcanoniques: .

Distribution statistique d'une variable interne et fluctuations[modifier | modifier le code]

Dans la situation microcanonique, les grandeurs physiques comme la température, la pression, etc. sont des variables internes, qui sont normalement libres de fluctuer dans un certain intervalle déterminé par les contraintes extérieures imposées au système (énergie, volume et nombre de particules). Il est intéressant de déterminer la forme générale de la distribution statistique d'une variable interne quelconque, notée X, lorsque est atteint l'équilibre macroscopique.

Formule générale de distribution statistique d'une variable interne[modifier | modifier le code]

Une variable interne X aura une valeur donnée égale à x pour un certain nombre d'états accessibles noté . Plus précisément correspondra au nombre d'états accessibles pour lesquels la valeur de la variable interne sera . Par suite la (densité de) probabilité pour cette variable interne ait une valeur comprise dans cet intervalle est donc:

[N 13].

Cette grandeur donne la distribution de probabilité de la variable interne X. Il est possible d'en donner une expression générale en considérant son logarithme:

,

soit encore, en définissant l'entropie microcanonique partielle par [10]

.

Au final, l'entropie globale étant une constante[N 14], il vient pour l'expression de la densité de probabilité de distribution de la variable interne X:

.

Comme l'entropie partielle est nécessairement positive, et que l'exponentielle est une fonction strictement croissante, il en résulte que la valeur la plus probable de la variable interne X, notée est celle qui maximise [N 15], et est donc telle que:

,

avec:

.

En effectuant alors un développement limité à l'ordre 2 de au voisinage de cette valeur la plus probable , il vient:

.

Par suite, la densité de probabilité de distribution de la variable interne X s'écrit:

,

avec:

[N 16].

Il est possible de montrer que pour un système macroscopique, cette expression de la distribution statistique de la variable interne X est valable avec une très grande approximation[11]: cette distribution est une gaussienne très étroitement centrée autour de et la valeur moyenne de X coïncide avec sa valeur la plus probable: .

Interprétation physique[modifier | modifier le code]

La formule précédente montre que dans la description microcanonique, pour un système macroscopique à l'équilibre, la distribution statistique d'une variable interne telle que la température, la pression... est une gaussienne très étroitement centrée sur sa valeur la plus probable, qui coïncide donc avec sa valeur moyenne. Les fluctuations relatives autour de cette valeur sont de l'ordre de , et donc est totalement inappréciable pour un système macroscopique.

Par exemple, 1 mm3 (soit 1 μL) d'un gaz dans les conditions ordinaires de températures et de pression contient encore environ N=1016 atomes ou molécules, et donc les fluctuations relatives d'une variable interne seront donc de l'ordre de 10-8, ce qui n'est pas mesurable.

Par suite, et en pratique, les variable internes d'un système décrit selon le formalisme microcanonique, telles que la température, la pression, ...auront à l'équilibre une valeur fixée, déterminées par les contraintes extérieures, les fluctuations autour de cette valeur étant totalement négligeables.

Ensemble micro-canonique en physique quantique[modifier | modifier le code]

Du point de vue de la mécanique quantique, la connaissance la plus complète que l'on puisse obtenir d'un système est la connaissance de sa fonction d'onde qui est fonction des coordonnées de chacune des molécules du système. Cette fonction d'onde est solution de l'équation de Schrödinger que l'on peut écrire de manière condensée sous la forme


La connaissance de la composition N du système permet d'exprimer l'opérateur hamiltonien , la connaissance de V précise les conditions aux limites auxquelles doit satisfaire . Dans ce cas, la connaissance de l'énergie du système (E), valeur propre de l'équation, permet d'écrire la liste complète de toutes les fonctions propres .

Le nombre total de solutions de l'équation de Schrödinger est noté . Ce nombre représente mathématiquement la dimension vectorielle des solutions de l'équation de Schrödinger, et il dépend des variables qui déterminent l'état macroscopique du système. Chaque état microscopique possède, pour un état macroscopique défini, la même énergie E, le même nombre de particules N, et le même volume V.

Mesure d'une grandeur[modifier | modifier le code]

Sur la base de ce qui est dit plus haut, le sens de la mesure d'une grandeur quelconque du système est le suivant : pendant le temps t que dure la mesure, le système évolue en passant d'un état microscopique (une réplique) à un autre. Toute mesure effectuée est nécessairement une moyenne sur le temps des différents états traversés.

Dans le cas d'un système réel, la fonction d'onde dépend du temps. À tout instant i, on peut, en quelque sorte, « photographier » le système dans un état microscopique particulier, c'est-à-dire en avoir une réplique particulière (représentée par la fonction d'onde , solution de l'équation de Schrödinger). Or, nous possédons théoriquement la liste des fonctions d'onde permises et nous connaissons donc tous les états microscopiques par lesquels le système est susceptible de passer.

En résumé, la fonction d'onde totale solution du système réel est équivalente à un ensemble de fonctions d'onde, réplique du système dans chacun des états particuliers qu'il est susceptible d'occuper


Supposons maintenant la mesure de la grandeur . Sur base du postulat, et en considérant un ensemble de répliques d'un système où chaque réplique figure en un même nombre d'exemplaires (par exemple, une fois chacune), la valeur de la grandeur dans chaque réplique sera notée :


La moyenne de cette grandeur calculée avec l'ensemble des répliques est alors la somme (sur tous les états microscopiques du système considéré) de la probabilité d'être dans l'état i multiplié par la valeur de cet état :

D'après l'hypothèse ergodique, cette moyenne doit coïncider avec la valeur moyenne mesurée sur le système réel et est définie par

Article détaillé : hypothèse ergodique.

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. a et b Il est important de souligner que cette notion de système "isolé" est en physique statistique différente de celle considérée en mécanique, où l'on considère qu'un système est isolé s'il n'a aucune interaction avec l'extérieur. Dans ce cas outre l'énergie la quantité de mouvement et le moment cinétique du système sont aussi des constantes du mouvement. En mécanique statistique on ne considérera généralement pas cette situation de système "totalement isolé", la quantité de mouvement et le moment cinétique du système n'étant pas fixés. En effet même un système "isolé" au sens de la physique statistique est en général fixé sur un support (la table du laboratoire...) et donc ne peut être considéré comme sans interaction avec l'extérieur comme en mécanique: les échanges de quantité de mouvement et de moment cinétique seront donc possibles. Toutefois ils ne sont que de faible influence. Cf. à ce sujet: Bernard Diu, Claudine Guthmann, Danielle Lederer et Bernard Roulet, Éléments de physique statistique, [détail de l’édition], chapitre II et complément II.B.
  2. Cette incertitude est inévitable pour un système macroscopique, car il est impossible en pratique de maîtriser totalement les conditions extérieures pour fixer rigoureusement la valeur de son énergie, ou de son nombre de particules. Par ailleurs, il est impossible d'isoler strictement un système.
  3. Toutefois, il est possible de considérer des mélanges de différents objets, chaque type ayant un nombre fixé, ce qui suppose l'absence de réactions chimiques au sein du système.
  4. En effet, l'absence d'échange d'énergie avec l'extérieur suppose que le volume est constant, car sinon il pourrait y avoir un échange d'énergie par travail mécanique. Il est important de souligner que la réciproque n'est pas vraie, un système peut avoir un volume constant (pas d'échange avec l'extérieur par travail mécanique) mais son énergie peut varier par transfert thermique, si les parois ne peuvent pas être considérées comme adiabatiques, voire par rayonnement.
  5. Ce changement continuel de l'état microscopique du système au cours du temps est à l'origine des fluctuations au voisinage de l'équilibre thermodynamique du système. Ces fluctuations peuvent généralement être considérées comme négligeables pour un système macroscopique, particulièrement si l'on se place à la limite thermodynamique. Toutefois, le rôle des fluctuations peut être fondamental dans certaines situations, par exemples dans le cas des transitions de phase du second ordre ou phénomènes critiques, et être observable macroscopiquement. Un exemple typique d'un tel phénomène est donné par l'opalescence critique d'un fluide.
  6. Il convient de rappeler pour fixer les idées, qu'un volume d'air de un microlitre, soit 1 mm3 pourtant très petit à l'échelle ordinaire, contient environ 3.1016 molécules, nombre qui reste très grand.
  7. En effet, un litre d'air dans les conditions ordinaires contient environ 3.1022 molécules. Un sous-système de 10 μm3 de ce système contiendra donc environ N = 3.1010 molécules, ce qui reste très important. En réalité, il s'agit là d'un nombre moyen de molécules, car il y bien sur des fluctuations de ce nombre au cours du temps. Or les fluctuations relatives sont de l'ordre de 1/√N, soit ici de l'ordre de 5.10-6, ce qui reste totalement inappréciable et surtout, non mesurable. Un tel sous-système satisfera donc les conditions requises.
  8. Toutefois il ne faut pas considérer que ces interactions sont nulles, car leur existence est évidemment nécessaire pour qu'au bout d'un temps plus ou moins long, l'équilibre se fasse entre les deux sous-systèmes.
  9. Il s'agit par exemple de la situation où un volume de gaz, contenu dans un récipient de parois fixes et isolantes, est divisé en deux par une paroi fixe mais diatherme
  10. En effet du fait de la définition de la température microcanonique ce qui implique bien .
  11. Attention ce n'est pas nécessairement celui dont l'énergie est la plus haute.
  12. Cette précision est importante car par un apport extérieur d'énergie il est possible d'inverser le sens de ce transfert, par exemple dans une machine frigorifique.
  13. Il est évident qu'en intégrant sur toutes les valeurs possibles de X, il vient , donc cette distribution est bien normalisée.
  14. Il est important de rappeler que la valeur de l'entropie microcanonique à l'équilibre dépend uniquement des paramètres extérieurs.
  15. Il est important de souligner qu'a priori cette valeur est différente de la valeur moyenne de la variable interne X, qui est bien sûr donnée par , l'intégration portant sur toutes les valeurs possibles de X.
  16. Qui est nécessairement positif puisque la valeur de la dérivée seconde partielle de l'entropie partielle pour est négative.

Références[modifier | modifier le code]

  1. Gibbs 1902, p. 5
  2. Diu et al. 1996, p. 30-33
  3. Gibbs 1902, p. 115-178
  4. Botzmann 1884
  5. Gallavoti 2006
  6. Diu et al. 1996, Chapitre II, §III
  7. Landau 1984, §1
  8. Diu et al. 1996, p. 173-179
  9. Landau 1984, §2
  10. Diu et al. 1996, p. 154
  11. Diu et al. 1996, notes 16,17, p. 155-157

Bibliographie[modifier | modifier le code]

  • Bernard Diu, Claudine Guthman, Danielle Lederer et Bernart Roulet, Éléments de physique statistique, Paris, Hermann, coll. « Enseignement des sciences » (no 37), , 1008 p., broché (ISBN 2-7056-6065-8)
  • Lev Landau et Evgueni Lifchits (trad. du russe par Serguei Medvédev), Physique théorique, tome V : Physique statistique - Première partie, Moscou, Mir, , 3e éd. (1re éd. 1937), 592 p., relié (ISBN 5-03-000199-9)
  • (en) Gregory H. Wannier, Statistical Physics, New York, Dover Publications Inc., (1re éd. 1966), 532 p., broché (ISBN 048665401X)
  • (en) Josiah Willard Gibbs, Elementary Principles in Statistical Mechanic, New York, Charles Scribner's Sons,
  • (de) Ludwig Boltzmann, « Uber die Eigenshaften monozyklischer und anderer damit verwandter Systeme », Journal für reine und angewandte Mathematik (Crelles Journal), vol. 98,‎ , p. 68-94.
  • (en) Giovanni Gallavotti, « Boltzmann: ensembles and coarse graining in and out of equilibrium. », In Boltzmann Symposium, Vienna, unpublished, vol. 9,‎ , p. 2 (lire en ligne [PDF]).

Voir aussi[modifier | modifier le code]