ENTROPIE ET PROBABILITÉ 



PAR 



L. S. OBNSTEIN. 



Einstein *) a défini la probabilité d'un état d'une façon qui lui 

 permet de s'affranchir de toute hypothèse spéciale relative à la structure 

 des systèmes auxquels il applique ses considérations. Le logarithme de 

 la probabilité 7^.ainsi définie, il le suppose proportionnel à l'entropie, 

 de sorte que, si ds est la différence d'énergie entre deux états et dA le 

 travail effectué par le système en passant d'un état à l'autre, on a 



R ds + dA 

 dy = ~d log W = — — ; 



R est la constante des gaz parfaits et N le nombre de molécules par 

 molécule-gramme Mais le raisonnement par lequel il arrive à la propor- 

 R 



tionnalite entre jj et ^l°g ^ n'est peut-être pas tout à fait convaincant; 



d'un côté il part de cette idée qu'un système parcourt successivement 

 tous les états compatibles avec une énergie donnée, d'autre part il 

 suppose en même temps que log comme l'entropie thermodynamique, 

 tend toujours vers un maximum. 



La mécanique statistique permet (tant au moyen des ensembles cano- 

 niques que des ensembles microcanoniques) d'indiquer la relation entre 

 l'entropie et la probabilité, dans des conditions moins générales, il est 

 vrai, que celles considérées par Einstein. 



C'est ce que je me propose de montrer dans ce travail. 



1. Considérons un système possédant un très grand nombre (s) de 

 degrés de liberté. Nous supposons que les changements d'état dans ce 

 système peuvent être décrits par les équations d'HAMiLTON. L'obser- 

 vation ne nous fera pas connaître les s coordonnées générales (q) et les 



') Ann. ci. Phys., 33, 1276, 1910. 



