488 SOCIÉTÉ SUISSE DE PHYSIQUE 



tique, et la physique moderne a vu s'introduire des éléments qui, 

 tout en étant très petits par rapport au système physique étudié, 

 sont cependant finis. Néanmoins, dans la généralité des cas, on 

 peut conserver les fonctions continues et traiter les domaines élé- 

 mentaires comme des infiniment petits. 



« L'entropie » n'est pas autre chose qu'une relation entre 

 les domaines élémentaires et le système physique tout entier. 



Pour faciliter l'exposé, considérons l'expérience de probabilité 

 très simple, décrite l'an dernier par l'auteur (*), et qui consiste à 

 laisser tomber de la grenaille de plomb dans un entonnoir, dont 

 l'axe est vertical, à travers des grilles placées horizontalement ; 

 suivant une heureuse modification due à M. le prof. Jacquerod, la 

 grenaille est reçue sur un gâteau horizontal formé de saindoux et 

 de cire d'abeille, où les grains viennent se coller, ce qui empêche 

 le rebondissement ; on photographie la répartition obtenue. En 

 répétant un très grand nombre de fois v l'expérience, on aura v 

 clichés, et en déterminant la répartition moyenne des grains, on 

 obtient une distribution de points sur un plan suivant la loi des 

 écarts à deux variables, semblable à la distribution des points 

 d'impact autour du but sur une cible. Pour repérer les points, 

 faisons passer par le centre de la cible un système d'axes rectan- 

 gulaires Oxy et divisons le plan en cases carrées s 2 par deux sys- 

 tèmes de parallèles aux axes. L'équidistance s entre ces droites 

 devra être telle que, pour le but que nous nous proposons, on 

 puisse considérer comme ayant des coordonnées identiques, tous 

 les grains qui se trouvent dans une môme case ; la position de 

 celle-ci sera définie, par exemple, par les coordonnées x, y de son 

 centre. 



La probabilité pour qu'un grain soit dans cette case est alors 



n(x, y) 



"0 



n (x, y) étant le nombre de grains qui sont dans la case envisagée, 

 et n le nombre total des grains de la répartition; p (x , y) ne 

 dépend pas de n . 



Chacune des v distributions a une certaine probabilité P de se 

 produire; P dépend des p (, x , y) et de n . Comme n est très 

 grand, toutes ces distributions différeront peu les unes des autres 

 et seront très voisines de la répartition moyenne. 



L'expression générale de l'entropie statistique est alors (*) : 



- H = - 2 P logp , 



') Archives, 1915, t. XL. p. 332. 



-) Archives. 19U. t. XXXVIII, p. 373, et 1915, t. XXXIX. p. 205 et 302. 



