1056 
De là on conclut le théorème suivant. 
La moyenne arithmétique de plusieurs valeurs 
obtenues par d’autant mesures successives, faites 
sur une inconnue dans les mêmes conditions et di¬ 
gnes de la même confiance, est la meilleure valeur 
de cette inconnue, à condition toutefois que toute 
erreur constante soit écartée. 
§ 2. 
Occupons-nous maintenant d’établir la loi de la probabilité d’une 
erreur fortuite d’observation. 
Désignons tout d’abord par À (x) la probabilité a priori de l’in¬ 
connue x elle même, c’est-à-dire avant toute mesure prise sur elle, 
et soit ensuite f (x, x') la probabilité d’obtenir la valeur perceva¬ 
ble x' de cette inconnue. 
Après avoir obtenu n valeurs a? 1? æ 2 ,..., x n que nous avons dé¬ 
finies au § 1, posons 
tp = X(x)ü i f (x, Xi) (i= 1,2,..., n). 
Le rapport ip/2 x ip exprime, comme on sait, la probabilité a po¬ 
steriori de l’inconnue æ, c’est-à-dire cette probabilité dans le cas 
où ses valeurs percevables x t , x 2 ]..., x n sont déjà connues. 
Posons encore 
(5) ip = À (x) 
x étant donnée par l’équation (4). 
La somme 2 x ip étant indépendante de a?, le rapport ty/2 x ty ex¬ 
prime évidemment la probabilité pour que x = x. Mais comme la 
fonction x est la meilleure valeur de l’inconnue a?, elle doit être 
en même temps sa valeur la plus probable x ); par conséquent on 
doit avoir la condition 
(6) ip = max. ty. 
1 ) Bertrand questionne cette proposition de Gauss, et il propose de dire: 
„pour que la meilleure valeur de l’inconnue x soit tout simplement sa valeur pro¬ 
bable“. Mais dans le cas considéré, la valeur la plus probable de l’inconnue est 
égale à sa valeur probable, comme on peut s*en convaincre a posteriori, c’est- 
à-dire lorsque la loi cherchée est désormais connue. 
