Consideriamo un particolare allevamento di un certo tipo di pesci. Sappiamo, in base alle passate esperienze, che il peso di essi varia di anno in anno ma che ha, con buona approssimazione, una distribuzione normale con deviazione standard di 9 cm. Vogliamo stimare la lunghezza media m dei pesci con una sicurezza del 95% che la nostra valutazione x abbia una precisione di 3 cm. Quanto grande dobbiamo prendere il campione?

Posso trovare facilmente con tentativi ragionati, ad esempio col programmino seguente, che se U è gaussiana di media  0  e  σ  1, Pr(-1.96 < U < 1.96) = 0.95000 = 95.000%, ossia che (-1.96, 1.96) è un intervallo di confidenza al 95% nel caso di media  0  e  σ  1.

0.99999942666 if a=-5 b=5, m=0 sigma=1
0.95449973539 if a=-2 b=2, m=0 sigma=1
0.9488238804  if a=-1.95 b=1.95, m=0 sigma=1
0.95000420911 if a=-1.96 b=1.96, m=0 sigma=1

Nel nostro caso, se N è l'ampiezza del campione, abbiamo che la deviazione standard (in cm) del nostro campione è 9/√N.  Dunque un intervallo di confidenza al 95% per m è  (x − 1.96·9/√N, x + 1.96·9/√N).  Deve essere 1.96·9/√N ≤ 3; ciò accade se N ≥ 34.5744, ovvero se N ≥ 35.

Per altri commenti: Limiti in probabilità e Test χ2 neGli Oggetti Matematici.

Per puro esercizio teorico, senza tener conto che le misure sono approssimate, si può trovare invece di 1.96:

0.95 if a=-1.9599639896 b=1.9599639896, m=0 sigma=1

o, con R:

source("http://macosa.dima.unige.it/r.R")
F = function(x) dnorm(x, mean=0, sd=1)
f = function(x) integral(F,-x,x)
K = solution(f,0.95, 0,10); K
# 1.959964