4. Uso della gaussiana per approssimare calcoli inerenti distribuzioni binomiali. La legge BINOMIALE non simmetrica. Rappresentazione e calcolo con POLIGON.
Il teorema limite centrale giustifica anche l'uso della distribuzione gaussiana per risolvere problemi inerenti distribuzioni binomiali, a cui siamo già ricorsi nella scheda 4, §2.. Vediamo un nuovo esempio.
La probabilità che un prodotto di un certo tipo sia difettoso è 1%. Qual è la probabilità che tra 10000 pezzi scelti a caso non ve ne siano più di 70 difettosi?
Ragioniamo in modo simile a quanto fatto risolvendo il quesito 10 della scheda 3.
Sia N la variabile casuale a valori in {0, 1, …, 10000} che rappresenta il numero di pezzi difettosi.
È sensato ritenere indipendenti le estrazioni dei pezzi. Quindi la probabilità che esattamente i primi k pezzi estratti siano difettosi è:
1%·1%·…·1%·99%·99%·…·99% = 1%k·99%10000-k.
Poiché non ci interessa la disposizione dei pezzi difettosi, abbiamo:
Pr(N=k) = C(10000,k)·1%k·99%10000–k.
Generalizzando dal caso di 10000 pezzi a quello di n pezzi, dal caso della difettosità all'1% a quello della difettosità con probabilità p, abbiamo:
Pr(N = k) = C(n,k) · pk · (1 – p)n-k.
Anche questa legge di distribuzione, che generalizza quella considerata nella scheda 3, viene chiamata legge di distribuzione binomiale. Si applica a tutte le situazioni in cui si ripete n volte la prova su una variabile casuale che può assumere solo due valori, in cui p è la probabilità di uno di questi due valori e N è il numero delle volte in cui questo valore esce.
Nel nostro caso dobbiamo calcolare Σk C(10000,k)·1%k·99%10000-k (k=0,…,70).
Ma il calcolo di C(10000,70) eccede le capacità di un usuale mezzo di calcolo (si verificherebbe un overflow).
Possiamo tuttavia osservare che N è interpretabile come ΣXi (i=1,…,n) con Xi a valori in {0,1} e distribuzione: Pr(Xi=1) = p, Pr(Xi=0) = 1–p. Da qui abbiamo che:
M(N) = M(ΣXi) = ΣM(Xi) = p+…p = np e che:
Var(N) = Var(ΣXi) = ΣVar(Xi) = np(1–p),
poiché Var(Xi) = M((Xi-M(Xi))2) = Pr(Xi=1)(1–p)2 + Pr(Xi=0)(0–p)2 = p(1–p).
Nel nostro caso, poiché n=10000, ricorrendo al teorema limite centrale, possiamo approssimare N con la gaussiana U di media np = 10000·1% = 100 e σ = (np(1-p)) = 99.
Utilizzando la tabella della funzione di ripartizione gaussiana standard ( scheda 4, §3) o il programmino apribile dalla stessa scheda, oppure POLIGON (o una calcolatrice con funzioni statistico-probabilistiche o Derive o Maple o ) possiamo trovare la probabilità cercata.
Con Poligon calcolo l'integrale tra -0.5 (o un valore inferiore) e 70.5 della funzione F
descritta a lato (ottenuta con f(x)=gauss); ho: 0.1514%. Ho integrato tra questi estremi in quanto N=0 e N=70 corrispondono a |
F(x)= 1/(SQR(2*PI)*#S)*EXP(-(x-#M)^2/(2*#S^2)) #m=100 #s=SQR(99) |
Usando la funzione di ripartizione gaussiana standard, sia essa H, dopo opportuni "cambi di scala" ((100–70.5)/99 = 2.965: vedi figura a lato), mi riconduco a trovare |
Il grafico della legge binomiale Bn,p di ordine n e "probabilità di successo nella singola prova" p quando, come nel caso appena considerato, n è molto grande, è pressoché simmetrico in quanto approssimabile con una gaussiana. |
Nota. I grafici sopra raffigurati sono stati tracciati con
Poligon, come grafici (sugli interi: vedi scheda 4, §1.) della funzione B a fianco, che viene automaticamente caricata battendo
|
B(x)=!(#N)/(!(#N-x)*!(x))*#P^x*(1-#P)^(#N-x) #p=0.2 |
Come si vede dai grafici, per n "piccolo" la gaussiana non fornisce una buona approssimazione.
8 |
Con POLIGON avremmo potuto procedere battendo "1-(B(0)+B(1)+B(2)+B(3))=", con B definita come indicato nella nota precedente (e #n=10), o "[4,10] B Sum". Si ottiene: 0.120873... = 12.1%.
<<< Paragrafo precedente | Paragrafo successivo >>> |