Il teorema limite centrale
I limiti in probabilità
0. Introduzione
1. La distribuzione binomiale
2. La distribuzione gaussiana e il teorema limite centrale
3. Dalla media statistica alla media teorica
4. La distribuzione esponenziale
5. Approfondimenti
6. Esercizi
Sintesi
0. Introduzione
In questa scheda approfondiremo lo studio di alcune variabili casuali discrete e continue (concetti introdotti nella scheda per la classe 2ª Calcolo delle probabilità) che abbiamo avviato nella scheda Quale matematica per i fenomeni casuali? Vedremo come, in molti casi, vi siano variabili casuali che possono essere interpretate come la somma di altri tipi di variabili casuali e che, quando queste sono molte, tendono a distribuirsi secondo un istogramma dalla forma a campana, che può essere approssimato dal grafico di una opportuna funzione.
1. La distribuzione binomiale
Consideriamo il problema:
un forno automatico
produce mediamente 1 biscotto bruciacchiato ogni 8, e i biscotti sono successivamente mescolati e impacchettati
automaticamente
in confezioni da 6,
• qual è la probabilità
che in una confezione non vi siano biscotti bruciacchiati,
o che ve ne sia 1,
, o che siano tutti bruciacchiati?,
• cioè qual è la legge di distribuzione della
variabile casuale
È un problema inventato, ma che dà bene l'idea di molti problemi pratici che in una attività produttiva occorre affrontare; in questa sezione metteremo a punto gli strumenti, semplici, per farlo. Partiamo, come in genere si fa, da un problema più semplice.
Ecco una situazione abbastanza simile a quella delle successive alzate di un mazzo di carte:
lanciamo una moneta equa 10 volte;
qual è la legge di distribuzione della
variabile casuale:
Proviamo prima a studiare il problema con una simulazione. L'idea è:
− generare 10 volte un numero a caso equamente distribuito tra 0 e 1,
pensando 0 come "croce" e 1 come "testa" e Ecco qua gli esiti e l'analisi di una tale simulazione di 5 lanci effettuata con lo script a cui puoi da qui, copiando poi gli esiti e incollandoli nello script Istogramma | ||
A = -0.5 B = 10.5 intervals = 11 their width = 1
n=5000 min=0 max=10 |
Effettuiamo, ora, lo studio teorico.
Dobbiamo trovare i valori di Pr(N=0), Pr(N=1), ..., Pr(N=10).
Iniziamo a considerare, per es.,
• Valutiamo la probabilità che testa esca esattamente nei primi 5 lanci
(vedi sotto a sinistra). La probabilità che esca T in un lancio è 1/2, la stessa che esca C.
Poiché i dieci lanci sono indipendenti, posso moltiplicare le probabilità. Ottengo che
la probabilità cercata è
T T T T T C C C C C .5 .5 .5 .5 .5 .5 .5 .5 .5 .5 | || |
C T T T T T C C C C .5 .5 .5 .5 .5 .5 .5 .5 .5 .5 |
• Ottengo lo stesso valore per la probabilità che testa esca nei lanci tra il 2° e il 6° (vedi sopra a destra), e per qualunque altra collocazione dei 5 lanci in cui esce testa.
• I modi in cui posso scegliere i 5 posti sono C(10,5), dove C(n,k) indica quante sono le combinazioni di n elementi k a k, cioè la quantità dei sottoinsiemi di k elementi di un insieme di n elementi (vedi la scheda La matematica tra gioco e realtà).
• C(10,5) = 10/5 · 9/4 · 8/3 · 7/2 · 6/1 = 9·4·7
• Quindi, la probabilità cercata, per la proprietà additiva, è la somma di C(10,5) termini uguali a 2–10
Pr(N=5) = C(10,5) · 2-10 = 9·4·7 / 210 = 24.6%
In generale: Pr(N = i) = C(10, i) / 210 (i = 0, 1, , 10)
Posso confrontare questo valore con quello ottenuto sperimentalmente: OK!
|
Confronta analogamente il valore di |
Se lanciassi n volte la moneta avrei, del tutto analogamente: Pr(N = i) = C(n, i) / 2n (i = 0, 1, …, n)
È un caso particolare di legge di distribuzione binomiale,
discussa più in generale tra poco. Il nome deriva dalla presenza del
coefficiente binomiale |
Le altezze delle colonne (vedi i valori di P in binom10)
sono stati ottenute con la grande CT calcolando i valori di
|
Se metto in input 0*1,1*10,2*45,3*120,4*210,5*252,6*210,7*120,8*45,9*10,10*1 o 0*1,1*9,2*36,3*84,4*126,5*126,6*84,7*36,8*9,9*1, con la grande CT posso calcolare la varianza ottenendo nei due casi 2.5 e 2.25. La media nei due casi vale 5 e 4.5.
In tutti i casi, non solo per n=10 e n=9, la media, per simmetria, è evidentemente n/2. È naturale congetturare che in tutti i casi la varianza sia n/4 e che, quindi, lo scarto quadratico medio, ossia la radice quadrata della varianza, sia sqm = √n/2. La cosa è dimostrata in §5.
Torniamo all'esempio del forno. Ragioniamo in modo simile a quanto fatto nel caso delle monete. Sia N la variabile casuale a valori in {0, 1, , 6} che rappresenta il numero di biscotti difettosi. È sensato ritenere (dato il rimescolamento presente prima del confezionamento) che le estrazioni dei biscotti siano una indipendente dall'altra. Quindi la probabilità che esattamente i primi k biscotti estratti siano difettosi è data dal prodotto:
(1/8)·(1/8)· ·(1/8)·(7/8)· ·(7/8) = (1/8)k·(7/8)6-k.
Poiché non ci interessa la disposizione dei biscotti difettosi, abbiamo:
Pr(N=k) = C(6,k)·(1/8)k·(7/8)6–k.
Generalizzando dal caso di una confezione da 6 ad una da n biscotti, dal caso della difettosità con probabilità di 1/8 a quello della difettosità con probabilità p, abbiamo che la probabilità che in una confezione vi siano k biscotti difettosi è:
Pr(N = k) = C(n, k) · pk · (1 p)nk
Anche questa legge di distribuzione, che generalizza quella considerata nel caso delle monete eque, viene chiamata legge di distribuzione binomiale (o di Bernoulli):
si applica a tutte le situazioni in cui si ripete n volte la prova su una variabile casuale che può assumere solo due valori, in cui p è la probabilità di uno di questi due valori e N è il numero delle volte in cui questo valore esce.
Ecco le elaborazioni grafiche per
il caso originale dei biscotti (p = 1/8) e per il caso in cui vi fosse un biscotto bruciacchiato ogni 4 (p = 1/4):
binom6-1/8 e
binom6-1/4.
Con la nostra grande CT possiamo calcolare media e varianza delle due distribuzioni (vedi) ottenendo: nel caso di un biscotto bruciacchiato ogni 8 media = 0.75, varianza = 0.65625, in quello di uno ogni 4 media = 1.5, varianza = 1.125. Dai grafici possiamo vedere la sensatezza dei due valori medi.
Posso osservare, come per le monete, che N è interpretabile come
•
•
M(N) = M(Σ i X i) = Σ i M(X i) = p +
+ p = np e: Var(N) = Var(Σ i X i) = Σ i Var(X i) = p(1-p) + + p(1-p) = |
Nei due casi dei biscotti, in accordo coi valori calcolati sopra:
Usualmente, la legge binomiale di ordine n e
"probabilità di successo nella singola prova" p viene indicata con
il simbolo
|
Un apparecchio, composto da 10 elementi omogenei, funziona a patto che funzionino almeno 7 elementi.
L'affidabilità (cioè la probabilità di funzionamento perfetto)
di ciascun elemento in un intervallo di tempo dato è 0.8.
Qual è la probabilità che, nell'intervallo dato, l'apparecchio vada fuori uso? Nota. La probabilità che ciascun elemento vada fuori uso è 0.2. Quindi devo considerare la legge binomiale B10,0.2 e valutare: Pr(B10,0.2=4) + Pr(B10,0.2=5) +…+ Pr(B10,0.2=10). Ma conviene calcolare: 1 Pr("apparecchio non va fuori uso") = 1 (Pr(B10,0.2=0) +…+ Pr(B10,0.2=3)) |
2. La distribuzione gaussiana e il teorema limite centrale
Sopra abbiamo visto la rappresentazione grafica
della distribuzione binomiale per p = 0.25 e n = 6. Qui a destra è rappresentato il caso in cui n è
aumentato a n =20 (vedi). |
Ricordiamo che la binomiale di ordine n è
ottenibile come somma di n termini uguali ad una variabile casuale ad uscite in 0 ed 1.
Vi sono altre variabili casuali che rappresentano la ripetizione di esperimenti e che all'aumentare del numero
degli esperimenti tendono ad avere una legge di distribuzione il cui grafico tende ad assumere tale forma.
Ad esempio consideriamo la somma di n termini pari a
Prima di andare avanti, rivedete rapidamente il §5 della scheda Quale matematica per i fenomeni casuali?
Osservazioni e congetture fatte all'inizio del paragrafo possono essere precisate.
Siano Ui (i intero positivo) variabili casuali (numeriche) indipendenti con la stessa legge di
distribuzione.
Al crescere di n la variabile casuale
− m è la media, pari a n volte la media delle Ui
− σ è lo scarto quadratico medio, pari a √V dove V è n volte la varianza delle Ui
(σ è la lettera greca "sigma", che corrisponde alla nostra "s").
|
|
Questa proprietà è nota come teorema limite centrale.
Ecco il grafico di due "gaussiane", la prima con media 0 e sqm 1, la seconda con media 7 e sqm 3. Abbiamo evidenziato anche i punti dei grafici con input media−sqm e media+sqm (grafici realizzati con gli script gauss e gauss1).
Il nome "gaussiana" deriva da quello del matematico (o fisico, naturalista, filosofo, : le etichette attuali avevano un significato diverso un paio di secoli fa) Gauss, che la studiò particolarmente agli inizi dell'Ottocento; essa, in realtà, fu introdotta nel calcolo delle probabilità almeno una settantina d'anni prima. | |
Ecco, a destra, il grafico della gaussiana sovrapposto a quello dell'istogramma della distribuzione del quesito 2, avendo scelto la stessa media (4.5) e lo stesso sqm (√2.25); il grafico è realizzato con lo script BinomGauss. |
A lato è raffigurato il grafico di una generica gaussiana di media m e scarto
quadratico medio s. Si può dimostrare che, oltre ad essere simmetrico rispetto alla
retta di ascissa m, ha flessi (ossia cambi di concavità) nei punti di ascissa m−s e m+s.
0.99730020394 if a=162 b=198, m=180 sigma=6 |
Non c'è un termine semplice (esprimibile mediante quattro operazioni, funzioni polinomiali, circolari, esponenziali o loro inverse) con cui rappresentare l'integrale di una gaussiana.
| Quanto vale l'area tra curva gaussiana ed asse x a destra della retta y = m (se m è il valor medio)? |
3. Dalla media statistica alla media teorica
Voglio determinare il peso medio della popolazione adulta (di un certo paese) di un dato sesso, ad es. maschile.
Ovvero, se P è la variabile casuale "peso di un abitante adulto maschio", voglio determinare
Dividendo per n ho
Ad es., supponendo che P sia espressa in kg, se voglio determinare il peso medio della popolazione a
meno di 0.5 kg posso fare tante prove n fino a che σ/√n < 0.5. A quel punto
potrò dire che, con
probabilità del 68.3%, il valore
Quanto qui detto per P vale per ogni variabile casuale.
Il valore di σ devo già conoscerlo in base a considerazioni di qualche tipo oppure posso
man mano approssimarlo con la radice quadrata
della varianza sperimentale:
si può dimostrare che, fissato n, la varianza di
Ovvero come σ devo prendere
il valore sperimentale () moltiplicato per
√(n/(n−1)). Ovvero devo prendere il secondo dei valori che, in modo non
molto corretto ma ormai diffuso, vengono in genere indicati nel modo seguente (dove
xi e μ sono dati e media):
|
|
Questi due termini vengono, spesso, chiamati, rispettivamente, deviazione standard teorica e deviazione standard corretta o non distorta o statistica o sperimentale. Spesso vengono entrambi chiamati semplicemente deviazione standard. Sta al lettore capire quale uso si sta facendo. Comunque quando n è abbastanza grande i due numeri hanno una piccola differenza relativa. Nella nostra grande CT sono presenti tre tasti, di cui ora chiariamo il significato:
scarto quad. medio (sq.root of var./theoret.st.dev.) = 2.8722813232690143 |
[sqm] calcola lo scarto quadratico medio o deviazione standard teorica, [sd] calcola la deviazione standard sperimentale, [sigma] calcola la [sd] diviso per √n, ossia lo sqm della media dei dati.
| Prova a calcolare [sqm] e [sd] dei 100, dei 1000 e dei 10000 dati seguenti. Che cosa osservi?
10*10, 11*10, 12*10, 13*10, 14*10, 15*10, 16*10, 17*10, 18*10, 19*10 |
Ricordiamo (facendo riferimento all'esempio iniziale del paragrafo) che è la media dei pesi che si misurano ad avere andamento gaussiano, non i pesi stessi. Per confermare questo si consideri l'istogramma a lato, che rappresenta la distribuzione dei pesi (in kg) rilevati alle visite di leva per la Marina del 1997 (primi scaglioni); si tratta di circa 4 mila maschi italiani ventenni. |
Questi strumenti entrano in gioco anche nel caso di alcuni tipi di misurazioni. Da una parte abbiamo quelle
a bassa sensibilità, che, se ripetute, danno luogo agli stessi valori. Un esempio:
se uso un doppio decimetro per misurare la lunghezza L di un oggetto, individuo la tacca più vicina alla estremità dell'oggetto; se ad es. questa rappresenta Dall'altra vi sono quelle ad alta sensibilità. Un esempio: consideriamo un particolare reflettometro per la determinazione del tasso glicemico del sangue (viene depositata una goccia di sangue su una striscetta, che viene inserita nello strumento; questo, mediante un opportuno dispositivo ottico, effettua il rilevamento ed esprime il valore in mg/dl); in dotazione è presente (per verificare il corretto funzionamento dell'apparecchio) una striscia di controllo trattata in modo da avere caratteristiche corrispondenti a quelle di una goccia di sangue con un certo tasso glicemico. Se ripeto più volte la misurazione del "tasso glicemico" della striscia di controllo, anche se esso non cambia, non ottengo sempre lo stesso valore. A sinistra è riprodotto l'istogramma relativo a 89 rilevamenti. |
Le variazioni tra un rilevamento e l'altro sono dovute a una serie di fattori casuali (in cui intervengono aspetti ottici,
elettronici, ) che non è possibile né eliminare né conoscere esattamente, per cui il valore letto è da interpretare
come una variabile casuale. Aumentando il numero delle prove l'istogramma tende a stabilizzarsi.
Qual è il tasso glicemico della striscia di controllo? Con la grande CT, introducendo i valori rilevati (quelli sotto riportati) ottengo:
74, 75*2, 76*4, 77*15, 78*33, 79*23, 80*10, 81 mean = 78.14606741573034 sigma = 0.13133882936711402 3*sigma = 0.39401648810134204 |
Con probabilità del 99.7% il valore atteso della variabile "esito di un rilevamento per la striscia di controllo"
è
Ovviamente questo era un esempio. Se faccio un rilevamento per una certa persona non ha senso effettuare molte prove e calcolare il valor
medio: in pocchissmo tempo il tasso può cambiare, per cui ripetendo la prova non è detto che si effettui sempre la misurazione della stessa grandezza.
E, poi, non interessano valutazioni molto precise. Tenendo conto dello studio effettuato sulla striscia di controllo (con uscite tra 74 e 81)
possiamo stimare che anche in altre situazioni lo scarto che il valore letto può avere dal valore vero sia inferiore a 4 e associare alla misura letta tale precisione: se leggo 93, assumo che il tasso glicemico sia
Nel caso di misurazioni di altri fenomeni in genere il valore individuato non cambia ogni volta che si effettua un rilevamento. Un esempio:
| Con un apparato misuratore ad alta sensibilità si ottengono le 7 misure (in un'opportuna unità di misura): 7.3, 7.1, 7.2, 6.9, 7.2, 7.3, 7.4. Determina un intervallo in cui al 68.3% cada il "valore vero" della misura. Determinane uno in cui cada al 99.7%. |
4. La distribuzione esponenziale
La durata delle telefonate
per la ditta Telstat considerata nella scheda
Quale matematica per i fenomeni casuali?
aveva approssimativamente andamento gaussiano. Vediamo, ora, con quale funzione possiamo approssimare
la distribuzione dei tempi tra una telefonata e l'altra. A destra è riprodotto un tale istogramma di distribuzione (le ascisse
rappresentano gli intervalli di tempo in secondi) e, sovrapposto, tratteggiato, il grafico di una
funzione che sembra approssimarlo. Il tempo medio di attesa era di 9 secondi. x → a·e− a x (x > 0) |
|
Per una particolare valore di M, M = 9, posto A = 1/M, avendo definito F(x) = A·exp(-A*x), si sono calcolati in modo approssimato
(usando gli script integ_exp1,
integ_exp2, integ_exp3):
0∫∞ F(x) dx [= 100%] 0∫∞ x*F(x) dx [= mean] 0∫∞ (x-M)2 *F(x) dx [= sqm² ] Che cosa puoi dedurre sui valori della media e dello scarto quadratico medio della distribuzione esponenziale? |
F(x) = A*exp(-A*x) mean=9; A=1/mean; y=A*Math.exp(-A*x) 0.9999999994852756 if a=0 b=1000 n=1e6 0∫∞ F(x) dx = 1 mean=9; A=1/mean; y=A*Math.exp(-A*x); y=x*y 9.000000004624004 if a=0 b=1000 n=1e6 0∫∞ x*F(x) dx = 9 mean=9; A=1/mean; y=A*Math.exp(-A*x); y=(x-mean)*(x-mean)*y 80.9999998749507 if a=0 b=1000 n=1e6 0∫∞ (x-mean)2*F(x) dx = 81 5. Approfondimenti La legge dei grandi numeri
Per inciso, osserviamo che alcune considerazioni svolte nei paragrafi precedenti
sono descritte mediante proprietà note come leggi dei grandi numeri,
e a volte raggruppate sotto la voce legge di Bernoulli
in quanto Jakob Bernoulli - intorno al 1700 - ne dette una prima formulazione.
Possiamo dare una descrizione sintetica di questa legge dicendo che
se U1,
, Un sono n variabili casuali con la stessa legge di distribuzione,
di media μ, allora Il concetto di "limite in probabilità", ora descritto, coincide con quello usuale, a parte il fatto che si trova un valore di n a partire dal quale vale la diseguaglianza non con certezza, ma con una certa probabilità. Ciò corrisponde al fatto che, ad es., se lancio una coppia di dadi prima o poi la media delle uscite si stabilizza attorno a 7, ma, anche se è altamente improbabile, potrebbe accadere che a un certo punto si susseguano 20 uscite uguali a 2 che abbassino, provvisoriamente, la media. Sulla legge di distribuzione binomiale simmetrica Abbiamo visto che la distribuzione binomiale simmetrica (p=1/2) ad n prove ha media n/2. Abbiamo congetturato che la varianza sia n/4 e che, quindi, lo scarto quadratico medio sia σ = √n/2. La cosa può essere effettivamente dimostrata. Sia N la variabile casuale:
• N = u1 + u2 + ... + un dove
per tutti gli 6. Esercizi
|