Statistica Matematica (Franceschini)
Statistica Matematica (Franceschini)
Lezioni
di
STATISTICA MATEMATICA
INDICE
1
`
CALCOLO DELLE PROBABILITA
1.1
Calcolo combinatorio
1.2
La probabilit`
a matematica
Spazi di probabilit`a niti
Spazi niti equiprobabili
5
8
9
1.3
Probabilit`
a condizionata
Eventi indipendenti
Formula di Bayes
14
16
19
1.4
Variabili aleatorie
Variabili aleatorie discrete
Variabili aleatorie continue
23
25
26
1.5
Media e varianza
31
1.6
37
1.7
46
46
49
51
1.8
Approssimazione normale
55
1.9
Altre distribuzioni
Distribuzione esponenziale
Distribuzione ipergeometrica
Distribuzione geometrica
61
61
63
65
STATISTICA DESCRITTIVA
66
2.1
2.2
2.3
Introduzione
Organizzazione e rappresentazione dei dati
Grandezze che sintetizzano i dati
66
66
71
STATISTICA MATEMATICA
81
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
3.10
3.11
3.12
3.13
3.14
Popolazioni e campioni
Stimatori
Distribuzioni chi-quadro e di Student
Intervalli di fiducia (o di confidenza)
Stima della media di una popolazione normale
Stima della varianza di una popolazione normale
Stima della differenza delle medie di due popolazioni normali
Stima di una proporzione
Basi logiche dei test
Formulazione di un test di ipotesi
Test di significativit`
a
Test riguardanti la media di una popolazione normale
Test riguardanti la differenza delle medie di due popolazioni normali
Curve caratteristiche operative dei test
81
82
85
87
87
91
94
99
102
104
107
109
117
120
125
Bibliografia
128
CAPITOLO
`
1: CALCOLO DELLE PROBABILITA
n!
.
(n k)!
volta `e
D R (k; n) = nk .
Infatti, se riempio k caselle in ordine, nella prima casella ho n possibilit`a di scelta,
nella seconda ho ancora n possibilit`a, e cos` per tutte le altre caselle. Ottengo quindi
il numero di oggetti elevato al numero di caselle.
Il numero delle possibile schedine del totocalcio `e 313 ; questo `e infatti il
numero di disposizioni con ripetizione dei 3 simboli 1, 2, x, in 13 caselle ordinate.
Esempio 1.1.3
PERMUTAZIONI
Definizione Una permutazione di n oggetti dati `
e una nupla ordinata i cui
elementi sono tutti gli n oggetti.
Detto altrimenti, una permutazione `e una disposizione semplice degli n oggetti dati
quando sono presi tutti n (si tratta del caso k = n). Di conseguenza il numero P (n)
delle possibili permutazioni di n oggetti vale
P (n) = n(n 1) 3 2 1 n!
Il simbolo n! si legge n fattoriale e designa il prodotto dei primi n numeri naturali.
Per convenzione si pone 0! = 1. Si `e dunque trovato che vale la seguente
Proposizione
Esempio 1.1.4
COMBINAZIONI
Definizione Una combinazione semplice di n oggetti dati presi k alla volta,
k n, `
e un sottoinsieme non ordinato di k oggetti distinti scelti tra gli n.
Esempio 1.1.5
Ricordato che
n
.
k
n
n(n 1)...(n k + 1)
n!
:=
=
,
k
k!
k!(n k)!
D(k; n)
.
P (k)
9876
9
C(4; 9) =
= 9!/[4!(9 4)!] =
= 126 .
4
4321
fa, ag, fa, bg, fa, cg, fb, bg, fb, cg, fc, cg .
Analogamente, le combinazioni con ripetizione dei 2 oggetti a e b presi a terne sono
volta `e
C R (k; n) =
n+k1
.
k
Dimostrazione
Si tratta di contare il numero di soluzioni (a1 , a2 , . . . , ak ), con gli ai numeri interi,
soddisfacenti la relazione
1 a1 a2 ak n .
Questa relazione equivale alla seguente
0 < a1 < a2 + 1 < a3 + 2 < < ak + k 1 < n + k ,
che a sua volta equivale a
0 < b1 < b2 < < bk < n + k ,
con i bi interi. Ne consegue che il numero cercato `e uguale al numero di possibili
scelte di k oggetti distinti presi dallinsieme f1, 2, . . . , n + k 1g, e quindi `e uguale a
C(k; n + k 1).
Applichiamo la formula che ci d`
a C R (k; n) per verificare che il numero di
combinazioni con ripetizione nei due casi visti nellesempio 1.1.7 `e rispettivamente 6 e 4.
Dobbiamo ovviamente calcolare C R (2, 3) e C R (3, 2). Si ha
Esempio 1.1.8
3+21
4
C (2, 3) =
=
= 6;
2
2
2+31
4
C R (3, 2) =
=
= 4.
3
3
R
P=
346
D(20; 365)
365 364 346 365 364
Ndist
=
59% .
= R
=
Ntot
D (20, 365)
(365)20
365 365
365
Proposizione
n
n
n
n n
n
n1
n1
(a + b) =
a +
a
b + ... +
ab
+
b
0
1
n1
n
n
(a + b)n =
n
n
k=0
Dimostrazione
ank bk .
n1
n1
(n 1)!
(n 1)!
+
=
+
=
k1
k
(k 1)! (n k)! k! (n 1 k)!
(n 1)! k + (n 1)! (n k)
(n 1)! (k + n k)
n
=
=
=
.
k! (n k)!
k! (n k)!
k
Osserviamo che `e grazie a questa relazione che si costruisce il famoso triangolo di Tartaglia.
` MATEMATICA
1.2 LA PROBABILITA
Definizione Si chiama spazio campionario linsieme S di tutti i possibili esiti
di un dato esperimento. Un evento `e un insieme di esiti, cio`e un sottinsieme
dello spazio campionario S. Si dice poi classe di eventi, e la denoteremo con ,
ogni insieme non vuoto di eventi che risulti essere chiuso rispetto alle operazioni
insiemistiche elementari, vale a dire:
i) dati due eventi A, B 2 , allora anche A [ B 2 (A [ B `e levento che si
verica se si verica almeno uno fra gli eventi A e B);
ii) data una successione
numerabile di eventi Ai 2 , allora anche la loro unione
`e un evento, cio`e
i=1 Ai 2 ;
A \ AC = ;
=)
A\ B 2 ;
=)
infatti:
infatti, preso A 2 , si ha
A [ AC = S
=)
S 2 .
S = f1, 2, 3, 4, 5, 6g .
A = f2, 4, 6g ,
Si ha quindi, ad esempio:
B = f1, 3, 5g ,
C = f2, 3, 5g .
AC = f1, 3, 5g = B ;
C C = f1, 4, 6g: `e levento il risultato non `e un numero primo;
B \ C = f3, 5g: `e levento il risultato `e un numero dispari e primo;
A [ C = f2, 3, 4, 5, 6g: `e levento il risultato `e un numero pari o primo.
Si noti che gli eventi A e B , essendo A \ B = ;, sono incompatibili.
Osservazione: Come si evince dallesempio, gli eventi sono definiti mediante proposizioni
fatte nel linguaggio comune, e poi identificati con sottinsiemi di S . Sulla base di questa
considerazione risulta molto pi`
u appropriato parlare di eventi incompatibili piuttosto che di
eventi disgiunti, e di sottinsiemi disgiunti piuttosto che di sottinsiemi incompatibili. Accade
per`
o spesso che i due aggettivi siano usati indifferentemente.
Definizione Sia S uno spazio campionario ed una classe di eventi in S. Sia poi
P una funzione definita su a valori in [0, 1]:
P : ! [0, 1] .
P (A [ B) = P (A) + P (B) ;
P [
A
=
P (An ) .
n
n=1
n=1
Dimostrazione
Sia A un qualunque evento di . Poiche anche ; 2 , segue che A [ ; 2 . Inoltre,
A ed ; sono eventi incompatibili essendo A \ ; = ;. In virt`
u dellassioma 2) si ha
quindi
P (A) = P (A [ ;) = P (A) + P (;)
=)
P (;) = 0 .
mentare. Allora si ha
P (AC ) = 1 P (A) .
Dimostrazione
Essendo A \ AC = ;, A ed AC sono eventi incompatibili. Di conseguenza, applicando
lassioma 2) ad S, si ottiene
P (S) = P (A [ AC ) = P (A) + P (AC ) = 1 ,
da cui consegue banalmente la tesi.
7
que, allora
P (A B) = P (A) P (A \ B) .
Dimostrazione
Levento A pu`o essere decomposto negli eventi
incompatibili A B e A \ B, per cui, in virt`
u
dellassioma 2), si ha
P (A) = P (A B) [ (A \ B) = P (A B) + P (A \ B) .
Teorema (regola di addizione per eventi arbitrari) Se A, B sono eventi arbitrari di uno
pi 0 per ogni i = 1, 2, . . . , N ;
la somma delle singole probabilit`a `e uguale a 1, ossia
i=1
pi = 1 .
fai g =
P fai g =
pi .
i:ai A
i:ai A
i:ai A
N
N
N
fai g = P
fai g =
P fai g =
pi = 1 .
i=1
i:ai S
i=1
i=1
i:ai AB
i:ai A
pi +
fai g =
i:ai AB
P fai g =
pi = P (A) + P (B) ,
i:ai B
per cui vale anche lassioma 2). Valgono dunque tutti gli assiomi richiesti perche P
sia una probabilit`a (essendo lo spazio nito, lassioma 3) non ha signicato).
Dal punto di vista pratico ci sono diversi modi di assegnare le probabilit`a pi agli
eventi elementari fai g. Uno dei possibili modi `e il seguente: se ripetiamo lo stesso
esperimento n volte e chiamiamo si il numero di volte che si verica fai g, si osserva
che il rapporto
si
,
n
detto frequenza relativa, a lungo andare tende a stabilizzarsi, cio`e tende ad un limite pi (compreso, ovviamente, tra 0 ed 1). Questo valore limite pi , cos` calcolato
empiricamente, viene assunto come la probabilit`
a dellevento elementare fai g.
S = f1, 2, 3, 4, 5, 6g,
N = 6,
1
6
Si avr`
a
P (A) =
1
jf2, 4, 6gj
= ,
6
2
P (B) =
jf1, 2gj
1
= .
6
3
Esercizio 1.2.1 Si scelga a caso una carta da un mazzo ben mescolato di 52 carte da ramino.
Ci si chiede la probabilit`
a di ottenere: 1) un asso; 2) una carta di fiori; 3) una figura; 4) una
figura non di cuori.
Lo spazio campionario S `e ovviamente linsieme delle 52 carte, per cui N =52. Siano poi
A1 , A2 , A3 e A4 gli eventi di cui si chiede, nellordine, la probabilit`a. Essendo lo spazio
equiprobabile (la carta `e scelta a caso!), avremo:
jA1 j
N
jA2 j
P (A2 ) =
N
jA3 j
P (A3 ) =
N
jA4 j
P (A4 ) =
N
P (A1 ) =
4
1
=
;
52
13
numero delle carte di fiori
13
1
=
=
= ;
N
52
4
numero delle figure
12
3
=
=
=
;
N
52
13
numero delle figure non di cuori
9
=
=
.
N
52
=
10
Esercizio 1.2.2 Si effettuano cinque lanci successivi di una moneta non truccata. Ci si
chiede: qual `e la probabilit`
a che in cinque lanci esca testa almeno una volta?
Introduciamo lappropriato spazio di probabilit`
a:
S = (a1 , a2 , a3 , a4 , a5 ),
con ai = T o ai = C, i = 1, ..., 5 ,
dove ai indica il risultato del lancio i-esimo, e T e C stanno ovviamente per testa e croce.
Siccome il numero delle possibili cinquine che costituiscono S `e 25 , abbiamo N = 32, e quindi
1
p = 32
.
Levento che ci interessa `e
P (A) = 1 P (AC ) = 1
1
31
=
.
32
32
Esercizio 1.2.3 Problema: qual `e la probabilit`a che fra M persone ce ne siano almeno due
con lo stesso compleanno?
Il problema, nella sostanza, `e gi`
a stato affrontato nellesercizio 1.1.1. Assunto che tutti gli
anni siano di 365 giorni (considerare anche gli anni bisestili complicherebbe considerevolmente il problema), e che tutti i giorni siano equiprobabili, lo spazio di probabilit`
a `e
S =
(a1 , a2 , . . . , aM ), ai 2 [1, 2, . . . , 365] .
Siccome il numero degli eventi elementari `e N = DR (M ; 365) = 365M , ogni evento ele-
1
.
365M
Indicato con AM levento gli M compleanni avvengono tutti in giorni diversi, levento di
cui interessa la probabilit`
a `e il complementare di AM , cio`e AC
M . Ricordando quanto visto
mentare ha probabilit`
ap=
P (AM ) =
jAM j
D(M ; 365)
365 364 (365 M + 1)
= R
=
,
jSj
D (M ; 365)
365M
e quindi, in virt`
u della regola di complementazione,
P (AC
M)
=1
i=1 (366
365M
i)
C
C
Facendo il calcolo, si ottiene, ad esempio, P (AC
10 ) 12%, P (A20 ) 41%, P (A30 ) 71%,
C
P (A50 ) 97%.
11
Esercizio 1.2.4 Carlo e Giorgio sono due amici che ogni giorno scommettono sul risultato
del lancio di un dado. Carlo punta sempre su un risultato dispari, Giorgio su un risultato
pari. Giorgio crede che i numeri riportati sulle facce del dado (ovviamente gli interi da 1 a 6)
siano equiprobabili. In realt`
a non `e cos` in quanto Carlo, di nascosto, ha truccato il dado
o che gli altri numeri
facendo in modo che il numero 1 abbia probabilit`
a 15 , lasciando per`
siano equiprobabili. Quali sono le probabilit`
a di vincere di Carlo e Giorgio rispettivamente?
Lo spazio campionario `e ovviamente
S = f1, 2, 3, 4, 5, 6g .
Sia pi = P fig . Siccome sappiamo che p1 = 15 e che p2 =p3 =p4 =p5 =p6 , dovendo essere
6
4
e
i=1 pi = 1, si ricava pi = 25 , per i = 2, . . . , 6. Levento per cui vince Carlo `
A = il risultato `e dispari = f1, 3, 5g .
Ovviamente levento per cui vince Giorgio `e AC . Si ha dunque
P (A) = P f1, 3, 5g = P f1g + P f3g + P f5g =
1
5
4
25
4
25
13
25
e quindi
P (AC ) = 1 P (A) =
12
25
In fin dei conti, Carlo `e stato sleale, ma poteva esserlo molto di pi`
u.
S (Y,Y,Y), (Y,Y,N), (Y,N,Y), (Y,N,N), (N,Y,Y), (N,Y,N), (N,N,Y), (N,N,N) .
P (s1 , s2 , s3 ) = P (fs1 g) P (fs2 g) P (fs3 g) .
Avremo perci`
o
P (A) = P
1
=
6
3 2 5 1 2 5 3 1
31
+ + =
4 3 6 4 3 6 4 3
72
C
P (B) = P f(Y, Y, Y ), (N, N, N )g = 1 P (Y, Y, Y ) + P (N, N, N ) =
1 1 1 5 3 2 41
+
=
.
=1
6 4 3 6 4 3
72
12
Esercizio 1.2.6 Un dado equo a 4 facce riportanti i numeri 1, 2, 3 e 4 `e lanciato tre volte.
Si chiede la probabilit`
a di ottenere: i) almeno un tre; ii) nessun uno e nessun due.
Lo spazio campionario `e
S = f(a1 , a2 , a3 ) , ai 2 [1, 2, 3, 4] , i = 1, 2, 3 .g
Sia A levento si `e ottenuto almeno un 3. Indicando con Qk levento il risultato del
C
C
k-esimo lancio `e 3, si ha AC = QC
1 \ Q2 \ Q3 . Essendo poi gli eventi Q1 , Q2 e Q3
indipendenti uno dallaltro (in quanto il risultato di ciascuno non dipende da quello degli
o e del
altri due), anche gli eventi complementari QC
k sono indipendenti. Tenendo conto di ci`
3
C
C
fatto che P (Q1 ) = P (Q2 ) = P (Q3 ) = 14 , per cui P (QC
)
=
P
(Q
)
=
P
(Q
)
=
,
1
2
3
4 si ha
C
C
C
C
C
P (A) = 1 P (AC ) = 1 P QC
1 \ Q2 \ Q3 = 1 P (Q1 ) P (Q2 ) P (Q3 ) =
3 3
37
=1
=
57.8% .
4
64
Sia ora B levento non si `e ottenuto nessun uno e nessun due. Indicando con Rk levento
il risultato del k -esimo lancio `e 3 o 4, si ha B = R1 \ R2 \ R3 . Anche in questo caso i
tre eventi Rk sono indipendenti; inoltre P (R1 ) = P (R2 ) = P (R3 ) = 12 . Ne consegue
1 3
1
P (B) = P (R1 \ R2 \ R3 ) = P (R1 ) P (R2 ) P (R3 ) =
= = 12.5% .
2
8
P (A) = 1
jAC j
D(4; 19)
19 18 17 16
16
1
=1
=1
=1
= .
jSj
D(4; 20)
20 19 18 17
20
5
Allo stesso risultato si poteva pervenire anche per altra via. Come spazio S, infatti, si pu`
o
assumere linsieme di tutte le possibili combinazioni di 4 numeri interi (distinti) presi tra 1
e 20. Anche le combinazioni sono equiprobabili, per cui si ha
19
jAC j
C(4; 19)
19! 16! 4!
4
1
4
=1
P (A) = 1
=1
= 1 20
=1 = .
jSj
C(4; 20)
15! 4! 20!
5
5
4
P (A) = 1
19 4
D R (4; 19)
194
=
1
=
1
1 0.815 = 18.5% .
D R (4; 20)
204
20
13
S = f(c1 , c2 , c3 , c4 , c5 ) , ci 6
= cj g ,
N=
52
5
= 2 598 960 .
La probabilit`
a di ciascun evento si ottiene calcolando il numero degli eventi favorevoli e
dividendolo per N . Volendo calcolare la probabilit`
a di un poker, contiamo quante sono le
possibili cinquine con quattro carte uguali. Scelte 4 carte uguali, e ci sono 13 possibili
scelte, la quinta carta pu`
o essere una qualunque fra le rimanenti 48. Avremo dunque
P (P O) =
1348
0.024% .
N
Volendo poi un full, cio`e una cinquina del tipo aaabb, osserviamo che ogni tris aaa pu`
o
essere
4 ottenuto con 13 diverse carte a e che per ciascun a se ne possono poi ottenere
una volta scelto il tris, la si pu`
o ottenere con
3 = 4; per quanto riguarda poi la coppia bb,
4
12 diverse carte b, e per ciascun b ci sono 2 = 6 possibilit`
a. Si ha quindi
P (F U ) =
13
4
3
12
N
4
2
134126
0.14% .
N
La domanda 3) concerne le doppie coppie, cio`e le cinquine del tipo aabbc. Ragionando in
modo analogo a quanto fatto per le precedenti domande, si ha
P (CC) =
13
4
2
12 42 11 41
136126114
=
4.75% ,
2N
2N
dove il 2 a denominatore tiene conto del fatto che sono state conteggiate sia le quaterne
del tipo aabb che quelle del tipo bbaa.
La domanda 4) richiede di calcolare la probabilit`
a di una semplice coppia, vale a dire una
cinquina del tipo aabcd. In questo casi si ha
P (C) =
13
4
2
12
4
11
6N
4
1
10
4
1
136124114104
42.3% ,
6N
dove il 6 a denominatore tiene conto del fatto che per la formazione di una coppia del tipo
aabcd sono state conteggiate tutte le possibili terne bcd, bdc, cbd, cdb, dbc e dcb (cio`e le
possibili permutazioni dei tre ogetti a, b, c).
14
` CONDIZIONATA
1.3 PROBABILITA
Definizione Dato uno spazio di probabilit`
a (S, , P ) e due eventi A e B di
con P (B) > 0, si chiama probabilit`
a condizionata di A dato B il numero
P (A \ B)/P (B). Tale numero, che esprime la probabilit`
a che avvenga A una volta
che sia avvenuto B , sar`a indicato con P (AjB). Si ha dunque, per definizione,
P (AjB) =
P (A \ B)
.
P (B)
Nel caso di uno spazio S nito ed equiprobabile, indicato con jEj il numero degli
elementi di un evento E 2 S, si ha
P (A \ B) =
e quindi
jA \ Bj
,
jSj
P (AjB) =
P (B) =
jBj
,
jSj
jA \ Bj
.
jBj
Esercizio 1.3.1 Si lanci una coppia di dadi. Se la loro somma `e 6, si determini la probabilit`a
che almeno uno dei dadi abbia dato come risultato 2.
Lo spazio campionario `e
S = f(h, k), h, k = 1, 2, 3, 4, 5, 6g ,
P (AjB) =
jA \ Bj
2
= .
jBj
5
P (AA) =
49
42
9
, P (Aa) =
, P (aa) =
.
100
100
100
Supponiamo che dopo un certo tempo muoiano sistematicamente gli individui di tipo aa,
sicch`e gli adulti sono o AA o Aa. Ci si chiede: qual `e la probabilit`
a di AA fra gli adulti?
Bisogna calcolare la probabilit`
a condizionata di AA dato levento B = AA [ Aa :
P (AAj AA[Aa) =
9 8 7
12
=
.
15 14 13
65
Dati due eventi A e B , con P (A) > 0 e P (B) > 0, vale la relazione
P (AjB) =
P (A)
P (BjA) .
P (B)
Se la probabilit`
a teorica del sintomo B , data la malattia A, `e il 30%, posso
calcolare la probabilit`
a che un paziente affetto dal sintomo B abbia la malattia A. Se, ad
esempio, in Emilia la percentuale delle persone affette dalla malattia A `e il 15% e quella
delle persone che manifestano il sintomo B `e il 5%, per cui P (A) = 0.15 e P (B) = 0.05,
la probabilit`
a della malattia A dato il sintomo B `e
P (AjB) =
P (A)
0.15
P (BjA) =
0.30 = 90% .
P (B)
0.05
16
EVENTI INDIPENDENTI
Definizione Due eventi A e B si dicono indipendenti se
P (A \ B) = P (A)P (B) .
Il signicato di questa denizione, che vale qualunque siano gli eventi A e B, appare
chiaro se si considerano eventi di probabilit`a non nulla. Infatti, se P (B) > 0, dalla
denizione di probabilit`a condizionata, segue
P (A) = P (AjB) ,
e analogamente, supposto P (A) > 0, si ha
P (B) = P (BjA) .
A parole: la probabilit`a di A non dipende dal vericarsi oppure no di B, e viceversa.
Ci`o giustica la terminologia.
Teorema
Dimostrazione
Dimostriamo dapprima lindipendenza di A e B C . Essendo
P (B C ) = 1 P (B) ,
si ha
P (A) = P (A \ B) + P (A \ B C ) ,
Esercizio 1.3.4 Un test diagnostico di una malattia `e corretto nel 98% dei casi. Ci si chiede:
ripetendo due volte il test sullo stesso soggetto, qual `e la probabilit`
a di un doppio errore?
Sia A = errore nel primo test, B = errore nel secondo test. Essendo i due eventi
indipendenti, si ha
P (A \ B) = P (A)P (B) =
2
2
4
=
= 0.04% .
100 100
10000
17
P (A \ B C ) [ (AC \ B) = P (A \ B C ) + P (AC \ B) =
Ai = S .
i
Nel seguito considereremo partizioni finite, cio`e partizioni formate da un numero nito
n di eventi. In tal caso lindice i assumer`a ovviamente i valori da 1 a n.
Teorema (o formula) della probabilit`a totale (o di fattorizzazione)
Dato un evento B e una partizione finita A1 , A2 , ...An di S, con P (Ai ) > 0 per
ogni i, si ha
n
P (B) =
P (Ai )P (BjAi ) .
i=1
Dimostrazione
In virt`
u della denizione della legge delle probabilit`a composte, per ogni i possiamo
scrivere
P (Ai \ B) = P (Ai )P (BjAi ) .
Sommando per i che va da 1 ad n, si ha
n
n
i=1 P (Ai \ B) =
i=1 P (Ai )P (BjAi ) ,
da cui, essendo
n
n
n
i=1 P (Ai \ B) = P
i=1 (Ai \ B) = P ( i=1 Ai ) \ B = P (S \ B) = P (B) ,
consegue la tesi.
Esercizio 1.3.6 Una fabbrica di autovetture riceve da tre fornitori i cambi da installare sulle
auto nelle seguenti percentuali: 65%, 25% e 10%. Sapendo che i tre fornitori producono i
cambi con una difettosit`
a rispettivamente del 5%, 10% e 25%, si vuole conoscere la probabilit`
a
che la fabbrica di auto ha di ricevere un cambio difettoso.
18
P (A) =
3
i=1
Esercizio 1.3.7 Com`e noto, le trasfusioni di sangue possono avvenire con le modalit`a seguenti: dal gruppo 0 a tutti i gruppi; da A ai gruppi A e AB ; da B ai gruppi B e AB ; da
AB al solo gruppo AB . Supposto che le frequenze dei gruppi sanguigni siano
P (0) = 52%, P (A) = 32%, P (B) = 10%, P (AB) = 6% ,
ci si chiede: qual `e la probabilit`
a che un individuo x, scelto a caso, possa donare sangue a
un individuo y pure scelto a caso?
Sia S linsieme delle coppie (x, y) in cui sia x che y possono essere uguali a 0, A, B o AB .
Levento di cui vogliamo calcolare la probabilit`
a `e x `
e donatore per y e lo indichiamo con
[x ) y]. Introduciamo poi gli eventi
e analogamente gli eventi [y =0], [y =A], [y =B],[y =AB]. Per calcolare P ([x ) y]) si pu`
o
usare il teorema della probabilit`
a totale in due modi diversi: in un caso considereremo come
partizione di S gli eventi [x = 0], [x = A], [x = B] e [x = AB], nellaltro gli eventi [y = 0],
[y =A], [y =B] e [y =AB].
Modo 1
P ([x ) y]) = P ([x=0])P ([x ) y][x=0]) + P ([x=A])P ([x ) y][x=A])+
+ P ([x=B])P ([x ) y][x=B]) + P ([x=AB])P ([x ) y][x=AB]) =
52
32 32
6
10 10
6
6
6
=
1 +
+
+
+
+
' 66% .
100
100 100 100
100 100 100
100 100
Modo 2
P ([x ) y]) = P ([y =0])P ([x ) y][y =0]) + P ([y =A])P ([x ) y][y =A])+
+ P ([y =B])P ([x ) y][y =B]) + P ([y =A]B)P ([x ) y][y =AB]) =
52 52
32 52
32
10 52
10
6
=
+
+
+
+
1 ' 66% .
100 100 100 100 100
100 100 100
100
19
Modo 3
Lesercizio pu`
o essere risolto anche senza ricorrere al teorema della probabilit`
a totale, e ci`
o
in virt`
u del fatto che levento [x ) y] pu`
o essere visto come unione di eventi elementari
(x, y); pi`u precisamente
[x ) y] f(0, 0), (0, A), (0, B), (0, AB), (A, A), (A, AB), (B, B), (B, AB), (AB, AB)g .
Poich
per cui
e gli
individui sono scelti a caso, x e y sono
indipendenti uno dallaltro,
32
6
P (x, y) = P (x)P (y). Ad esempio, P (A, AB) = P (A)P (AB) = 100 100 .
Si ha quindi
P [x ) y] = P (0, 0) + P (0, A) + P (0, B) + P (0, AB) + P (A, A) +
+ P (A, AB) + P (B, B) + P (B, AB) + P (AB, AB) =
= P (0)P (0) + P (0)P (A) + P (0)P (B) + P (0)P (AB) + P (A)P (A)+
+
+
+
+
+
+
100 100 100 100 100
100 100 100
10 10
6
6
6
+
+
+
' 66% .
100 100 100
100 100
Teorema (o formula) di Bayes
Dato un evento B con P (B) > 0, e data una partizione finita A1 , A2 , ...An di S
con P (Ai ) > 0 per ogni i, vale la relazione
P (BjAi )P (Ai )
P (Ai jB) =
.
k P (BjAk )P (Ak )
Dimostrazione
In virt`
u del teorema della probabilit`a composta si pu`
o scrivere
P (Ai jB) =
P (B|Ai )P (Ai )
P (B)
Sostituendo a denominatore P (B) con la sua espressione fornita dalla formula della
probabilit`a totale, si ottiene immediatamente la tesi.
Gli eventi Ai possono essere considerati come possibili cause dellevento B, o ipotesi
che lo spiegano. Il fatto che costituiscano una partizione di S, per cui certamente
B [i Ai , comporta che se si verica B, necessariamente si verica anche uno (ed
uno solo in virt`
u della incompatibilit`a) degli eventi Ai . In altre parole, linsieme
delle cause Ai `e esaustivo: se si verica B, una di esse deve aver agito. Una volta
osservato levento B, ci si pu`o chiedere quale sia la causa che ha eettivamente agito, e
il teorema di Bayes risponde, naturalmente in senso probabilistico, a questa domanda.
La probabilit`a P (Ai ) `e la probabilit`a che si verichi Ai indipendentemente dal vericarsi o meno dellevento B; viene detta probabilit`
a a priori. La probabilit`a condizionata P (Ai jB) `e la probabilit`a di Ai valutata sapendo che si `e vericato B, e viene
chiamata probabilit`
a a posteriori.
20
Gli esercizi che seguono, in particolare il primo, sono utili ad illustrare il signicato
di probabilit`a a priori e posteriori, e come si applica il teorema di Bayes.
Esercizio 1.3.8 Si abbiano tre scatole, indistinguibili una dallaltra, contenenti ciascuna due
palline: una contiene due palline bianche (scatola 1), unaltra una pallina bianca ed una
rossa (scatola 2), la terza due palline rosse (scatola 3). Scelta una scatola a caso, si estrae
una pallina. La pallina `e bianca. Ci si chiede: qual `e la probabilit`
a che la pallina sia stata
estratta dalla scatola i?
Indicato con B levento la pallina estratta `e bianca e con Ai levento la pallina `e stata
estratta dalla scatola i, ci interessa calcolare le probabilit`
a P (Ai jB). Osserviamo che si ha
1
;
3
P (BjA1 ) = 1 ,
P (BjA2 ) =
1
,
2
P (BjA3 ) = 0 .
P (BjA1 )P (A1 )
=
P (BjA1 )P (A1 ) + P (BjA2 )P (A2 ) + P (BjA3 )P (A3 )
1
1 1
2
3
= 1 1 31
=
1
1 = 3;
1 3 + 2 3 + 0 3
2
P (A1 jB) =
P (A2 jB) =
P (A3 jB) =
P (BjA2 )P (A2 )
1
2
P (BjA3 )P (A3 )
1
2
=
=
1 1
23
1
2
0 13
1
2
1
.
3
= 0.
Osserviamo che si trova confermato il fatto ovvio che P (A3 jB) = 0. Osserviamo anche
come il verificarsi dellevento B influisca sulle probabilit`
a degli eventi Ai modificandone le
probabilit`
a.
Nota bene: dato un evento A, con 0 < P (A) < 1, gli eventi A e AC costituiscono
la pi`
u semplice partizione di S utilizzabile nellapplicazione del teorema di Bayes. Gli
esempi che seguono utilizzano tutti una partizione di questo tipo.
Esercizio 1.3.9 In una scuola il 4% dei maschi e l1% delle femmine sono pi`u alti di 1.80
metri. Inoltre, il 60% sono femmine. Fra la totalit`
a degli studenti ne viene scelto a caso uno
che risulta essere pi`
u alto di 1.80 metri. Si chiede: qual `e la probabilit`
a che sia femmina?
Sia S linsieme di tutti gli studenti. Siano poi F levento lo studente scelto `e femmina
ed A levento laltezza dello studente `e maggiore di 1.80. Si deve determinare P (F jA).
Osservato che F C coincide con levento lo studente `e maschio, i dati del problema sono
P (F ) = 0.60 ,
P (F C ) = 0.40 ,
P (AjF ) = 0.01 ,
21
P (AjF C ) = 0.04 .
P (AjF )P (F )
=
P (AjF )P (F ) + P (AjF C )P (F C )
0.010.60
0.006
3
=
=
=
27.3% .
0.010.60 + 0.040.40
0.022
11
P (F jA) =
Esercizio 1.3.10 Si sa che lo 0,5% dei soggetti di una citt`a `e ammalato di AIDS. Si sa che
i test diagnostici danno una diagnosi corretta nell80% dei sani e nel 98% dei malati. Qual
`e la probabilit`
a di un individuo, scelto a caso fra quelli sottoposti a test, di esser sano posto
che sia stato diagnosticato malato?
Sia S linsieme degli individui sottoposti ai test per lAIDS. Consideriamo gli eventi: A =
lindividuo scelto `e sano, AC = lindividuo `e malato, B = la diagnosi dellindividuo `e:
sano, B C = la diagnosi `e: malato. Le statistiche sopra riportate implicano che
P (AC ) = 0.005 ,
P (BjA) = 0.80 ,
P (B C jAC ) = 0.98 .
P (B C jA)P (A)
=
P (B C jA)P (A) + P (B C jAC )P (AC )
(0.995)(0.20)
=
' 0.976
(0.20)(0.995) + (0.98)(0.005)
P (AjB C ) =
(probabilit`
a molto alta; se fossimo per`
o dentro una categoria a rischio, avremmo una incidenza di malattia P (AC ) pi`
u elevata, per cui questa probabilit`
a sarebbe pi`
u contenuta).
Esercizio 1.3.11 Una fabbrica che produce lampadine ha due linee di produzione A e B:
dalla A esce il 60% delle lampadine prodotte e dalla B il rimanente 40%. Sappiamo inoltre
che un 2% delle lampadine prodotte dalla linea A `e difettoso, mentre la percentuale di difetti
per laltra linea `e il 3.8%. Ci si chiede: qual `e la probabilit`
a che una lampadina difettosa,
scelta a caso fra tutte le lampadine prodotte in un dato periodo, sia uscita dalla linea A?
Sia S linsieme di tutte le lampadine prodotte dalla fabbrica in un dato periodo. Se A `e
levento la lampadina scelta `e uscita dalla linea A, AC `e levento la lampadina `e uscita
dalla linea B. Indicato poi con D levento la lampadina `e difettosa, i dati del problema
sono
P (DjA) = 0.02 ,
P (DjAC ) = 0.038,
P (A) = 0.6 .
P (DjA) P (A)
(0.02)(0.6)
=
=
C
C
P (DjA) P (A) + P (DjA ) P (A )
(0.02)(0.6) + (0.038)(0.4)
0.012
=
0.441 = 44.1%
0.012 + 0.0152
P (AjD) =
22
Esercizio 1.3.12 In un cappello ci sono 10 monete, 9 normali ed una truccata con due teste.
Se ne estrae una a caso, che lanciata k volte consecutive d`
a k teste. Qual `e la probabilit`
a
che la moneta estratta sia quella truccata?
Sia A levento la moneta estratta dal cappello `e quella truccata. Chiaramente ne consegue
che AC rappresenta levento la moneta estratta `e normale. Indicato poi con Tk levento
k consecutivi lanci della moneta danno k teste, i dati del problema sono
P (A) =
1
10
P (AC ) =
9
10
P (AjTk ) =
P (Tk jAC ) =
P (Tk jA) = 1 ;
1
2)
1
1 10
P (Tk jA)P (A)
2k
=
=
k 9
1
P (Tk jA)P (A) + P (Tk jAC )P (AC )
9 + 2k
1 10
+ 12 10
P (AjT2 ) =
4
13
P (AjT4 ) =
16
25
P (AjT6 ) =
64
73
P (AjT8 ) =
256
265
Come ultima osservazione, notiamo che ci sono due modi di fare un campionamento,
cio`e di scegliere a caso un certo numero di elementi da una popolazione:
1) con reimmissione;
2) senza reimmissione.
Rimarchiamo il fatto seguente, peraltro molto intuitivo: se il numero N di individui
della popolazione e infinito o molto grande, non c`e differenza apprezzabile tra
estrarre con reimmissione ed estrarre senza reimmisione. In questo caso, pertanto,
conviene per semplicit`a calcolare ogni cosa come se si estraesse con reimmissione.
Lesercizio che segue illustra le due diverse modalit`a di campionamento e mostra, per
quanto sia solo N =10, il fatto precedentemente rimarcato.
Esercizio 1.3.13 Una scatola contiene 10 viti, di cui tre difettose. Si estraggono due viti a
caso. Con quale probabilit`
a nessuna delle due `e difettosa?
Considerati gli eventi A = prima vite estratta non difettosa, B = seconda vite estratta
non difettosa, levento di cui ci interessa la probabilit`
a `e A \ B .
Estraendo con reimmissione, prima di estrarre la seconda volta abbiamo nella scatola li7
dentica situazione di 10 viti di cui tre difettose; si ha pertanto P (A) = P (B) = 10
e
quindi
P (A \ B) = P (A)P (B) =
7 7
= 49% .
10 10
P (A \ B) = P (A)P (BjA) =
23
7 6
10 9
' 47% .
numeri reali che comprende tutti gli intervalli ed `e chiusa rispetto alle operazioni
di unione (finita e numerabile) e complementazione.
Proposizione
Esempio 1.4.1
X(1) := 1,
X(2) := 2
...
X(6) := 6 .
Potremo allora calcolare la probabilit`
a di eventi del tipo X 2.5, 1 < X 4 oppure X 3.
Ricordando che P (X =k) = P (fkg) = 16 , per k = 1, 2, . . . , 6, si ha
P (X 2.5) = P (X =1) + P (X =2) = 13 ,
P (1< X 4) = P (X =2) + P (X =3) + P (X =4) = 12 ,
P (X 3) = P (X =3) + P (X =4) + P (X =5) + P (X =6) =
2
3
Y := 0
Y := 1
24
Si ha cos` :
per x < 0
P (;) = 0
1
FY (x) = P (Y x) = P (Y =0) = 2
per 0 x < 1
1
1
per x 1 .
P (Y =0) + P (Y =1) = 2 + 2 = 1
La funzione di distribuzione gode di alcune propriet`a che sono formalizzate nelle
cinque proposizioni che seguono. Di queste dimostriamo solo la prima.
Proposizione
Vale la relazione
P (a< X b) = F (b) F (a) .
Dimostrazione
Levento X b `e lunione dei due eventi X a e a< X b, cio`e degli eventi
fs 2 S : X(s) ag
e
fs 2 S : a< X(s) bg,
che chiaramente sono incompatibili. Di conseguenza si ha
P (X b) = P (X a) + P (a< X b) ,
da cui segue banalmente la relazione che si voleva dimostrare.
Proposizione
Proposizione
a b.
lim F (x) = 1 .
Proposizione
se
x+
h0+
Essendo F (x) denita in ogni punto, ogni eventuale discontinuit`a `e del tipo del salto,
e per eetto della proposizione appena enunciata, vale anche la seguente
Proposizione Lampiezza F (x) del salto della funzione di distribuzione in un
punto x di discontinuit`a vale
F (x) = P (X =x) .
25
2)
P (X =xj ) = 1 .
0
se x < x1
p1
se x1 x < x2
p +p
se x2 x < x3
1
2
F (x) =
se xn1 x < xn
p1 + + pn1
Esempio 1.4.3
X:
1
6
1
6
1
6
1
6
1
6
1
6
f (x) =
1
6
per x = 1, 2, 3, 4, 5, 6
0 altrimenti
F (x) =
1
2
2
3
5
6
per x < 1
per 1 x < 2
per 2 x < 3
per 3 x < 4
per 4 x < 5
per 5 x < 6
per x 6
26
Esempio 1.4.4
Z:
10 11 12
1
36
2
36
3
36
4
36
5
36
6
36
5
36
4
36
3
36
2
36
1
36
8x 2 R .
f (t)dt ,
f (t)dt := lim
f (t)dt ,
f (t)dt := lim
a+
f (t)dt .
Per quanto riguarda poi lintegrale su tutto lasse reale, una possibile definizione `e la seguente:
f (t)dt :=
f (t)dt +
27
f (t)dt .
b
a
f (t)dt .
Essa consegue immediatamente dal fatto che P (a< X b) = F (b) F (a) e costituisce
lo strumento standard per il calcolo delle probabilit`a nel caso di variabili casuali
continue. Si noti che la formula in questione esprime luguaglianza fra la probabilit`
a
P (a< X b) e larea sottesa dalla curva f (x) tra gli estremi x=a ed x=b.
2)
f (t)dt = 1 .
Consegue direttamente dalla relazione di cui al punto precedente, tenendo conto che
P (1< X < +1) = P (S) = 1.
3) La funzione densit`
a f (x), per ogni x dove `e continua, soddisfa la relazione
F (x) = f (x) .
Ci`o risulta direttamente dalla derivazione di F (x) scritta in forma integrale.
Osservazione:
Nel caso di una variabile aleatoria continua si ha sempre P (X =a) =
a
f
(x)dx
=
0,
mentre
nel caso di variabile X discreta pu`o benissimo essere P (X =
a
a) > 0. Analogamente, se X `e continua si ha
P (a< X < b) = P (a X < b) = P (a< X b) = P (a X b) .
Queste stesse probabilit`a possono dierire tra loro nel caso di X discreta.
Definizione Una variabile casuale X continua si dice uniformemente distribuita
o equidistribuita se la sua funzione densit`
a f (x) o, equivalentemente, la sua funzione di distribuzione F (x) sono cos` definite:
0
per x a
0
per x a
1
xa
f (x) =
F (x) =
per a< x< b .
per a< x< b ;
ba
ba
1
per x b
0
per x b
28
Esempio 1.4.5
f (x) =
1
2x
se 0 x 2
altrove
+
f (t)dt =
2
1
tdt
0 2
t 2 2
4 0
= 1,
0
x
x 1
F (x) =
f (t)dt =
2 tdt =
0
1
I grafici di f (x) e F (x) sono dunque i seguenti:
per x 0
x2
4
per 0 x 2
per x 2 .
La probabilit`
a richiesta `e P ( 12 < X < 1), che `e uguale allarea sottesa da f (x) per 12 x 1.
Trattandosi di un trapezio di altezza 12 e basi 14 e 12 , la sua area, e quindi la probabilit`
a
3
richiesta, `e 16
. Larea suddetta `e tratteggiata nel grafico di f (x).
F (x) =
f (t)dt =
x
0
(1 + t)dt
(1 + t)dt
2
= x2 + x + 12
x
+ 0 (1 t)dt
29
per x 1
1
2
x
2
per 1 x 0
+ x per 0 x 1
per x 1 .
+
P (X 0.5) = F (0.5) =
1
8
Questa probabilit`
a corrisponde allarea sottesa da f (x) fra 1 e 12 , ossia, come si vede dal
grafico, allarea di un triangolo di base 12 e altezza 12 .
zione:
0
1 x2
50
F (x) =
1 2
x + 25 x 1
50
1
a) quali sono i possibili valori della X ?
f (x) =
25 x
1
25
x
per x 0
per 0 x 5
2
5
per 5 x 10
per x 10 .
Riportiamo qui sotto i grafici della funzione di distribuzione e della funzione densit`
a della
variabile casuale X . Osserviamo che dal grafico di f (x) risulta evidente la simmetria della
distruibuzione rispetto ad x=5.
30
Questa probabilit`
a `e gi`
a stata calcolata nellesercizio 1.4.1 e vale 18 . Il numero approssimativo
delle bottiglie aventi contenuto inferiore a quanto richiesto `e dunque
1
8 1000
= 125 .
p
Esercizio 1.4.4 Si considerino le variabili casuali Y = 3X , Q = X 2 e R = X , dove X `e la
variabile casuale dellesercizio 1.4.2. Calcolare:
Si ha:
a) P (3 Y 21) ;
b) P (Q 64) ;
c) P (2 R 3) .
4
;
5
a)
b)
c)
p
33
.
P (2 R 3) = P (2 X 3) = P (4 X 9) = F (9) F (4) =
50
2
;
25
Osservato che mentre X assume il valore xi la variabile Y assume il valore x2i , ne consegue
che Y pu`
o assumere solo i valori 0, 1 e 4. Pi`
u precisamente Y assume il valore 0 quando X
assume il valore 0, il valore 1 quando X assume il valore -1 oppure 1, il valore 4 quando X
assume il valore -2 oppure 2. Per quanto riguarda, ad esempio, la probabilit`
a che Y assuma
il valore 1, essa sar`
a data dalla somma delle probabilit`
a che X assuma i valori -1 e 1, ossia:
P (Y =1) = P (X =1) + P (X =1). La variabile casuale X 2 sar`a dunque la seguente:
2
Y =X :
1
5
2
5
2
5
31
se X `e continua .
xf (x)dx ,
Osservazione: Nel caso discreto la media `e la somma dei valori xi moltiplicati per le
rispettive probabilit`a f (xi ) P (X =xi ). Essa rappresenta dunque la media ponderata
dei possibili valori di X, ciascuno pesato con la sua probabilit`a.
Esempio 1.5.1
S = f(i, j), i, j = 1, 2, 3, 4, 5, 6g .
Sia X la variabile aleatoria che assegna a ciascun evento elementare (i, j) il massimo fra i
e j . Allora linsieme immagine di X , cio`e linsieme di tutti i possibili valori che la X pu`
o
assumere, `e il seguente
X(S) = f1, 2, 3, 4, 5, 6g .
Tenendo conto che
1
P (X =1)=P f(1, 1)g = 36
,
3
P (X =2)=P f(1, 2)g + P f(2, 1)g + P f(2, 2)g = 36
,
e, generalizzando, essendo 2k 1 il numero degli eventi elementari f(i, j)g che hanno come
valore massimo k ,
2k 1
, k = 3, 4, 5, 6 ,
36
la variabile aleatoria X risulta cos` definita:
1 2 3
X:
1
3
5
P (X =k)=
36
36
36
7
36
9
36
11
36
X =
6
k=1
xk f (xk ) = 1
1
3
5
7
9
11
161
+ 2
+ 3
+ 4
+ 5
+ 6
=
4.47 .
36
36
36
36
36
36
36
32
Proposizione
`e la seguente:
E[g(X)] =
E[g(X)] =
g(xi )f (xi ) ,
se X `e discreta ,
g(x)f (x)dx ,
se X `e continua.
x2 f (x)dx ,
se X `e continua.
V ar(X) :=
(xi X )2 f (xi ) ,
(x X )2 f (x)dx ,
se X `e discreta ,
se X `e continua .
2
La varianza X
`e sempre non negativa. Esiste un unico caso in cui `e nulla. Questo
2
X
= E(X 2 ) 2X .
Facciamo la dimostrazione nel caso discreto. Nel caso continuo si proceder`a in maniera
del tutto analoga con integrali al posto di sommatorie. Ricordando la denizione di
33
X e che
i f (xi )=1,
2
X
=
i
i
i
si ottiene
(xi X )2 f (xi ) =
x2i f (xi )
2X
(x2i 2xi X + 2X )f (xi ) =
i
xi f (xi ) + 2X
f (xi ) =
aX+b = aX + b ,
Dimostrazione
Come nel caso del precedente teorema, proviamo anche questo nel caso discreto. La
variabile aleatoria aX + b `e la seguente:
ax1 + b ax2 + b ... axn + b ...
f (x1 )
f (x2 ) ... f (xn ) ...
Ricordando che i f (xi ) = 1, si ha immediatamente
aX+b =
(axi + b)f (xi ) = a
xi f (xi ) + b
f (xi ) = aX + b .
i
=a
i
(xi X ) f (xi ) =
2
a2 X
Corollario
E(X X ) = 0 .
Si ottiene immediatamente dallultimo teorema ponendo a=1 e b=X .
2
2
Corollario
aX
= a2 X
.
Si ottiene immediatamente dallultimo teorema ponendo b=0.
2
2
Corollario
X+b
= X
.
Si ottiene immediatamente dallultimo teorema ponendo a=1.
2
Definizione Sia X una variabile casuale con varianza X
> 0. Si chiama variabile
casuale standardizzata associata ad X la variabile casuale X cos` definita:
X X
X =
.
X
34
=
E(X) X = 0 ,
X
X
X
X
X
X
X
1 2
X
2
X
= V ar
= 2 X
= 1.
= V ar
X
X
X
X
Definizione Data una variabile aleatoria X , si chiama mediana di X un valore
x0 tale che
1
P (X < x0 ) P (X x0 ) .
2
Dalla denizione consegue immediatamente che, se F (x) `e la funzione distribuzione
di X, la mediana `e un punto x0 tale che F (x0 ) = 12 se un tale x0 esiste. In caso
contrario x0 `e un punto di discontinuit`a di F (x) tale che F (x) < 12 per x < x0 e
` anche facile constatare che vi possono essere pi`
F (x) > 12 per x x0 . E
u mediane;
pi`
u precisamente le mediane costituiscono un intervallo chiuso (che eventualmente si
riduce ad un punto).
I tre graci proposti qui sotto illustrano le tre situazioni pi`
u comuni: a) F (x) `e
continua in ogni x (e quindi associata ad una variabile casuale X continua con f (x)
continua 8x): esiste un unico x0 tale che F (x0 ) = 12 ; b) F (x) `e costante a tratti (e
quindi associata ad una variabile casuale X discreta), con F (x) 6
= 12 , 8x. In questo
caso, se F (x) assume i valori e con < 12 < , saltando da a nel punto x ,
allora x0 = x . c) F (x) `e costante a tratti , con F (x) = 12 , per x1 x < x2 : ogni
x 2 [x1 , x2 ] pu`o essere assunto come x0 .
1
3
5
7
9
11
791
+ 22 + 32 + 42 + 52 + 62
=
21.97 .
36
36
36
36
36
36
36
Ora, applicando il risultato precedentemente ricordato e utilizzando il valore di X trovato
E(X 2 ) =
i=1
x2i f (xi ) = 12
1.99 1.41 .
35
Esempio 1.5.3
f (x) =
altrove
Calcoliamo media e varianza (questultima in due modi: sia applicando la definizione che
attraverso il calcolo di E(X 2 )).
3 2
x
=
= 43 ,
6
0
2
4
2
+
2
= (x X )2 f (x)dx = 0 x 43 12 xdx = x8 49 (x3 x2 ) = 29 ,
0
4 2
+
2
x
2
= E(X 2 ) 2X = x2 f (x)dx 2X = 0 12 x3 dx 16
16
9 =
8
9 = 9 .
X =
2
X
2
X
+
xf (x)dx =
2
1
xxdx
0 2
Esercizio 1.5.1 Si eseguano tre lanci consecutivi di una moneta truccata in modo tale che
P (T ) = 34 . Sia X la variabile casuale che rappresenta il numero di teste ottenute nei tre
lanci. Si chiede di calcolarne la media, la varianza e la deviazione standard.
La variabile X pu`
o assumere i valori 0,1,2,3. Le probabilit`
a che X assuma ciascuno di questi
valori sono le seguenti:
P (X =0) = P (CCC) =
1 3
4
1
64
2
9
P (X =1) = P (T CC) + P (CT C) + P (CCT ) = 3 34 14 = 64
,
2
P (X =2) = P (T T C) + P (T CT ) + P (CT T ) = 3 34 14 = 27
64 ,
3 3
P (X =3) = P (T T T ) = 4 = 27
64 ,
0 1 2
La funzione di probabilit`
a di X `e dunque la seguente: X :
9
27
1
64
Avremo quindi:
64
64
3
27
64
1
9
27
27
9
X = 0
+ 1
+ 2
+ 3
= ;
64
64
64
64
4
2 1
2 9
9
9
9 2 27
9 2 27
9
2
X
= 0
+ 1
+ 2
+ 3
=
;
64
4
64
4
64
4
64
16
4
9
3
X =
= .
16
4
2
Per il calcolo della varianza si sarebbe potuto procedere anche utilizzando la relazione X
=
2
2
2
E(X ) x . In tal caso si sarebbe dovuto calcolare E(X ) ottenendo
E(X 2 ) = 02
1
9
27
27
45
+ 12
+ 22
+ 32
=
,
64
64
64
64
8
36
45 81
9
=
.
8
16
16
f (x) =
per x 0
25 x
1
x
25
per 0 x 5
2
5
F (x) =
per 5 x 10
per x 10 .
X =
xf (x)dx =
2
X
= E(X 2 ) 2X =
5
0
per x 0
2
50 x
1 2
x
50
per 0 x 5
2
x
5
1 per 5 x 10
per x 10 .
x3 5 x3
x2
2x
x2 10
+ +
= 5;
+
dx =
25
5
75 0
75
5 5
5
10 3
x
2x2
25
x3
dx +
+
dx 25 =
.
25
25
5
6
5
x2
dx +
25
10
Esercizio 1.5.3 Calcolare media, varianza e mediana di una generica variabile aleatoria
uniformemente distribuita.
Sia [a, b] lintervallo in cui la variabile aleatoria ha densit`
a non nulla. Ricordiamo che
xa
F (x) =
ba
per x a
1
f (x) =
ba
per x a
per a< x< b .
per x b
X =
xf (x)dx =
2
X
= E(X 2 ) 2X =
x
a+b
dx =
;
ba
2
a
+
x2 f (x)dx
(a + b)2
=
4
b
a
x2
(a + b)2
(b a)2
dx
=
.
ba
4
12
xa
1
= ,
ba
2
1
2,
cio`e lequazione
a+b
. Dunque, come peraltro facilmente intuibile, per ogni
2
variabile casuale uniformemente distribuita, media e mediana coincidono col punto medio
di (a, b).
che fornisce la soluzione x0 =
37
Dato uno spazio di probabilit`a (S, , P ), si dice variabile aleatoria bidimensionale una coppia di funzioni (X, Y ) che ad ogni s 2 S associa un coppia di numeri
reali X(s), Y (s) , tali che ogni insieme fs : X(s) a , Y (s) bg sia un evento
contenuto in .
Anche nel caso di variabili casuali bidimensionali lo strumento essenziale per il loro
utilizzo `e la funzione distribuzione, la cui denizione si ottiene immediatamente generalizzando quella per variabili unidimensionali. Infatti, si ha
Definizione
Data una variabile aleatoria bidimensionale (X, Y ) definita sullo spazio di probabilit`a (S, , P ), si chiama funzione di distribuzione o di ripartizione ad essa
associata la funzione F : R2 ! [0, 1] cos` definita:
F (x, y) = P (X x, Y y) ,
(x, y) 2 R2 .
La virgola nella probabilit`a appena scritta equivale ad una intersezione. Per favorire la
comprensione del signicato della F (x, y), ne ricordiamo tutte le possibili espressioni:
F (x, y) = P (X x, Y y) =
= P s 2 S : X(s) x, Y (s) y =
= P (X x) \ (Y y) =
= P s 2 S : X(s) x \ s 2 S : Y (s) y .
x+
y+
x+
y+
38
Eventuali coppie (xr , ys ) con prs =0 possono rappresentare coppie di valori mai assunti
dalla variabile casuale, che per`o per comodit`a sono presi ugualmente in considerazione
assegnando loro probabilit`a nulla.
Si chiama funzione di probabilit`
a congiunta la funzione
prs
se (x, y) = (xr , ys ) r = 1, 2, . . . , s = 1, 2, . . .
,
f (x, y) =
0
altrove
mentre si chiamano funzioni di probabilit`
a marginali le funzioni
pr = s prs
se x = xr
fX (x) =
,
0
altrove
ps = r prs
se y = ys
fY (y) =
.
0
altrove
Nel caso di una variabile aleatoria (X, Y ) discreta nita, supposto r = 1, 2, . . . , N e
s = 1, 2, . . . , M , le funzioni di probabilit`a congiunta e marginali vengono rappresentate
attraverso la seguente tabella:
y2
Y
.........
yM
p11
p21
...
...
pN 1
p12
p22
...
...
pN 2
.........
.........
.........
.........
.........
p1M
p2M
...
...
pNM
p1
p2
.........
pM
y1
x1
x2
...
...
xN
p1
p2
...
...
pN
Una variabile bidimensionale (X, Y ) `e continua se esiste una funzione f (x, y), non
negativa, tale che
x y
F (x, y) =
f (u, v)dudv .
39
che costituisce la condizione perche una funzione f (x, y) 0 sia una funzione densit`a.
Si pu`o poi dimostrare che le funzioni di distribuzione marginali sono date da
x +
FX (x) =
f (u, v)dv du ,
FY (y) =
y +
f (u, v)du dv ,
Sia A un sottinsieme di R2 tale che linsieme s : X(s), Y (s) 2 A sia un evento di
. Un importante teorema riguardante la funzione densit`a congiunta `e il seguente:
Teorema
(senza dimostrazione)
P (X, Y ) 2 A =
f (x, y) dx dy .
Un corollario, molto utile ai ni della risoluzione degli esercizi (come si vedr`a nellesercizio 1.6.4), segue in maniera immediata dal teorema appena enunciato:
Corollario Siano (X, Y ) una variabile casuale bidimensionale, f (x, y) la sua funzione densit`a congiunta, (X, Y ) una variabile casuale funzione di X e Y , e B un
boreliano di R. Vale la relazione
P (X, Y ) 2 B =
f (x, y) dx dy ,
con
A = (x, y) : (x, y) 2 B .
A
La dimostrazione `e immediata:
P (X, Y ) 2 B = P s : X(s), Y (s) 2 B =
= P s : X(s), Y (s) 2 (x, y) : (x, y) 2 B
=
= P s : X(s), Y (s) 2 A .
N
M
(xr , ys ) prs
r=1 s=1
+ +
Corollario
Corollario
N
k=1
N
k Xk = k=1 k E[Xk ] .
40
se X e Y sono continue.
X,Y =
X,Y =
N
M
(xr X )(ys Y )prs ,
r=1 s=1
+ +
Teorema
Dimostrazione
se X e Y sono continue.
X,Y = XY X Y .
X,Y = E (X X )(Y Y ) = E XY X Y Y X + X Y =
= E(XY ) X E(Y ) Y E(X) + X Y = XY X Y .
Teorema
2
2
XY
= X
+ Y2 2X,Y .
Dimostrazione
2
2
2
= E (X X ) (Y Y )
=
XY
= E (X Y ) (X Y )
2
2
2
2
= E (X X ) + (Y Y ) 2(X X )(Y Y ) = X + Y 2X,Y .
Il teorema appena dimostrato per due variabili casuali, si pu`o facilmente generalizzare
alla somma di n variabili Xi :
n
n
Teorema
V ar
Xi =
V ar Xi +2
Cov Xi , Xk .
(senza dimostrazione)
Teorema
i=1
i=1
i=1,...,n1
k=i+1,...,n
2
2 2
X,Y
X
Y .
(senza dimostrazione)
8x, y 2 R .
(senza dimostrazione)
8 A , B Boreliani .
(senza dimostrazione)
CNS perch`e due variabili aleatorie X e Y discrete siano indipendenti `e che sia
P (X =xr , Y =ys ) = P (X =xr ) P (Y =ys ) .
41
Teorema
(senza dimostrazione)
CNS perch`e due variabili aleatorie X e Y continue siano indipendenti `e che sia
f (x, y) = fX (x) fY (y) .
Teorema
Dimostrazione
Facciamo la dimostrazione nel caso discreto. Sfruttando il teorema precedentemente
enunciato per variabili casuali discrete si pu`o scrivere:
XY =
r
r
xr ys P (X =xr , Y =ys ) =
xr P (X =xr )
s
r
xr ys P (X =xr ) P (Y =ys ) =
ys P (Y =ys ) = X Y .
Dalla relazione appena dimostrata, applicando i due teoremi dimostrati alla pagina
precedente, seguono immediatamente le due relazioni del corollario che segue.
Corollario Date due variabili casuali X e Y indipendenti, valgono le relazioni
i) X,Y = 0 ;
2
2
ii) XY
= X
+ Y2 .
In virt`
u della denizione di variabili incorrelate, dal teorema relativo alla varianza
della somma di n variabili casuali, segue immediatamente il seguente
Corollario Se X1 , X2 , . . . , Xn sono n variabili casuali incorrelate, allora la varianza
della loro somma `e uguale alla somma delle loro varianze, vale a dire
V ar X1 + X2 + + Xn = V ar(X1 ) + V ar(X2 ) + + V ar(Xn ) .
42
Esercizio 1.6.1 Da unurna contenente due palline bianche, una nera e due rosse, si estraggono una dopo laltra con reimmissione due palline. Sia X1 la variabile casuale che descrive
lesito della prima estrazione e X2 quella che descrive lesito della seconda estrazione. Ciascuna delle due variabili assume valore 1 se la pallina estratta `e bianca, valore 0 se `e nera
o rossa. Si chiede di descrivere le leggi di probabilit`
a congiunta e marginali, calcolare la
covarianza e il coefficiente di correlazione.
Essendo lestrazione con reimmissione, gli esiti delle due estrazioni sono eventi indipendenti
e quindi si ha
0
X1
X2
3 3
5 5
3 2
5 5
3
5
2 3
5 5
2 2
5 5
2
5
3
5
2
5
2
2
Andiamo ora a calcolare le medie X1 , X2 e X1 X2 , le varianze X
e X
. Una volta
1
1
ottenuti questi valori, attraverso i teoremi visti calcoleremo immediatamente la covarianza
X1 ,X2 e il coefficiente di correlazione X1 ,X2 .
3
2
2
X1 = X2 = 0 + 1 = ;
5
5
5
2 3
2
2 2 2
6
2
2
=
=
0
+
1
=
;
X
X2
1
5
5
5
5
25
9
6
6
4
4
X1 X2 =
x1r x2s prs = 00
+ 01
+ 10
+ 11
=
;
25
25
25
25
25
r,s
X1 ,X2 = X1 X2 X1 X2 =
4
2 2
= 0;
25 5 5
X1 ,X2 =
X1 ,X2
= 0.
X1 X2
43
X2
0
X1
3 2
54
3 2
54
3
5
2 3
54
2 1
54
2
5
3
5
2
5
3
2
2
X1 = X2 = 0 + 1 = ;
5
5
5
2 2 3
2 2 2
6
2
2
X 1 = X 2 = 0
+ 1
=
;
5
5
5
5
25
6
6
2
1
6
X1 X2 =
+ 01
+ 10
+ 11
=
;
x1r x2s prs = 00
20
20
20
20
10
r,s
X1 ,X2 = X1 X2 X1 X2 =
X1 ,X2 =
1
2 2
3
= ;
10 5 5
50
X1 ,X2
1
= .
X1 X2
4
Il fatto che la media e la varianza delle variabili singole siano le stesse dellesercizio precedente non deve sorprendere: le distribuzioni marginali non sono cambiate. Giova piuttosto
osservare che ora le variabili X e Y non sono indipendenti e, essendo X1 ,X2 6
= 0, neppure
incorrelate.
Esercizio 1.6.3 Unurna contiene 112 dadi di cui 56 (cio`e la met`a) sono equi, mentre gli altri
sono stati manipolati in modo che, per ciascuno di essi, la probabilit`
a di ottenere 1 sia 12 ,
1
mentre ogni altro risultato si verifica con probabilit`
a 10 . Si chiede:
a) Un dado viene estratto a caso e lanciato; indichiamo con X la variabile aleatoria che
rappresenta il risultato del lancio. Qual `e la probabilit`
a di ottenere 3? Quanto vale E(X)?
b) Un dado viene estratto a caso e lanciato due volte. Indicato con X il risultato del primo
lancio e con Y quello del secondo, qual `e la probabilit`
a di ottenere X =2 e Y =3?
c) Sapendo che i due lanci hanno dato come risultato X =2 e Y =3, qual `e la probabilit`
a
che si tratti di uno dei dadi truccati?
d) Le variabili casuali X e Y sono indipendenti?
44
a) Le probabilit`
a con cui la variabile aleatoria X assume i valori 1, 2, ..., 6 dipendono dal
fatto che il dado estratto sia oppure no equo. Indicato con A levento il dado estratto `e
equo e quindi con AC levento il dado estratto `e alterato, si ha
XjA :
1
6
1
6
1
6
1
6
1
6
1
6
XjA :
1
2
1
10
1
10
1
10
1
10
1
10
X:
Si ha dunque P (X =3) =
2
15
1
3
2
15
2
15
2
15
2
15
2
15
k=1
k P (X =k) = 3.
P (X =j, Y =k) = P (X =j, Y =k)jA P (A) + P (X =j, Y =k)jAC P (AC ) =
1
1
= P (X =jjA) P (Y =kjA) + P (X =jjAC ) P (Y =kjAC ) .
2
2
In particolare
1
1
P (X =2, Y =3) = P (X =2jA) P (Y =3jA) + P (X =2jAC ) P (Y =3jAC ) =
2
2
1 1 1
1 1 1
17
=
.
= +
6 6 2 10 10 2
900
Volendo, anche se non richiesto dallesercizio, calcolare e mostrare la tabella completa che
rappresenta la funzione di probabilit`
a congiunta della variabile aleatoria (X, Y ), abbiamo:
5
36
7
180
7
180
7
180
7
180
7
180
1
3
7
180
17
900
17
900
17
900
17
900
17
900
2
15
7
180
17
900
17
900
17
900
17
900
17
900
2
15
7
180
17
900
17
900
17
900
17
900
17
900
2
15
7
180
17
900
17
900
17
900
17
900
17
900
2
15
7
180
17
900
17
900
17
900
17
900
17
900
2
15
1
3
2
15
2
15
2
15
2
15
2
15
c) Indicato con B levento fX =2, Y =3g, ci si chiede ora P (AC jB). Utilizzando la formula
di Bayes, otteniamo
P (AC jB) =
P (BjAC ) P (AC )
=
P (B)
45
1
10
1
10
17
900
1
2
9
.
34
d) Perch`e due variabili aleatorie X e Y siano indipendenti (vedi pag. 36) deve essere
4
225
1
1
b) P XY < X >
.
4
2
Essendo X e Y uniformi ed indipendenti sullintervallo [0, 1], la variabile congiunta (X, Y )
ha una funzione densit`
a f (x, y) data dal prodotto delle funzioni densit`
a di X e Y . Di
conseguenza, indicato con Q il quadrato (0, 1) (0, 1), si ha:
0 se (x, y) 2
/Q
f (x, y) =
.
1 se (x, y) 2 Q
1
a) P XY >
;
2
P (X, Y ) 2 B =
f (x, y) dx dy ,
con
P (XY 2 B) =
f (x, y) dx dy =
dx dy ,
AQ
A = (x, y) : (x, y) 2 B .
con
A = (x, y) : xy 2 B .
1 1
1
P XY >
=
dx dy =
dx
dy =
1
1
2
AQ
2
2x
1
1
1
=
1
dx = (1 loge 2) .
1
2x
2
2
b) Per calcolare la probabilit`
a richiesta in questo punto, si procede analogamente a quanto
fatto per il punto a) tenendo per`
o conto che si tratta di una probabilit`
a condizionata:
1
1 P [XY < 14 , X > 12 ]
P XY < X >
=
.
4
2
P [X > 12 ]
Posto A = (x, y) : xy < 14 , x> 12 , si ha quindi
1
1 4x
1
1
A Q dx dy
=
P XY < X >
=2
dx
dy =
1
1
4
2
0
2
2
1
1
1
=2
dx = loge 2 .
1 4x
2
2
46
qn
npq n1
n!
p2 qn2
2!(n 2)!
...
...
n2
n!
pn2 q 2
(n 2)!2!
n1
npn1 q
n
pn
Spesso, piuttosto di dire che abbiamo una variabile aleatoria X binomiale, parleremo
di distribuzione binomiale. Qualche volta, poi, per indicare una variabile aleatoria
X binomiale di parametri n e p scriveremo X ' B(n, p).
47
Teorema
(senza dimostrazione)
X = np ,
p nk
P (X = k) .
1p k+1
1
2
1 5
5 1 2 1 3
5
P (X =2) =
= 10
=
;
2 2
2
2
16
31
5 1 0 1 5
=
P (X 1) = 1 P (X =0) = 1
;
0 2
2
32
2 k 5k
1
1
1
1
1
5 1
=
+5
+ 10
= .
P (X 2) =
2
32
32
32
2
k 2
k=0
Esercizio 1.7.2 Sia p = 98% la probabilit`a che un test diagnostico su una persona dia una
risposta corretta. Si chiede qual `e la probabilit`
a che eseguendo il test su un gruppo di 7
individui esso dia una risposta corretta per (i) tutti 7; (ii) almeno 6; (iii) meno della met`
a.
Indichiamo con X la variabile aleatoria binomiale che rappresenta il numero delle diagnosi
veritiere sulle 7 eseguite. Si ha
987
7
98 7 2 0
P (X =7) =
= 1
0.868 ;
100
1014
7 100
7
98 6 2 1
7
98 7 2 0
P (X 6) =
+
0.124 + 0.868 = 0.992 ;
6 100
100
7 100
100
3
7
98 k 2 7k
P (X 3) =
0.53105 .
k 100
100
k=0
48
Esempio 1.7.1
Y =
p
npq =
90
1
250 100
10
=
p
22.5 4.74 .
Questo esempio mostra come il concetto di media coincida col concetto intuitivo di valore
pi`
u probabile, e quindi di valore atteso. La deviazione standard (o scarto quadratico
medio) fornisce invece un indice (ce ne sono diversi) della dispersione dei risultati attorno al
valore atteso quando lesperimento `e compiuto tante volte.
Esercizio 1.7.3 (a) Due ristoranti sono in concorrenza avendo gli stessi 10 clienti. Si supponga che i clienti scelgano a caso ed indipendentemente uno dallaltro il ristorante, e che
arrivino al ristorante tutti alla stessa ora. Si chiede di determinare il numero di posti a sedere che ciascun ristorante dovrebbe avere perche ci sia almeno il 95% di probabilit`
a di poter
servire tutti i clienti che arrivano. (b) Risolvere lo stesso problema per tre ristoranti.
(a) Se X `e la variabile casuale che rappresenta il numero di clienti che arrivano ad uno stesso
ristorante, X ha chiaramente una distribuzione
binomiale, vale a dire si ha
P (X =i) =
10
i
pi (1 p)10i .
Inoltre, nel caso in questione, poich`e la scelta del ristorante da parte di ogni cliente `e casuale,
si ha p = q = 12 . Il numero di posti che garantisce con una probabilit`
a di almeno il 95% di
poter servire tutti i clienti che arrivano `e dato dal minimo k tale che
S6 =758
S7 =968
il minimo k che soddisfa la relazione `e 8.
S8 =1013
S9 =1023
S10 =1024 ,
P (X k) =
o, equivalentemente,
i=0
10 1 i 2 10i
k
i=0
10i
1 10 k
3
i=0
210i
10
i
0.95 ,
10
310 0.95 = 56096.55 .
i
4 =46464
5 =54528
6 =57888
7 =58848
.
Il minimo k per cui risulta soddisfatta la relazione `e dunque 6. Nel caso di tre ristoranti
bastano quindi 6 posti a sedere per avere la probabilit`
a di almeno il 95% di poter servire i
clienti che arrivano.
49
DISTRIBUZIONE DI POISSON
Definizione Una variabile aleatoria X `
e detta variabile aleatoria di Poisson con
parametro (> 0) se pu`o assumere gli infiniti valori k = 0, 1, 2, ... con probabilit`a
P (X =k) = f (k) =
k
e ,
k!
Rappresentata in forma esplicita, una variabile aleatoria di Poisson `e dunque del tipo
X:
0
e
1
e
2
e
2!
3
e
3!
...
...
k
k! e
k
...
...
k=0
essendo
Teorema
x
k=0 k!
k!
=e
+ k
k=0
k!
= e e+ = 1 ,
(senza dimostrazione)
P (X =k + 1) =
P (X =k) .
k+1
Esempio 1.7.2
P (X 2) =
+
(0.5)k
k=2
k!
Esempio 1.7.3
P (X =0) = e5 0.007 ;
52 5
P (X 2) = 1 + 5 +
e .125 ;
2!
52
53
54 5
P (X 5) = 1 P (X 4) = 1 1 + 5 +
+
+
e 0.560 .
2!
3!
4!
Esempio 1.7.4
Si desidera determinare la carica batterica di un campione di latte. Per valutare il numero
di batteri in una sospensione se ne cerca la diluizione limite alla quale si trova ancora almeno
un batterio capace di riprodursi. Supponiamo, ad esempio, di diluire 1 cm3 di latte prima
di un fattore 101 , poi 102 , quindi 103 e infine 104 , trovando in ogni caso, dopo
incubazione, sviluppo dei batteri. Supponiamo invece che diluendo di un fattore 105 , si
trovi che il campione di 1 cm3 risulti sterile. Ci`
o permette di concludere che nel campione
di 1 cm3 diluito 104 volte vi era almeno un germe capace di riprodursi, e quindi che quel
latte conteneva circa 104 germi per cm3 .
Volendo raffinare lapprossimazione della carica batterica presente nel latte in esame, inoculiamo la sospensione diluita di un fattore 104 in 20 provette, mettendone 1 cm3 in ciascuna.
Supponiamo di trovare che 8 di esse mostrano crescita, mentre le altre 12 risultano sterili.
La distribuzione di Poisson permette di prevedere che, se vi sono in media germi per
cm3 di diluito, il numero di provette che non riceveranno alcun germe (cio`e sterili) risulter`a
proporzionale a P (X =0) = e . Avremo dunque
e =
12
20
= 0.6 ,
da cui
52 5
P (X < 3) = P (X =0) + P (X =1) + P (X =2) = 1 + 5 +
e 0.1247 .
2
p = P (X =4) =
la probabilit`
a cercata `e data da
P (Y =3) =
5
3
54 5
e 0.1755 ,
4!
se la funzione densit`a `e
f (x) =
1
2
2
p
e(x) /2 .
2
Come gi`a sappiamo, questa uguaglianza, la cui dimostrazione viene omessa, dice che
f (x) `e eettivamente una densit`a di probabilit`a.
Teorema
E(X) = ,
V ar(X) = 2 .
Il fatto che la media di X sia `e una ovvia conseguenza della simmetria del graco
della densit`a rispetto ad x = . Omettiamo, per semplicit`a, di dimostrare che la
52
2
2
1
p
e(t) /2 dt.
2
x
F (x) =
.
Dimostrazione. Essendo
x
x
2
2
1
1
(t)2 /22
p
p
F (x) =
e
dt lim
e(t) /2 dt ,
R R 2
2
t
ponendo
= u, si ha dt = du , e quindi
x
x
x
2
1
1
u2 /2
p
p eu /2 du
F (x) = lim
e
du =
.
R R 2
53
Questo teorema risulta di grande utilit`a pratica. Infatti, una volta tabulata la (x),
il cui graco ha landamento mostrato nella gura sottoriportata, attraverso le tavole ottenute `e possibile ottenere anche i corrispondenti valori per una qualunque
variabile normale. Le tavole di (x) sono fornite alla ne di queste dispense.
Essendo
P (a X b) = F (b) F (a) =
si ha
b
a
volta, per`o, nelle applicazioni `e data una probabilit`a (spesso assegnata come percentuale) e si cerca il numero x tale che (x)=. Questo numero x `e spesso denotato
n
con e chiamato quantile relativo ad , ovvero percentile nesimo se =
.
100
Nellambito di applicazioni in cui sono assegnate come dati le probabilit`a, pu`o poi
essere utile ricordare le seguenti approssimazioni
P ( 1.96 < X < + 1.96) 95% ;
P ( 2.58 < X < + 2.58) 99% .
Nella determinazione di probabilit`a attraverso le tavole di N (0, 1), talvolta anche
considerazioni geometriche sulle aree sottese dal graco della densit`a possono essere
di grande aiuto. Una relazione estremamente utile, che permette di limitare la tabulazione dei valori della funzione distribuzione (x) ad x > 0, deducibile in modo
immediato dalla simmetria della funzione densit`a rispetto allasse y, `e la seguente:
(x) = 1 (x) .
54
Esercizio
p 1.7.5 Consideriamo la variabile aleatoria X ' N (0.8; 4). Essendo = 0.8 e
= 4=2, andiamo a calcolare a modo di esempio alcune probabilit`a.
P (X 1.16) = [(1.16 0.8)/2] = (0.98) = 1 (0.98) 16.35% ;
P (X 1) = 1 [(1 0.8)/2] = 1 (0.1) 46.02% ;
P (2 X 3) = [(3 0.8)/2] [(2 0.8)/2] = (1.1) (0.6) 13.86% .
Esercizio 1.7.6 Si consideri la variabile casuale X ' N (2; 0.25). Si chiede di determinare
c 2 R tale che
(a) P (X c) = 20% ;
(b)
Essendo =2 e =
(a)
(b)
P (2 c X 2 + c) = 90%.
0.25=0.5, si ha:
c + 2
= 0.2,
da cui
2(c + 2) = 0.8.
P (X c) = 1 F (c) = 1
0.5
Dalle tavole della legge N(0, 1) si ricava: 2(c + 2) 0.84
=) c 1.58.
2 + c + 2
2 c + 2
P (2 c X 2 + c) =
=
0.5
0.5
= (2c) (2c) = 0.9.
Essendo (2c) (2c) = (2c) (1 (2c)) = 2(2c) 1,
(2c)=0.95,
55
2c 1.64,
e quindi:
deve essere
c 0.82.
Esercizio 1.7.7 Il voto ad una prova dingresso `e distribuito normalmente. Solo il 10% dei
candidati, quelli con punteggio migliore, verr`
a assunto. Ad esame finito, il voto medio risulta
72 e la deviazione standard 9. Qual `e il voto minimo c che un candidato deve ottenere per
essere assunto?
Essendo = 72 e = 9, deve essere
P (X c) = 1
c
1
10
da cui
c 72
9
9
.
10
c 72
1.29 ,
9
cio`e
c 83.61 ,
V ar(Sn ) = n 2 .
X1 + ... + Xn n
p
n
aerma questo: un eetto casuale che sia la risultante di molti eetti aleatori, ciascuno
dei quali dia solo un piccolo contributo alleetto nale, segue approssimativamente
una legge normale. Ad esempio, si assume spesso che un errore di misurazione segua
una legge normale. Infatti, in assenza di errore sistematico, `e ragionevole pensare che
la discrepanza tra il valore vero e quello misurato sia la risultante di numerosi piccoli
errori che si sono sovrapposti. Spesso lesperienza conferma la validit`a di questa
approssimazione.
Dunque, il teorema di limite centrale giustica lapprossimazione nella pratica della
legge Sn con una N (0, 1). Generalmente si considera che la soglia di applicabilit`a
(cio`e il minimo n a partire dal quale lapprossimazione si pu`o ritenere valida) sia
per n compreso tra 30 e 50. Occorre per`o osservare che questa soglia `e da ritenersi
appropriata per la maggior parte delle distribuzioni che si incontrano nella pratica,
ma non per tutte indistintamente. Nel caso in cui si ha Xi ' B(1, p), lesperienza
mostra che lapprossimazione `e soddisfacente quando sono soddisfatte entrambe le
condizioni np 5 e n(1 p) 5. Quindi, nel caso di valori di p estremi, cio`e molto
prossimi a 0 o 1, il valore necessario di n pu`o essere molto grande.
Lapprossimazione con la legge normale si basa sulla relazione seguente:
x n
x n
p
P X1 + X2 + + Xn x = P Sn p
'
,
n
n
dove indica, come gi`a visto, la funzione di distribuzione di N (0, 1). Facendo riferimento a questa relazione parleremo sempre di approssimazione normale.
Nel caso di variabili casuali Xi a valori interi, `e naturale che il numero x che compare nella relazione appena scritta sia esso pure un intero. Denotandolo con k per
evidenziare questo fatto, in generale `e conveniente riscrivere la relazione nel modo
seguente:
1
kn+ 12
P X1 + X2 + + Xn k +
'
,
n
2
2
2
k + 1 n
k 1 n
2p
2p
.
n
n
Fra i casi in cui conviene applicare lapprossimazione normale in questo modo rientra
certamente il caso delle prove di Bernoulli. Infatti se Y `e il numero di successi in n
prove indipendenti, si ha Y = X1 + ... + Xn , dove ciascun Xi ' B(1, p) `e la variabile
aleatoria relativa alla singola iesima prova. In tal caso, essendo
57
E(Xi )=p ,
V ar(Xi ) = pq ,
lapprossimazione migliore in generale sar`a
k + 1 np
P (Y k)
.
p2
npq
Esercizio 1.8.1
Qual `e la probabilit`
a di ottenere almeno 29 teste in 50 lanci di una moneta
equilibrata?
Si tratta
di calcolare P (X1 + X2 + + X50 ) 29, con le Xi indipendenti e del tipo
B 1, 12 . Essendo Xi = 12 e Xi = 12 , si ha
0.5 50
12.5
1 (0.99) 1 0.84 = 0.16 .
Occorre osservare che questo risultato `e assia preciso. Se avessimo fatto il calcolo utilizzando
la formula con k anzich`e quella con k + 12 , avremmo ottenuto una approssimazione assai
peggiore. Infatti:
0.5 50
12.5
1 (0.85) 1 0.80 = 0.20 .
Esercizio 1.8.2 Determinare la probabilit`a di ottenere pi`u di 25 sette in 100 lanci di una
coppia di dadi equi.
La variabile aleatoria Y = numero di sette nellambito di 100 lanci pu`
o essere definita
6
come X1 + X2 + + X100 , con ciascuna Xi ' B(1, 16 ), essendo p= 36
, in quanto sono 6
i risultati che danno sette sui 36 possibili esiti del lancio di due dadi. Si ha dunque
Xi =p= 16 ,
5
2
X
=pq = 36
.
i
P (Y 26) = 1 P (Y 25) 1
25.5 100 16
5
6 10
5.3
= 1 p 1 (2.37) 0.01 .
5
58
Esercizio 1.8.3 Un segnale consiste in una parola di 1000 bit, ciascuno dei quali pu`o assumere i valori 0 oppure 1. Nel corso della trasmissione del segnale ogni bit pu`
o essere distorto
con probabilit`
a p=0.01. Si chiede: qual `e la probabilit`
a che un segnale contenga almeno 10
bit distorti?
Sia Xi ' B(1, p) la variabile aleatoria che dice se liesimo bit del segnale `e distorto
oppure no. Dobbiamo determinare P (X1 + X2 + + X1000 10). Osservato che np=10,
per cui n `e sufficientemente grande da rendere affidabile una approssimazione alla normale,
procediamo in tal senso.
10000.010.99
9.9
1 (0.159) = (0.159) 0.564 = 56.4% .
Esercizio 1.8.4 Nella trasmissione di unimmagine ogni bit viene distorto con probabilit`a
0.0002. Ne consegue che il colore di un pixel, che `e rappresentato da un byte, cio`e da una
8-pla di bit, resta integro con probabilit`
a q =0.9984 (in realt`
a, essendo q = (0.0002)8 , se si
fanno i calcoli, ci si accorge che questo `e un valore approssimato). Sapendo che unimmagine
`e composta da 512256 = 131072 pixel, quali sono le probabilit`
a che vi siano (a) almeno
190 pixel distorti; (b) almeno 210; (c) almeno 230?
Indicata con Xi ' B(1, p), p = 0.0016, la variabile che dice se liesimo pixel `e oppure
no distorto, si deve approssimare P (X1 + X2 + + X131072 k), con k = 190, k = 210
e k =230. Poich`e np 210, n `e certamente tale da consentire una buona approssimazione
mediante la normale. Si ha quindi
1310720.00160.9984
20.215
1
1 (1.398)
14.464
(1.40) 0.919 = 91.9% ;
P (X1 + X2 + + X131072 210) = 1 P (X1 + X2 + + X131072 209)
209.5 209.715
1
1 (0.015)
14.464
= (0.015) 0.506 = 50.6% ;
P (X1 + X2 + + X131072 230) = 1 P (X1 + X2 + + X131072 229)
229.5 209.715
p
1
1 (1.37)
14.464
1 0.915 = 0.085 = 8.5% .
59
Esercizio 1.8.5
E(Xi ) =
a+b
= 0,
2
V ar(Xi ) =
(b a)2
1020
=
.
12
12
1
1
10k X1 + X2 + + X106 10k .
2
2
106
Posto per comodit`
a Y = i=1 Xi , la probabilit`
a richiesta nella domanda (a), approssimata
con la normale, risulta quindi
7
107
1
102
1 7
7
2
P 10 Y 10 )
=
20
2
2
1020
6
10 12
106 1012
p
p
= 3 3 (1.73) (1.73)
Per quanto riguarda poi la domanda (b), procedendo esattamente allo stesso modo, si ha
108
108
1
1 8
8
2
P 10 Y 10 ) 2
=
20
2
2
1020
6
6
10 12
10 1012
p
p
3
3
=
(0.173) (0.173)
10
10
2(0.173) 1 20.568 1 = 0.114 = 11.4% .
60
Esercizio 1.8.6 Si sa che esistono in circolazione dei dadi truccati in modo tale da produrre
il 6 con probabilit`
a 29 . Ci si pone il problema di stabilire se un dato dado `e truccato oppure
no. La procedura adottata `e la seguente: il dado viene lanciato 900 volte, e se il 6 esce
almeno 180 volte, si decide che il dado `e truccato. Ci si chiede: qual `e la probabilit`
a che un
dado che viene assunto come truccato lo sia effettivamente?
Sia Xi ' B(1, p = 29 ) la variabile aleatoria che dice se alliesimo lancio esce il 6 oppure no.
La probabilit`
a da calcolare, posto per comodit`
a X = X1 + X2 + + X900 , `e P (X 180).
Valutiamo tale probabilit`
a approssimandola con la normale. Si ha:
179.5 900 29
P (X 180) = 1 P (X 179) 1
=
900 29 79
20.5
= 1 10 p
1 (1.64) = (1.64)
14
3
0.95 = 95% .
Dunque, `e lecito aspettarsi che nel 95% dei casi il test adottato dia la risposta giusta.
Ci si potrebbe anche chiedere: qual `e la probabilit`
a che il 6 esca almeno 180 volte se il dado
non `e truccato? In tal caso, indicata con Yi ' B(1, 16 ) la variabile aleatoria che descrive
lesito delliesimo lancio di un dado equo, e posto Y = Y1 + Y2 + + Y900 , si ha
179.5 900 16
P (Y 180) = 1 P (Y 179) 1
=
900 16 56
29.5
=1 p
1 (2.64) 0.004 = 0.4% .
5 5
61
0
ex
per x< 0
.
per x 0
` facile vericare (si consiglia di farlo come esercizio) che f (x) `e eettivamente una
E
densit`a e che la funzione distribuzione di X vale
0
per x< 0
F (x) =
.
x
1e
per x 0
Teorema Una variabile aleatoria X a distribuzione esponenziale con parametro
ha media e varianza date da
1
1
= ,
2 = 2 .
Dimostrazione
Si ha infatti:
+
+
+ +
1
x
x
=
xf (x)dx =
xe
dx = xe
+
ex dx = ;
0
0
+
+
1
1
x2 f (x)dx 2 =
x2 ex dx 2 =
2 = E(x2 ) 2 =
0
+ +
1
1
1
1
= x2 ex
+
2xex dx 2 = 2 2 2 = 2 .
0
0
Le variabili aleatorie con distribuzione esponenziale hanno notevole interesse applicativo in quanto utilizzabili per rappresentare diversi fenomeni che si incontrano nelle
osservazioni scientiche o nelle applicazioni tecnologiche. Di solito esse rappresentano
62
Una propriet`a caratteristica delle variabili casuali esponenziali `e che non hanno
memoria. Questo fatto, che non dimostreremo, matematicamente `e espresso dalla
seguente relazione fra probabilit`a:
P (X > s + t j X > s) = P (X > t) .
Ci`o signica che se X `e il tempo dattesa no al primo guasto di una data apparecchiatura, questo tempo non dipende dal fatto che lapparecchiatura abbia gi`a funzionato
per un dato tempo s. In altre parole, la distribuzione di probabilit`a di X non dipende
dallistante iniziale.
Esercizio 1.9.1 Il numero di chilometri (misurato in migliaia) che un dato pneumatico pu`o
percorrere prima di deteriorarsi `e rappresentabile con una variabile aleatoria X avente distribuzione esponenziale con parametro =0.05. Determinare la probabilit`
a che un pneumatico
di questo tipo duri (i) almeno 30 Km; (ii) tra i 35 e i 40 km.
Si ha
fXi =
per x< 0
1 18 x
8e
per x 0
Esercizio 1.9.3 Una lampada ha un tempo di vita che segue una legge esponenziale di media
uguale a 10 giorni. Non appena smette di funzionare essa viene sostituita con una nuova.
Qual `e la probabilit`
a che 40 lampade siano sufficienti per un anno?
Indicata con Xi la durata della lampada iesima, possiamo supporre le Xi indipendenti e
1
con legge esponenziale di parametro = 10
. Poiche nel caso di una variabile aleatoria di
a richiesta,
tipo esponenziale si ha 2 = 12 = 2 , abbiamo dunque = =10. La probabilit`
approssimata mediante la normale, diventa quindi
10 40
20 10
1 (0.55) = 1 1 (0.55) =
= (0.55) 0.71 .
DISTRIBUZIONE IPERGEOMETRICA
Definizione Una variabile aleatoria discreta X ha una distribuzione ipergeometrica di parametri (interi) N , M ed n, con n M N , se ha la seguente funzione
di probabilit`a:
P (X =k) = f (k) =
M NM
k
Nnk
k = 0, 1, . . . , n .
Teorema
(senza dimostrazione)
N =10 ;
M =3 ;
n=2 ;
k = 0, 1, 2 . E di conseguenza:
37
7
P (k =0) = f (0) = 0102 =
,
15
2
37
7
P (k =1) = f (1) = 1101 =
,
15
2
3
7
1
2 0
P (k =0) = f (2) = 10 =
.
15
2
3
(b) Ricordando la distribuzione binomiale, essendo p= M
N = 10 , q =
49
2 0 2 7 2
=
P (k =0) = f (0) =
p q =
,
0
10
100
42
2 1 1
3 7
=
,
P (k =1) = f (1) =
p q =2
10 10
100
1
2 2 0 3 2
9
P (k =0) = f (2) =
p q =
.
=
2
10
100
7
10 ,
si ha
Esempio 1.9.2
2
k=0
4080040
k
150k
800
150
5
100
0.0112 .
Esercizio 1.9.4 Una partita di 150 libri ne contiene 30 che presentano un difetto nella rilegatura. Se 10 libri vengono scelti a caso per un controllo, qual `e la probabilit`
a che 3 libri tra i 10
estratti siano difettosi? Effettuare il calcolo sia nellipotesi di estrazione senza reimmissione
che in quella di estrazione con reimmissione.
Applicando la formula della distribuzione ipergeometrica con parametri N = 150 , M =
30 , n=10 , abbiamo
f (3) =
30120
3
1507
10
65
0.2065 .
30
Se invece applichiamo la distribuzione binomiale B(10, p) con p= 150
=0.2, otteniamo
f (3) =
10
(0.2)3 (0.8)7 0.2013 .
3
DISTRIBUZIONE GEOMETRICA
Definizione Una variabile aleatoria discreta X ha una distribuzione geometrica
di parametro p , 0< p 1 , se ha la seguente funzione di probabilit`a:
P (X =k) = f (k) = p(1 p)k ,
k = 0, 1, . . . , n, . . . .
k=0
f (k) =
k=0
p (1 p)k = p
(1 p)k = p
k=0
1
= 1.
1 (1 p)
Esercizio 1.9.5 Un dado viene lanciato finche non si presenta la faccia 1. Qual `e la
probabilit`
a che debba esser lanciato pi`
u di 6 volte?
Sia U7 levento la faccia 1 non si presenta prima del settimo lancio. Si ha
1 5 k
5
1 5 k
6 6
1
5 5 2 5 3 5 4 5 5
=1
1+ +
+
+
+
=
6
6
6
6
6
6
6
5 6
1 1 56
=1
=
0.3349 .
6 1 56
6
k=6
66
6 6
=1
k=0
CAPITOLO
2: STATISTICA DESCRITTIVA
2.1 INTRODUZIONE
Per statistica descrittiva o metodologica si intende il complesso di quelle norme utilizzate dallo sperimentatore per raccogliere, rappresentare ed elaborare insiemi di dati
osservati.
I dati raccolti riguardano solo un campione e non lintera popolazione. Lelaborazione
statistica ha lobiettivo di ricavare informazioni sulla popolazione estraendole dai (pochi) dati che sono stati osservati sul campione. Naturalmente le informazioni a cui
siamo interessati riguardano una o pi`
u caratteristiche della popolazione in questione.
Volendo dare una veste matematica a quanto appena detto, sia X una variabile aleatoria, di tipo discreto o continuo, denita su un insieme S (la popolazione). Sono noti
i valori che X assume in corrispondenza degli elementi di un sottinsieme C di S (il
campione). Sia N = jSj e n = jCj. Il campione `e dunque una npla (x1 , x2 , . . . , xn ),
dove ciascun xi rappresenta il valore noto che X(s) assume per s= si 2 C. Essendo,
in generale, n N , la variabile aleatoria X `e incognita in molti (moltissimi) elementi
su cui `e denita. Il compito della statistica `e quello di desumere dai dati del campione
il maggior numero di informazioni circa la distribuzione di X, avendo anche unidea,
il pi`
u possibile precisa, del grado di adabilit`a di queste informazioni. A questa variabile aleatoria ci riferiremo dora in poi come alla variabile aleatoria sottostante al
nostro esperimento.
Unindagine statistica di tipo descrittivo pu`o essere articolata nei seguenti quattro
passi:
1) rilevazione dei dati;
2 ) organizzazione dei dati;
3) presentazione dei dati organizzati;
4) interpretazione e conclusioni.
67
Funzioni di frequenza
Per avere altri tipi di informazione sempre pi`
u precisi ed esaurienti, si possono denire
altri indici statistici. Indicato con x il punto medio della generica classe, tali indici
sono i seguenti:
la funzione di frequenza, che associa ad ogni classe il numero degli elementi che
la compongono; la indicheremo con (x);
la funzione di frequenza relativa, che esprime il rapporto fra il numero degli
elementi della classe ed il numero totale n di elementi del campione; indicatala con
r (x), si ha dunque r (x) (x)
n ;
la funzione di frequenza cumulativa, cio`e il numero degli elementi della classe e
68
Rappresentazioni grafiche
Nella statistica descrittiva la rappresentazione graca dei dati riveste un ruolo molto
importante, in quanto serve a fornire in modo immediato una descrizione del fenomeno
oggetto di studio. Gli strumenti disponibili sono diversi, pi`
u o meno signicativi, pi`
u
o meno adatti a seconda degli obiettivi che si intende conseguire mostrando in quel
modo i dati. Quelli pi`
u matematici e signicativi sono listogramma, il grafico a
bastoni e i poligoni di frequenza.
Listogramma costituisce probabilmente lo strumento pi`
u comune di rappresentazione
di dati statistici. Si ottiene nel modo seguente: prima si riportano sullasse delle
ascisse le classi indicando per ciascuna il relativo punto di mezzo x; poi, in corrispondenza di ciascuna classe, si disegna un rettangolo avente area proporzionale a (x) o,
equivalentemente, a r (x). Sullasse delle ordinate si possono riportare i valori della
funzione (x) oppure quelli di r (x). Se poi si riportano nel graco sia (x) che
r (x) (in opportuna scala), rispettivamente a sinistra e a destra del graco, si ottiene
il duplice obiettivo di poter leggere entrambi i valori.
Osservazione: Nellistogramma della pagina che segue le classi hanno la stessa ampiezza, e
quindi i rettangoli hanno tutti la stessa base. Ovviamente ci`
o non `e pi`
u vero se si considerano,
come peraltro `e lecito, classi di diversa ampiezza.
Un grafico a bastoni `e del tutto equivalente ad un istogramma, e si costruisce in maniera del tutto analoga. Per quanto riguarda poi i poligoni di frequenza, lesempio che
segue permetter`a facilmente di capire come si costruiscono e qual `e il loro signicato.
Esempio 2.2.1
La tabella che segue riporta i pesi (in chilogrammi) di 50 studentesse, che per
brevit`
a sono gi`
a stati ordinati (in ordine crescente). Naturalmente, ogni numero `e ripetuto
tante volte quante sono le studentesse aventi quel peso.
53
55
56
57
57
58
58
59
59
60
60
60
61
61
61
61
62
62
62
62
63
63
63
63
63
64
64
64
64
64
64
65
65
65
65
65
66
66
66
66
67
67
67
68
68
69
70
71
71
73
Dalla tabella si deduce immediatamente che il campo di variazione `e [53,73]. Applicando poi
la formula di Sturges per determinare il numero ottimale di classi, si ha
e quindi
20
7
2.86 .
69
Classi
Punto x
(x)
r (x)
c (x)
cr (x)
di pesi
di mezzo
52.5 55.5
54
0.04
0.04
55.5 58.5
57
0.10
0.14
58.5 61.5
60
0.18
16
0.32
61.5 64.5
63
15
0.30
31
0.62
64.5 67.5
66
12
0.24
43
0.86
67.5 70.5
69
0.08
47
0.94
70.5 73.5
72
0.06
50
1.00
70
Osserviamo che, in un certo senso, il poligono di frequenza (primo grafico di questa pagina)
rappresenta la funzione densit`
a della variabile aleatoria X sottostante al fenomeno studiato; analogamente il poligono di frequenza cumulativa (secondo grafico) rappresenta la
funzione di distribuzione di X.
Esempio 2.2.2
160
162
164
165
167
168
168
169
169
170
170
171
171
172
172
172
172
173
173
174
174
174
175
175
175
176
176
176
177
177
177
177
178
178
178
178
178
178
179
179
179
179
179
179
179
180
180
180
180
181
181
181
181
182
182
182
182
182
183
183
184
184
185
185
186
186
187
187
188
189
190
190
191
192
192
193
194
197
199
201
71
Dalla tabella si legge subito che il campo di variazione `e [160,201]. Applicando poi la formula
di Sturges per determinare il numero ottimale di classi, si ha
e quindi
41
7
5.86
Volendo scegliere come un intero dispari, o si sceglie 5, che comporta poi di prendere nc =9,
oppure si sceglie 7, che comporta nc =6. Per non avere un numero di classi troppo piccolo,
scegliamo =5 e quindi nc = 9. I dati organizzati in classi portano dunque a questa tabella:
Classi di
Punto x
(x)
r (x)
c (x)
cr (x)
altezze
di mezzo
158.5 163.5
161
0.025
0.025
163.5 168.5
166
0.063
0.088
168.5 173.5
171
12
0.150
19
0.238
173.5 178.5
176
19
0.237
38
0.475
178.5 183.5
181
22
0.275
60
0.750
183.5 188.5
186
0.113
69
0.863
188.5 193.5
191
0.087
76
0.950
193.5 198.5
196
0.025
78
0.975
198.5 205.5
201
0.025
80
1.000
Media
Definizione Date n osservazioni numeriche xi , i = 1, 2, . . . , n , si chiama media
aritmetica, o pi`
u semplicemente media, delle osservazioni il numero
1 n
x=
xi .
n i=1
m k
m
1 n
1 m
zk = k=1 pk zk .
i=1 xi =
k=1 k zk =
k=1
n
n
n
k
Il numero pk = n rappresenta la frequenza relativa del dato zk . Confrontando questultima espressione di x con la denizione di media di una variabile aleatoria nita,
ne deduciamo che la media aritmetica appena denita altro non `e che la media di
una variabile aleatoria che assume gli m valori zk con probabilit`a pk . La media x dei
dati xi pu`o dunque essere vista come la media di una variabile aleatoria X nita, che
assume i valori xi con probabilit`
a uguali alla loro frequenza relativa nel campione,
ossia
x=
P (X =xi ) = pi ,
pi =
i
n
dove xk `e il punto medio dellintervallo kesimo e (xk ) fornisce, come abbiamo gi`a
visto, il numero degli xi appartenenti alla classe kesima.
Osserviamo che questa formula pu`o essere utilizzata anche quando ci sono assegnate
tutte le n osservazioni xi e la loro organizzazione in classi viene fatta da noi solo
successivamente al ne di una rappresentazione pi`
u sintetica dei dati. In tal caso la
media cos` calcolata `e una approssimazione, in generale molto buona, di quella vera
(cio`e di quella che si ottiene dalla denizione). Il vantaggio di questultima formula
sta nel fatto che, utilizzando le classi, `e richiesto un numero molto minore di calcoli.
73
Mediana
Definizione Date n osservazioni numeriche xi , i = 1, 2, . . . , n , si chiama mediana
delle osservazioni il valore centrale dellinsieme ordinato.
Quindi, a seconda che n sia pari o dispari, si ha
se n `e dispari
x n+1
2
xmed =
1 x n + x n +1 se n `e pari
2
2 2
Anche per la mediana, cos` come abbiamo fatto per la media, ci si pu`o porre il problema di come determinarla quando i dati xi non sono noti individualmente in quanto
forniti gi`a organizzati in classi. In questo caso, per poter denire operativamente la
mediana, occorre introdurre alcune ulteriori notazioni.
Supposto che le classi si susseguano in ordine crescente, indichiamo con (i1 , i )
lintervallo associato alla classe iesima e con xi il suo punto medio. Allora c (xi )
denota il valore della funzione di frequenza cumulativa della classe iesima, cio`e
il numero complessivo di elementi contenuti nelle prime i classi. Chiamiamo classe
mediana, indicando con m il suo numero dordine, quella classe per cui
con
c (xm1 )< n2 .
c (xm ) n2 ,
Ci`o posto, la mediana xmed pu`o essere cos` denita:
xmed = m1 +
n
2
c (xm1 )
= m1 +
c (xm ) c (xm1 )
n
2
c (xm1 )
.
(xm )
Osserviamo che xmed appartiene certamente alla classe mediana (cio`e allintervallo
(m1 , m )) se c (xm ) > n2 , mentre si ha xmed = m se c (xm ) = n2 (il che pu`o
accadere solo se n `e pari).
Moda
Molto spesso i dati sono divisi in classi che non sono di tipo numerico (ad esempio
sesso, gruppo sanguigno, professione, provincia di apppartenenza, etc...). In questo
caso non ha alcun senso parlare di media o mediana, per cui pu`o tornare utile unaltra
misura di tendenza centrale, valida per qualunque tipologia di dati. Questa misura,
per`o, non esiste per tutte le distribuzioni, ma solo per quelle unimodali. La gura che
segue mostra una distribuzione unimodale assieme a due multimodali.
74
j(xj ) (xj1 )j
.
j(xj ) (xj1 )j + j(xj+1 ) (xj )j
75
Esempio 2.3.1
1 50
1
3163
(53 + 55 + + 73) =
= 63.26 .
i=1 xi =
50
50
50
Se invece si calcola la media utilizzando le classi, indicato con xk il punto medio dellintervallo
corrispondente alla kclasse, si ha
x=
c
1
1
(542 + 575 + 609 + 6315 + 6612 + 694 + 723) =
xk (xk ) =
50
50
k=1
3162
=
= 63.24 .
50
Come si vede, per quanto approssimato, il valore della media cos` ottenuto `e molto prossimo
a quello corretto ottenuto in precedenza. Venendo alla mediana, il suo calcolo `e immediato.
Infatti, essendo n=50, cio`e pari, dalla tabella contenente i dati ordinati si legge che x25 =63
e x26 =64. Si ha quindi
xmed =
x25 + x26
63 + 64
=
= 63.5 .
2
2
xmed = m1 +
n
2
c (xm1 )
25 16
= 61.5 +
3 = 63.3 .
(xm )
15
xmod =64 ,
in quanto valore ripetuto pi`
u di ogni altro. Daltra parte, se xmod `e calcolata sulla base
dellorganizzazione in classi, essendo la classe modale quella di centro xj =63, si ha
xmod = 61.5 +
Esempio 2.3.2
j15 9j
3 = 63.5 .
j15 9j + j12 15j
1
1
14332
x=
xi =
(160 + 162 + + 201) =
= 179.15 .
80 i=1
80
80
Se invece calcoliamo la media utilizzando la formula per i dati organizzati in classi, abbiamo
n
c
1
1
x
xk (xk ) =
(1612 + 1665 + 17112 + 17619 + 18122+
80
80
k=1
14335
179.19 .
80
Anche in questo caso il valore della media ottenuto utilizzando la formula per le classi `e
molto prossimo a quello corretto ottenuto in precedenza.
Per quanto concerne la mediana, dalla tabella dei dati ordinati, essendo x40 = x41 = 179,
segue ovviamente xmed =179. Se poi si effettua il calcolo con la formula specifica per i dati
organizzati in classi, si ha
xmed = m1 +
n
2
c (xm1 )
40 38
= 178.5 +
5 178.5 + 0.45 = 178.95 ,
(xm )
22
che costituisce certamente unottima approssimazione di 179, che `e il valore esatto di xmed .
Infine, dalla tabella dei dati, si ha xmod = 179. Facendo invece il calcolo sulla base dellorganizzazione dei dati in classi, otteniamo:
xmod = 178.5 +
j22 19j
5 179.44 .
j22 19j + j9 22j
Abbiamo nora visto misure di tendenza centrale che servono ad individuare ilcentro
della distribuzione. Ci`o per`o non vuol dire sapere come i dati siano distribuiti intorno
al centro. In certi casi i dati possono essere estremamente concentrati attorno a questo
valore centrale, in altri possono essere estremamente sparsi. Torna quindi utile avere
delle misure di dispersione. Ovviamente il caso limite di dispersione nulla si ha quando
tutti i dati coincidono.
Il primo indice di dispersione `e il campo di variazione o rango, che abbiamo gi`a denito.
Questo intervallo ci d`a una prima, anche se spesso grossolana, idea di come stanno le
cose. Ad esempio, se i dati riguardano le temperature di un giorno in una data citt`a,
` per`o evidente che
conoscere le temperature minima e massima pu`o essere gi`a utile. E
questo indice risente in maniera signicativa di valori particolarmente alti o bassi.
1
=
(xi x)2 ,
n i=1
2
Le quantit`a (xi x) rappresentano gli scarti dalla media dei dati. Di qui il nome di
scarto quadratico medio per e laermazione che la varianza `
e uguale alla media
dei quadrati degli scarti dalla media. Osserviamo che quando si fa la radice quadrata
per ottenere la deviazione standard, si ritorna alla dimensione dei nostri dati.
Due formule molto importanti viste per la varianza sono le seguenti:
2
2
aX+b
= a2 X
,
2
X
= E(X 2 ) E 2 (X).
La prima formula torna utile quando ci sono dei cambiamenti di scala e/o delle traslazioni dei dati: se si moltiplicano tutti i dati per uno stesso fattore, allora anche la
deviazione standard risulter`a moltiplicata per lo stesso fattore; se invece si traslano
tutti i dati, la deviazione standard non ne viene inuenzata. Questultimo fatto risulta perfettamente comprensibile se si pensa al signicato di questo indicatore come
misura di dispersione: importa solo la posizione dei dati xi rispetto alla media, e non
la dislocazione dellinsieme di questi dati sullasse x.
La seconda formula ci permette invece la possibilit`a di calcolare la varianza (e quindi
la deviazione standard) anche in questo modo:
n
2 =
1 2
x x2 .
n i=1 i
Anche per il calcolo della varianza 2 (e quindi della deviazione standard), se i dati
sono raggruppati in classi, si possono utilizzare i punti di mezzo xk degli intervalli
associati alle classi e le loro frequenze (xk ). La formula che d`a 2 (in modo approssimato) `e la seguente:
nc
1
2
=
(xk x)2 (xk ) .
n
k=1
Deviazioni medie
Altri due indici di dispersione sono la deviazione media dalla media e la deviazione media
dalla mediana, che indichiamo rispettivamente con Dmed (x) e Dmed (xmed ). Tali indici
sono dati dalla media aritmetica delle dierenze in valore assoluto rispettivamente
dalla media x e dalla mediana xmed , ossia da
n
Dmed (x) =
1
jxi xj ,
n i=1
Dmed (xmed ) =
1
jxi xmed j .
n i=1
2 =
50
1 2
1 2
xi x2 =
x (63.26)2 17.13 .
n i=1
50 i=1 i
78
A questo punto per avere la deviazione standard basta calcolare la radice quadrata di 2 :
p
17.02 4.14 .
Il calcolo della varianza poteva essere semplificato mediante la formula che utilizza i punti
di mezzo delle classi e le loro frequenze. In questo modo si ottiene:
k=1
k=1
c
1
1
(xk x)2 (xk ) =
(xk 63.22)2 (xk ) = (54 63.22)2 2+
n
50
da cui 4.28. Di qui si vede come la formula basata sulla suddivisione in classi, essendo
ovviamente la distribuzione che ne deriva pi`
u grossolana rispetto a quella dei dati di partenza,
fornisca (in questo caso) un valore della deviazione standard con un errore di circa il 3.6%.
Calcoliamo infine le deviazioni medie dalla media e dalla mediana (sapendo dallesempio
2.3.1 che xmed =63.5):
n
Dmed (x) =
50
1
1
jxi xj =
jxi 63.22j = 3.26 ;
n i=1
50 i=1
n
50
1
1
Dmed (xmed ) =
jxi xmed j =
jxi 63.5j = 3.26 .
n i=1
50 i=1
1 2
=
x (179.15)2 67.05 ,
80 i=1 i
2
da cui
67.05 8.19 .
Se poi si effettua il calcolo (approssimato) mediante la formula che usa i punti di mezzo degli
intervalli delle classi, si ha
nc
1
(xk x)2 (xk ) 68.90 ,
n
da cui
k=1
8.30 ,
con un errore su di poco superiore all1%. Calcoliamo infine le deviazioni medie dalla
media e dalla mediana (sapendo dallesempio 2.3.1 che xmed =63.5):
n
Dmed (x) =
80
1
1
jxi xj =
jxi 179.15j 6.24 ;
n i=1
80 i=1
n
80
1
1
Dmed (xmed ) =
jxi xmed j =
jxi 179j 6.22 .
n i=1
80 i=1
Come per lesempio precedente, i calcoli sono stati fatti con un programma di calcolo.
79
46 31 1 33 2 44 66 8 54 99 92 98 69 50
Innanzitutto ordiniamo i 14 dati in senso crescente:
1 2 8 31 33 44 46 50 54 66 69 92 98 99
Calcoliamo la media:
x=
1
693
(1 + 2 + 8 + + 98 + 99) =
= 49.5 .
14
14
xmed =
x7 + x8
46 + 50
=
= 48 .
2
2
2 =
da cui
1 2
1 + 22 + 82 + + 982 + 992 ) (49.5)2 = 1019.25 ,
14
=
Infine
1018.25 31.93 .
14
1
363
Dmed (x) =
25.93 ;
jxi 49.5j =
14 i=1
14
14
Dmed (xmed ) =
1
363
jxi 47j =
25.93 .
14 i=1
14
Il fatto che queste due ultime medie siano uguali ha una facile spiegazione geometrica:
quando i dati sono in numero pari e anche la media `e compresa fra i due dati di mezzo
(cio`e x n2 e x n2 +1 ), si ha sempre Dmed (x) = Dmed (xmed ).
Esercizio 2.3.6 Calcolare la media, la mediana e le deviazioni medie dalla media e dalla
mediana dei dati dellesercizio precedente sostituendo 91 a 1.
Sostituito il numero 1 con 91 il nuovo campione ordinato `e il seguente:
2 8 31 33 44 46 50 54 66 69 91 92 98 99 .
Calcoliamo la nuova media e la nuova mediana
783
1
(2 + 8 + 31 + + 98 + 99) =
55.93 ;
14
14
x7 + x8
50 + 54
xmed =
=
= 52 .
2
2
x=
Dmed (x) =
1 14
jxi 55.93j 25.63 ;
14 i=1
80
1 14
355
25.36 .
i=1 jxi 52j =
14
14
Si pu`
o verificare che ora, essendo x esterno allintervallo [x7 , x8 ] (di cui la mediana `e il punto
medio), Dmed (x) e Dmed (xmed ) sono diversi.
Dmed (xmed ) =
Esercizio 2.3.7
28 (6)
27 (5)
21 (8)
27 (4)
22 (5)
27 (6)
24 (6)
19 (10)
24 (8)
28 (5)
25 (4)
29 (7)
25 (6)
30 (8)
26 (8)
30 (4)
19 21 22 24 24 25 25 26 27 27 27 28 28 29 30 30
Indicati con v1 , v2 , . . . , v16 i voti cos` ordinati e con v , vmed e v rispettivamente la media,
la mediana e la deviazione standard, abbiamo
16
1
412
v8 + v9
vi =
= 25.75 ;
vmed =
= 26.5 ;
16 i=1
16
2
12
16
1
2
(vi 25.75)
v =
3.07 .
16 i=1
v =
10
Indicati con c1 , c2 , . . . , c16 i crediti cos` ordinati e rispettivamente con c, cmed e c le relative
media, mediana e deviazione standard, abbiamo
16
1
100
c8 + c9
c =
ci =
= 6.25 ;
cmed =
= 6;
16 i=1
16
2
12
16
1
(ci 6.25)2
1.71 .
c =
16 i=1
c) Calcoliamo infine la media ponderata dei voti, vpond , assumendo come pesi i relativi
crediti. Riordinati i ci in modo che ci sia corrispondenza fra voti e crediti:
10
abbiamo
vpond =
16
i=1
16
vi ci
i=1 ci
81
= 25.38 .
CAPITOLO
3: STATISTICA MATEMATICA
3.2 STIMATORI
Sia (X1 , X2 , . . . , Xn ) un campione di una data popolazione la cui distribuzione `e nota
in funzione di un parametro incognito . Uno degli obiettivi della statistica inferenziale
`e quello di stimare mediante una appropriata funzione dei risultati campionari xi .
Definizione Si definisce statistica una funzione g(X1 , X2 , . . . , Xn ) delle variabili
casuali Xi (e quindi, a sua volta, una variabile casuale) che non contiene parametri.
Definizione Si definisce stimatore una statistica che viene utilizzata per stimare
un parametro incognito .
Sia f (X1 , X2 , . . . , Xn ) = uno stimatore e (x1 , x2 , . . . , xn ) un valore misurato del
campione. Ebbene, il valore = f (x1 , x2 , . . . , xn ) `e detto stima puntuale del
` convenzione molto seguita quella di indicare le stime puntuali con
parametro . E
laccento circonesso, ad esempio ,
2 , . . . . Nel caso della media stimata, tuttavia,
anzich`e con
, si continuer`a ad indicarla con x, sia per conservare la notazione gi`a
usata nella Statistica descrittiva, sia per coerenza col fatto che la media verr`a stimata
con lo stimatore X che deniremo tra poco.
Definizione Uno stimatore T del parametro si dice corretto se la sua media
coincide con medesimo, ossia: E(T ) = .
MEDIA CAMPIONARIA
Il problema statistico che si presenta pi`
u frequentemente nelle applicazioni `e il seguente: supposte la media vera e la varianza vera 2 ignote, si cerca di stimarle in
modo attendibile eseguendo un gran numero di esperimenti (ma non esageratamente
grande). La pratica corrente `e quella di stimare calcolando la media aritmetica dei
valori misurati (osservati) xi , cio`e
1 n
x=
xi .
n i=1
Volendo giusticare ci`o, osserviamo che x coincide col valore misurato della variabile
aleatoria denita come media aritmetica delle n variabili aleatorie Xi .
Definizione Si chiama media campionaria di un campione (X1 , X2 , . . . , Xn ) la
variabile casuale X cos` definita:
n
1
X=
Xi .
n i=1
Teorema
Teorema
Dimostrazione
1
2
V ar(X) =
.
n
n
1
V ar(X) = 2 V ar
Xi =
n
i=1
n
i=1
V ar(Xi )
n 2
2
.
=
=
n2
n2
n
I due teoremi appena visti ci dicono che la media campionaria X ha media coincidente
con la media della popolazione da cui proviene il campione e la sua dispersione
attorno a , misurata in termini di deviazione standard, `e inversamente proporzionale
alla radice quadrata della dimensione n del campione. Questo signica che al crescere
di n i valori delle corrispondenti medie campionarie tendono a concentrarsi sempre
pi`
u attorno al loro valore medio, che altri non `e che la media della popolazione, molto
spesso oggetto della nostra indagine statistica.
VARIANZA CAMPIONARIA
Definizione Si chiama varianza campionaria di un campione (X1 , X2 , . . . , Xn ),
n > 1, la variabile casuale S 2 cos` definita
n
S2 =
1
Xi X)2 .
n 1 i=1
1
=
xi x)2 .
n 1 i=1
2
=
2 .
p
Osserviamo che in questo modo per stimare si `e usato lo stimatore S = S 2 , che
per`o non `e uno stimatore corretto in quanto si pu`o dimostrare che E(S) < .$Per
questa ragione qualche volta pu`o essere conveniente utilizzare lo stimatore S = S2 ,
per quanto anchesso non corretto. Noi per`o negli esempi che seguiranno faremo
sempre uso dello stimatore S (cio`e calcoleremo sempre lapprossimazione
).
84
COVARIANZA CAMPIONARIA
Talvolta, per la stessa popolazione, sono oggetto di indagine due
diverse caratteristi
che, per cui il campione casuale considerato `e bidimensionale: (Xi , Yi ), i = 1, . . . , n .
Ci`o comporta ovviamente che ci siano due variabili casuali X e Y sottostanti al nostro
esperimento e che ciascuno degli n risultati (o osservazioni) consista in una coppia di
numeri (xi , yi ). Oltre allinteresse per ognuna delle due caratteristiche, e quindi dei
due campioni (X1 , X2 , . . . , Xn ) e (Y1 , Y2 , . . . , Yn ) presi singolarmente, ci pu`o essere da
parte dello sperimentatore anche linteresse a capire se fra X e Y c`e qualche forma
di dipendenza lineare o, detto altrimenti, qualche forma di correlazione. A tal ne
occorre stimare la covarianza X,Y della variabile congiunta (X, Y ), il che pu`o essere
fatto utilizzando lo stimatore denito come segue:
Definizione Si chiama covarianza campionaria del campione (Xi , Yi ), i = 1, . . . , n ,
la variabile aleatoria
SX,Y
1
=
(Xi X)(Yi Y ) .
n 1 i=1
X,Y
.
X
Y
Esempio 3.2.1
20 lanci di due dadi (di colore diverso per distinguere lordine dei risultati)
hanno dato per risultato le seguenti coppie numeriche (xi , yi ):
xi :
yi :
4
2
5
2
3
2
2
3
2 5 3 4 6 6 4 5 3 3 4 1 5 4 2 1
6 4 4 1 6 1 4 1 5 5 3 1 4 1 2 1
Si considerino poi le coppie (ai , di ), con ai = xi + yi e di = xi yi , e (xi , zi ), con zi = 2xi .
Si chiede di calcolare:
a) le medie x, y , a, d e z ;
2
2
2
2
b) le varianze
X
,
Y2 ,
A
,
D
e
Z
;
c) le deviazioni standard
X ,
Y ,
A ,
D e
Z ;
d) le covarianze
X,Y ,
A,D e
X,Z ;
e) i coefficienti di correlazione X,Y , A,D e X,Z .
85
Facendo i calcoli (nel nostro caso con un programma specifico fatto alluopo) si ottengono i
seguenti risultati:
a)
x = 3.6 ,
y = 2.9 ,
a = 6.5 ,
d = 0.7 ,
z = 7.2 ;
b)
X
' 2.25 ,
Y2 ' 3.04 ,
A
' 5.74 ,
D
' 4.85 ,
Z
' 9.01 ;
c)
X ' 1.50 ,
Y ' 1.74 ,
A ' 2.40 ,
D ' 2.20 ,
Z ' 3.00 ;
d)
e)
X,Z = 1 .
n
Xi2 ,
Xi ' N (0, 1) .
i=1
Una distribuzione 2n ha una funzione densit`a f (x) che `e nulla per x < 0 e con landamento mostrato in gura per x 0 (per n = 2, 4, 6, 8, 10). Per n piccolo f (x) ha
il picco vicino allorigine, ed `e sempre pi`
u dispersa e sempre pi`
u simmetrica per n
grande.
86
i=1
Tn = $
2n /n
Alla ne sono riportate due tavole delle distribuzioni 2n e Tn con i valori pi`
u signicativi ai ni delle applicazioni. In analogia con una terminologia gi`a introdotta per
la distribuzione N (0, 1), le soluzioni x e t delle equazioni
P 2n x =
e
P Tn t =
e
87
Tn (t )= .
X
p
/ n
segue la distribuzione normale standardizzata, le cui probabilit`a possono essere desunte dalle tabelle statistiche della densit`a normale (x). Diamo innanzitutto la stima
per intervalli bilaterali (simmetrici). A tal ne andiamo a determinare il quantile superiore u 2 , cio`e la soluzione dellequazione
(u) = 1 ,
2
P u 2 Z u 2 = P X p u 2 X + p u 2 = 1 .
n
n
X p u 2 , X + p u 2 ,
n
n
che `e aleatorio in quanto `e tale il suo punto centrale X, contiene con probabilit`a 1
il valore vero . Eseguito lesperimento, lintervallo osservato si ottiene dallintervallo
aleatorio sostituendo alla media campionaria X la media aritmetica x dei valori osservati negli n esperimenti. Useremo quindi lintervallo osservato per dare una stima di
di livello di fiducia 1:
x p u 2 , x + p u 2 .
2
n
n
89
Diamo ora anche le due stime per intervalli unilaterali. Per ottenerla si deve risolvere
lequazione (u) = 1 , determinando cos` il quantile u tale che
P Z u = P Z u = 1 ,
o, equivalentente,
P X p u = P X+ p u = 1 .
n
n
X p u , +1
e
1 , X+ p u
n
n
x p u , +1
e
1 , x+ p u
n
n
Esempio 3.5.1 Per determinare la durata del cambio di unauto vengono scelti casualmente
200 cambi dalla produzione, che supponiamo distribuita normalmente con scarto tipo uguale
a 4000 km. Essi vengono testati finche presentano un difetto serio. Se la durata media
dei 200 cambi sottoposti a test `e 50000 km, quali sono gli intervalli di fiducia bilaterali e
unilaterali sinistri della durata media dellintera produzione al 95%, al 97.5% e al 99% ?
I dati sono: n = 200 , x = 50000 , = 4000 . Osservato che i livelli di fiducia richiesti
corrispondono nellordine ad =0.05, 0.025 e 0.01, indicando con u 2 il valore per cui
(u 2 ) = 1
abbiamo
(u0.0250 ) = 0.9750
(u0.0125 ) = 0.9875
=)
=)
,
u0.0250 ' 1.96 ,
u0.0125 ' 2.24 ,
x p u 2 , x+ p u 2 .
Gli intervalli di fiducia bilaterali di livello 1, sono dati da
n
n
p
Essendo / n 282.84, si ha
(u0.0050 ) = 0.9950
= 0.050
= 0.025
=)
=)
= 0.010
=)
=)
Per quanto riguarda invece i corrispondenti intervalli unilaterali sinistri, procedendo analogamente, e mettendo 0 anziche 1 come estremo sinistro degli intervalli (si tratta della
durata di un cambio, che ovviamente non pu`
o essere negativa), si ottiene
= 0.050
=)
= 0.025
= 0.010
=)
=)
I tre casi considerati evidenziano come allaumentare del livello di fiducia, cio`e alla richiesta
di maggior attendibilit`
a della stima, aumenti lampiezza dellintervallo.
90
S2 =
1
Xi X)2 ,
n 1 i=1
X
p , che si dimostra essere
S/ n
una variabile di Student con n1 gradi di libert`a. Posto quindi
e sostituendo poi alla variabile casuale Z la variabile
Tn1 =
X
p ,
S/ n
P (Tn1 t) = 1 ,
2
o, equivalentemente, considerata la simmetria della distribuzione di Student, il quan
tile t 2 per cui P (Tn1 t) = , si ha
2
S
S
P X p t 2 X + p t 2 = 1 .
n
n
Di conseguenza lintervallo aleatorio
S
S
X p t 2 , X + p t 2 ,
n
n
conterr`a con probabilit`a 1 la media vera . Utilizzandone il valore osservato daremo una stima di di livello di ducia 1:
2
x p t 2 , x + p t 2 ,
n
n
dove
`e il valore di S ottenuto dagli n esperimenti.
Osservazione 1: la non conoscenza della varianza della popolazione fa si che lampiezza dellintervallo di ducia per piccole dimensioni del campione (diciamo n 30)
risulti assai pi`
u ampia di quella che si avrebbe se 2 fosse nota.
Osservazione 2: ai ni del calcolo di un intervallo di ducia per la media quando
la varianza non `e nota, `e suciente che del campione siano note la dimensione n, la
media campionaria x e la varianza campionaria
2 (in altre parole non `e necessario
conoscere uno per uno gli n dati xi ).
Esempio 3.5.2
Durante 8 prove su strada un prototipo di furgone ha consumato rispettivamente 14,12,11,13,15,12,16,13 litri di gasolio per 100 km di percorrenza. Supponendo che
la distribuzione dei consumi segua approssimativamente la distribuzione normale, costruire
gli intervalli di fiducia al 95% e al 99% della media vera del consumo di quel prototipo.
91
1
106
x=
xi =
= 13.25 ;
n i=1
8
n
1
19.5
2.79
=
(xi x)2 =
n 1 i=1
7
2
=)
2.79 1.67 .
Come abbiamo appena visto, indicato con t 2 il quantile per cui si ha P (Tn1 t 2 ) =
x p t 2 , x + p t 2 .
n
n
T7 (t0.025 ) = 0.975
T7 (t0.005 ) = 0.995
=)
=)
=)
=)
2 [11.85, 14.65] ,
2 [11.18, 15.32] .
Esempio 3.5.3
Ripetere i calcoli dellesercizio precedente con il campione che si ottiene aggiungendo ai dati precedenti i seguenti consumi ottenuti con 12 prove aggiuntive: 15,14,12,13,
11,16,14,15,12,14,12,13.
Calcoliamo la media e la varianza con il campione (ora di dimensione n=20) ottenuto con
laggiunta dei nuovi dati.
x=
20
106 + 161
1
106 +
xi =
= 13.35 ;
20
20
i=9
20
1
44.55
(xi x)2 =
2.35
=
19 i=1
19
2
=)
2.35 1.53 .
Si ha quindi
=)
=)
=)
=)
2 [12.63, 14.07] ,
2 [12.37, 14.33] .
Consideriamo dunque un campione (X1 , X2 , . . . , Xn ) estratto da una popolazione normale avente media e varianza 2 . Abbiamo gi`a detto che la variabile aleatoria
n
n1 2
Xi X 2
V =
S
=
2
i=1
segue una distribuzione 2n1 . Indicato con x1 il valore per cui larea alla sua sinistra
sottesa dalla curva di densit`a di probabilit`a 2n1 vale 2 e con x2 il valore per cui
pure larea alla destra vale 2 (vedi gura), si ha
P x1 V x2 = 1 .
x
2 = 1,
2
da cui, con alcuni passaggi algebrici,
(n 1)S 2
(n 1)S 2
2
= 1.
P
x2
x1
(n 1)
2
x1
2n1 (x1 )= ,
2n1 (x2 )=1 .
2
2
Osservazione 1: essendo x1 e x2 rispettivamente a denominatore del secondo estremo
e del primo estremo dellintervallo di ducia cercato, x1 va calcolato per difetto e
x2 per eccesso.
Osservazione 2:
ai ni del calcolo di un intervallo di ducia per la varianza, del
campione `e suciente conoscere la dimensione n e la varianza campionaria
2 (e
quindi non `e essenziale conoscere la media campionaria e tantomeno gli n dati xi ).
Osservazione 3: se la media della popolazione fosse nota, allora si pu`o sostituire
X con , avendo cos` a che fare con la variabile casuale
93
V =
n
Xi 2
i=1
che segue la distribuzione 2 con n (anzich`e n1) gradi di libert`a. In questo caso,
indicati con x1 e x2 le soluzioni delle equazioni
2n (x1 )= ,
2n (x2 )=1 ,
2
2
2
2
e con s il valore osservato della somma i (Xi ) , lintervallo di ducia per 2 al
livello considerato sarebbe
s2 s2
,
.
x2 x1
Esempio 3.6.1
Un campione di dimensione 7 di una popolazione normale ha varianza
campionaria
2 =0.098. Si chiede di calcolarne gli intervalli di fiducia ai livelli 90% e 95%.
Supposto poi che gli stessi dati si riferiscano ad un campione di dimensione 36, si chiede di
calcolarne anche in questo caso gli intervalli di fiducia suddetti.
Per n=7, per =0.10 ed =0.05 abbiamo:
26 (x1 ) = P 26
26 (x2 ) = P 26
26 (x1 ) = P 26
26 (x2 ) = P 26
x1 = 0.050
x2 = 0.950
x1 = 0.025
x2 = 0.975
=)
=)
=)
=)
x1 1.63 ,
x2 12.60 ;
x1 1.23 ,
x2 14.45 .
= 0.10
=)
= 0.05
=)
6 0.098 6 0.098
,
[0.046, 0.361] ;
12.6
1.63
6 0.098 6 0.098
,
[0.040, 0.479] .
14.45
1.23
235 (x1 ) = P 235
235 (x2 ) = P 235
235 (x1 ) = P 235
235 (x2 ) = P 235
x1 = 0.050
x2 = 0.950
x1 = 0.025
x2 = 0.975
=)
=)
=)
=)
x1 22.46 ,
x2 49.81 ;
x1 20.56 ,
x2 53.21 .
In questo secondo caso gli intervalli di fiducia richiesti sono dunque i seguenti:
= 0.10
=)
= 0.05
=)
35 0.098 35 0.098
,
[0.068, 0.153] ;
49.81
22.46
35 0.098 35 0.098
,
[0.064, 0.167] .
53.21
20.56
94
X Y =
1
1
Xi
Yi .
n i=1
m i=1
Supposto che le due popolazioni abbiano una distribuzione normale, daremo una stima di
1 2 nei seguenti casi:
a) 12 e 22 sono note;
b) 12 e 22 non sono note, ma sono uguali;
c) 12 e 22 non sono note e non sono uguali.
= XY
= X
+ Y2 =
2
12
+ 2,
n
m
(X Y ) (1 2 )
o, equivalentemente,
P (X Y ) u 2 < 1 2 < (X Y ) + u 2 = 1 .
&
12
22
12
22
(X Y ) u 2
+
, (X Y ) + u 2
+
.
n
m
n
m
Eseguito lesperimento, sostituendo i valori misurati x e y al posto delle corrispondenti
variabili casuali X e Y , si ottiene una stima per 12 al livello di ducia 100(1)%.
95
Esercizio 3.7.1 Due diversi tipi di guaine isolanti per cavi elettrici vengono testati per determinare a che voltaggio cominciano a rovinarsi. Sottoponendo gli esemplari a livelli crescenti
di tensione si registrano i guasti alle tensioni seguenti:
Tipo Y 52 64 38 68 66 52 60 44 48 46 70 62
Tipo X 36 44 41 53 38 36 34 54 52 37 51 44 35 44
Supponiamo di sapere che il voltaggio tollerato dai cavi abbia distribuzione normale: con
media incognita 1 e varianza 12 =40 per il tipo X, media 2 e varianza 22 =100 per il tipo
Y. Si chiede di determinare: i) un intervallo bilaterale con il 95% di confidenza per 1 2 ;
ii) un valore che permetta di affermare che 1 2 gli `e superiore con il 95% di confidenza.
i)
Calcoliamo innanzitutto le medie x e y dei due campioni, che hanno dimensione rispettivamente n=14 e m=12. Si ha
12
x=
14
1
xk 42.78
12
y=
k=1
1
yk 55.83
14
k=1
Come abbiamo appena visto dalla teoria, la stima di un intervallo di fiducia bilaterale al
livello 1 `e la seguente:
(x y) u 2
12
2
+ 2 , (x y) + u 2
n
m
12
2
+ 2
n
m
&
13.05 1.96
11.191 [19.61, 6.49] .
(x y) u
13.05 1.65
2
12
+ 2 , +1 .
n
m
p
11.191 , +1 [18.53 , +1) .
S12
1
=
(Xi X)2 ,
n 1 i=1
S22
1
=
(Yi Y )2 .
m 1 i=1
e
96
m1 2
S2 2m1 .
2
Inoltre, essendo le due distribuzioni indipendenti, anche le due chi-quadro ora scritte
lo sono. Di conseguenza pure la loro somma ha una distribuzione di tipo chi-quadro,
con un numero di gradi di libert`a uguale alla somma di quelli delle due distribuzioni
di partenza. Si ha cio`e
n1 2 m1 2
S1 +
S2 2n+m2 .
2
2
Ci`o premesso, una migliore stima per 2 `e data dalla seguente pooled variance
(varianza ponderata):
Sp2 =
Essendo poi
n1
(n 1)S12 + (m 1)S22
m1
=
S12 +
S2 .
n+m2
n+m2
n+m2 2
1
12
2
1 2
+ 2 =
+
,
n
m
n m
2
la miglior stima per
`e rappresentata da
1
1 2
2
S
=
+
S .
n m p
Ne consegue che la variabile casuale
2
2
= XY
=
T =
(X Y ) (1 2 )
1
1
+
Sp
n m
segue una distribuzione di Student con n + m 2 gradi di libert`a. Indicando ora con
t 2 il quantile superiore fornito dalla soluzione dellequazione
P (Tn+m2 t) = 1 ,
2
si ha
'
(
(X Y ) (1 2 )
P t 2
t 2 ,
1
1
+
Sp
n m
e quindi, operando con semplici passaggi algebrici, si ottiene
P (X Y ) t 2 S 1 2 (X Y ) + t 2 S = 1 .
Pertanto lintervallo di ducia all(1 )% per la dierenza delle medie delle due
popolazioni `e
(X Y ) t 2 S , (X Y ) + t 2 S .
Eettuato lesperimento, la stima ottenuta per questo intervallo sar`a quindi
(x y) t 2
, (x y) + t 2
,
con
dato, in virt`
u delle precedenti posizioni, da
)
1
1 (n 1)
12 + (m 1)
22
=
+
=
n m
n+m2
)
n
m
1
1 i=1 (xi x)2 + i=1 (yi y)2
=
+
.
n m
n+m2
97
1
(x y) u 2 p , (x y) + u 2 p
.
m
m
Esercizio 3.7.2 Un produttore di batterie dispone di due tecniche di fabbricazione differenti.
Due gruppi di batterie scelti a caso, 12 prodotte con la tecnica I e 14 con la tecnica II, sono
risultate avere le seguenti capacit`
a (in ampere-ora):
Tecnica I 140 136 138 150 152 144 132 142 150 154 136 142
Tecnica II 144 132 136 140 128 150 130 134 130 146 128 131
137 135
Ipotizzando che le varianze delle due popolazioni siano uguali, si chiede di determinare: i)
un intervallo di confidenza al 90%, bilaterale, per la differenza delle medie; ii) un intervallo
unilaterale sinistro per 1 2 al livello di confidenza 95%.
i)
Indicato con (X1 , X2 , . . . , X12 ) il campione relativo alla tecnica I, e con (Y1 , Y2 , . . . , Y14 )
quello relativo alla tecnica II, per cui n = 12 e m = 14, calcoliamo le loro medie misurate x
e y . Si ha
14
x=
12
1
xk = 143
14
y=
k=1
1
yk 135.786
12
k=1
Come abbiamo appena visto dalla teoria, la stima dellintervallo bilaterale al livello di fiducia
1 `e la seguente:
(x y) t 2
, (x y) + t 2
,
Dovendo calcolare
occorre prima calcolare la somma degli scarti quadratici. Si ha:
12
(xi x)2 = 556 ;
14
(yi y)2 = 622.357 .
i=1
i=1
Si ha quindi
)
12
14
1
1 i=1 (xi x)2 + i=1 (yi y)2
556 + 622.36
=
+
0.1548
2.757 .
12 14
24
24
98
Essendo = 0.10 ed avendo a che fare con la distribuzione di Student a 24 gradi di libert`
a
(n + m 2=24), si ha t 2 = t0.05 1.711. Lintervallo di fiducia richiesto risulta dunque
cos` stimato:
(143 135.79) 1.71 2.76 , (143 135.79) + 1.71 2.76 2.49, 11.93 .
1 , (x y) + t
.
1 , (143 135.79) + 1.71 2.76 (1 , 11.93] .
22 2
m
= 2n
1 2
22 2
n
+ m
n1
m1
2
1
Si pu`o anche aggiungere il suggerimento di approssimare per difetto , il che corrisponde ad una logica di tipo conservativo nellesecuzione di un test dipotesi. Cerchiamo di spiegare cosa signica questa aermazione, anche se richiede argomentazioni
che risulteranno chiare solo pi`
u avanti (x3.10). Supposto che lapprossimazione per
difetto dia =10 e che questa porti a rigettare lipotesi nulla H0 , anche =11, comportando una regione di accettazione contenuta in quella relativa ad =10, implicherebbe
il rigetto di H0 . Il contrario non necessariamente vale.
Esercizio 3.7.3 Determinare lintervallo di cui alla domanda i) dellesercizio precedente nellipotesi che le due varianze 12 e 12 non siano uguali.
Lintervallo richiesto `e formalmente lo stesso dellesercizio precedente con la differenza che
ora t 2 `e determinato dalla distribuzione di Student ad gradi di libert`
a, con dato dalla
formula precedente, e
12
2
+ 2.
n
m
Calcoliamo innanzitutto
12 e
22 utilizzando i conti gi`a fatti nellesercizio precedente.
99
12 =
22
Si ha quindi
12
14
1
1
556
50.545
(xi x)2 =
(xi 143)2 =
n1 i=1
11 i=1
11
1
1
622.78
=
(yi y)2
(yi 135.786)2
47.874 .
m1 i=1
13 i=1
13
50.545 47.874 p
+
4.212 + 3.420 2.763 .
12
14
Calcoliamo ora la dimensione della distribuzione di Student. Abbiamo:
50.545
47.874 2
4.212 + 3.420)2
12
14
23.83
50.545 2
47.874 2
(4.1212)2
(3.420)2
+
12
14
11
13
+
11
13
+
Siccome deve essere un intero, sembra naturale arrotondarlo assumendo cos` = 23.
Di conseguenza, avendo la distribuzione di Student lo stesso numero di gradi di libert`
a
dellesercizio precedente ed essendo
praticamente lo stesso, anche lintervallo risulter`a
praticamente lo stesso. Ci`
o `e probabilmente dovuto a due fatti concomitanti: sia le varianze
che le dimensioni dei due campioni differiscono di poco.
Y p
P u 2 $
u 2 1 ,
p(1 p)/n
Si `e cos` ottenuta una regione che contiene p con livello di ducia 1 . C`e per`o
un problema che incontriamo per la prima volta: gli estremi di un intervallo di ducia debbono essere delle statistiche, cio`e non debbono contenere alcun parametro
incognito. In questo caso gli estremi contengono infatti il parametro p, per cui ci
troviamo nellanomala situazione di tentare di usare p per stimare p. Il problema
pu`o per`o facilmente essere superato stimando p con con lestimatore Y . Indicato
quindi con p y la stima puntuale di p ottenuta utilizzando Y , lintervallo di ducia
(approssimato) per p al livello 1 `e il seguente:
$
$
p u 2 p(1 p)/n , p + u 2 p(1 p)/n .
Esercizio 3.8.1 Un campione di 100 transistor viene estratto da una grossa fornitura e testato. In tutto 80 pezzi hanno i requisiti adeguati. Si chiede di determinare gli intervalli di
fiducia di livelli 95% e 99% per la percentuale p di transistor accettabili.
I quantili della normale standardizzata che interessano sono i seguenti:
=)
livello 99%
=)
$
0.8 0.2/100 , 0.80 + 1.96 0.8 0.2/100]
$
$
p 2 [0.80 2.57 0.8 0.2/100 , 0.80 + 2.57 0.8 0.2/100] .
p 2 [0.80 1.96
=)
=)
Esercizio 3.8.2 Un sondaggio su un giornale riporta che il 52% della popolazione, con un
margine derrore di 4%, `e soddisfatto delloperato dellamministrazione. Cosa significa
` pratica comune per i mezzi dinformazione fornire intervalli di fiducia al 95%. Ci`o premesso,
E
lintervallo di fiducia in questione, essendo p=0.52 e u0.975 ' 1.96, ed essendo non nota la
dimensione del campione, `e approssimativamente il seguente:
$
$
p 1.96 p(1 p)/n = 0.52 1.96 0.52 0.48/n .
1.96
101
Un problema di un certo interesse concerne una stima della dimensione del campione
che permetta di ottenere un intervallo di fiducia per p al livello 1 non pi`
u ampio di
una lunghezza d assegnata. Il problema pu`o presentarsi con queste due varianti: a)
`e disponibile a priori una stima puntuale p; b) una tale stima non `e disponibile.
Caso a).
Caso b). Siccome la funzione p(1p) ha come valore massimo 14 (assunto per p= 12 ),
qualunque sia il valore di p, scegliendo
u2
n = 22 ,
d
sar`a sempre garantita unampiezza dellintervallo non superiore a d.
Esercizio 3.8.3 Unazienda produce circuiti integrati, ciascuno dei quali risulta accettabile
indipendentemente da tutti gli altri con probabilit`
a incognita p. Si vuole ottenere un intervallo di fiducia per p ad un livello 99%, la cui ampiezza sia approssimativamente 0.05. Si
raccoglie allora un primo campione di 30 chip, 26 dei quali risultano accettabili, fornendo
una prima, grossolana, stima puntuale di p, data da p= 26
30 . Si chiede di determinare:
a) la dimensione n1 del campione che si ottiene utilizzando la stima p;
b) lintervallo di fiducia utilizzando un campione di dimensione n1 ottenuto aggiungendo
n1 30 chip a quelli gi`a verificati (fissando a piacere il numero dei chip accettabili);
c) determinare la dimensione n2 del campione necessaria a garantire unampiezza non
superiore a 0.05 se non fosse stata determinata preventivamente p.
a) Essendo u0.005 2.58, si ha
n1 =
4u2
2
d2
p(1 p) 4
2.582 26 4
1231 .
0.052 30 30
b) Dobbiamo dunque testare altri 1201 chip. Fra questi supponiamo che 1040 siano accettabili. Lintervallo di fiducia che si ottiene `e pertanto dato da
ovvero
1066
1066 165 1
2.58
,
1231
1231 1231 1231
(0.8409, 0.8910) .
c) Se non avessimo predeterminato (seppur grossolanamente) p, la dimensione n2 del campione atta a garantire lampiezza richiesta per lintervallo di fiducia sarebbe stata
n2 =
u2
2
d2
2.582
2663 .
0.052
Dunque, se non avessimo predeterminato una stima puntuale per p, per avere la certezza di
un intervallo di fiducia con lampiezza richiesta, avremmo dovuto adottare un campione di
dimensione pi`
u che doppia!
102
21.4
49
' 0.661N .
103
78.5 80
78.5
p <
p
P [X < 78.50 = 80] = P
=P Z<
'
/ n
/ n
0.661
' (2.27) = 1 (2.27) ' 0.012 .
78.5
p >
p
P [X > 78.51 = 78] = P
=P Z>
'
0.661
/ n
/ n
' 1 (0.756) ' 0.225 = 22.5% .
`e ovviamente legata al fatto che il rischio di una scelta sbagliata si ha solo nel caso in
cui il valore vero di `e minore di 0 .
2) Scegliere una statistica appropriata ed identificarne la distribuzione campionaria. Nellesempio del paragrafo precedente si `e assunto che la distribuzione delle medie
campionarie fosse normale.
3) Precisare il rischio di errore di prima specie che si `e disposti a correre (o
equivalentemente specicare il livello di ducia 1). Spesso la probabilit`a di
commettere un errore di prima specie viene detta livello di signicativit`
a del test
(tanto pi`
u piccolo `e , tanto pi`
u `e signicativo il test). In molti casi la scelta di tale
livello non riveste solo aspetti statistici, ma sopratutto tecnici ed economici.
Livelli di significativit`
a non troppo fini (cio`e con valori di abbastanza grandi) possono
portare a scelte che poi risultano errate, con conseguenze a volte disastrose. Si pensi, ad
esempio, ad una scelta di un nuovo medicinale a scapito di uno preesistente che si dimostra
sbagliata in quanto il nuovo, alla prova dei fatti, risulta meno efficace di quello che ha
sostituito, con conseguenze negative per la casa farmaceutica e, soprattutto, per i pazienti.
6) Determinare, in base a quanto precedentemente stabilito, la regione di accettazione dellipotesi nulla H0 . Tale regione, che indichiamo con A , deve essere tale
che
P 2 A = 1.
In molti casi (fra cui limportante caso = ), essa viene determinata in modo che
risulti cosiatta:
se HA : 6
= 0 ;
[0 , 0 + ]
A=
[0 , +1)
(1 , 0 + ]
se HA : < 0 ;
se HA : > 0 .
Indicato poi con linsieme dei numeri reali sul quale il parametro assume i propri
valori, si chiama regione critica o di riuto la regione complementare di A rispetto
a . Posto pertanto
R = A,
ne consegue che, se un valore misurato non sta in A, allora necessariamente sta in
R, e viceversa. Nel caso di ipotesi alternativa HA : 6
= 0 si parla di test bilaterale e
la regione critica `e detta a due code, mentre nel caso di HA : < 0 oppure HA : > 0
abbiamo un test unilaterale e una regione critica ad una coda.
7) Si estrae un campione della dimensione stabilita e con i valori osservati del
campione si determina la stima puntuale del parametro. Si hanno quindi le seguenti
implicazioni:
2 R =) lipotesi nulla H0 viene rigettata
2 A =) lipotesi nulla H0 non pu`
o essere rigettata.
Osserviamo che, nel caso in cui cade in R, il test `e risolutivo in quanto lipotesi nulla
viene respinta in favore dellipotesi alternativa HA . Al contrario, se cade in A, il
test non `e risolutivo. In tal caso infatti esso ci dice che lipotesi nulla non pu`o essere
riutata, la qual cosa non signica automatica accettazione: sta allo sperimentatore
decidere se accettare oppure no lipotesi nulla solo sulla base del fatto che non `e stata
smentita al livello di ducia 1 pressato.
HA
. Viene dunque calcolata la probabilit`a di accettare come vera lipotesi H0
= P 2 A j HA
.
In questo problema il parametro che interessa `e la media della variabile casuale X che
rappresenta la quantit`
a di vino contenuto in una bottiglia. Si ha dunque = e lipotesi
nulla `e H0 : = 720 . Le possibili ipotesi alternative sono pertanto HA : 6
= 720 oppure
HA : < 720 oppure HA : > 720 .
Supponiamo che sia unassociazione di consumatori ad effettuare il test. In questo caso c`e
tutto linteresse a evidenziare un eventuale riempimento delle bottiglie per difetto. Viene
dunque scelta lipotesi alternativa HA : < 720. Lipotesi nulla sar`
a da rigettare in favore
di HA nel caso in cui la stima puntuale
della media calcolata mediante i valori osservati
del campione non cada internamente alla regione di accettazione A, cio`e se
2
/ [720 , +1) .
Supponiamo ora che sia il produttore ad effettuare il test di verifica. Quale ipotesi alternativa sceglier`
a? Certamente non sceglier`
a HA : < 720, perch`e se cos` facesse potrebbe
avvalorare lipotesi che egli mette nelle bottiglie meno vino di quanto dichiara. Daltra parte,
se lipotesi alternativa scelta fosse HA : > 720, potrebbe apparire un p`
o troppo sfacciato.
Non rimane dunque che la scelta neutra HA : 6
= 720. Tenendo conto della struttura di
A, H0 verrebbe rigettata in favore di HA se
Dovendo essere
2
/ [720 , 720 + ] .
P 2 [720 , 720 + ] =P 2 [720 , +1) =1 ,
`e evidente che
< . Di conseguenza, dando per scontato che il produttore sia stato molto
attento a non riempire troppo le bottiglie, `e certamente pi`
u probabile che sia il test effettuato
dallassociazione dei consumatori a smentire lipotesi nulla piuttosto che il test fatto dal
produttore stesso. Osserviamo che il rifiuto di H0 nel test dellassociazione confermerebbe
leventuale sospetto di una quantit`
a di vino minore di quanto dichiarato.
`
3.11 TEST DI SIGNIFICATIVITA
Esiste un altro metodo, un p`o pi`
u sbrigativo, per decidere se accettare o no lipotesi
nulla H0 . Tale metodo, che `e detto test di signicativit`
a, sta diventando di uso
sempre pi`
u ampio, anche in virt`
u delluso crescente di pacchetti software nellanalisi
di dati statistici.
Indicata con T la statistica del test, il metodo in questione consiste nellosservare dal
campione casuale il valore numerico t di T e nel determinare quindi la probabilit`a che
T assuma un valore che eccede t, supposta vera lipotesi nulla. Il signicato preciso
di eccede dipende dal tipo di test. Nel caso di test unilaterale la probabilit`a p da
determinare `e la seguente:
se HA : > 0 ,
p = P T t H0
se HA : < 0 .
p = P T t H0
Se invece il test `e bilaterale simmetrico, cio`e basato su una statistica T con una
distribuzione simmetrica (come Z e Tn ), allora la probabilit`a p `e data da
p = 2 P T jtj H0
se HA : 6
= 0 .
108
H0 : 26 ,
HA : > 26 .
Assunta naturalmente come statistica del test la media campionaria X , si concorda di rifiua alquanto maggiore
tare lipotesi H0 in favore di HA se il valore osservato x di X risulter`
Si assumono le seguenti ipotesi:
X 26
28.04 26
=
5/6
5/6
La probabilit`
a che X assuma un valore maggiore di 28.04 `e dunque molto piccola. Ci sono
due possibili spiegazioni per questo fatto. O lipotesi nulla `e vera e noi abbiamo osservato
un campione veramente raro che per caso ha una media grande, oppure lipotesi nulla `e
falsa e il nuovo processo di costruzione delle auto ha effettivamente portato ad un aumento
delle miglia percorse per gallone di benzina. La seconda spiegazione `e di gran lunga quella
pi`
u ragionevole! Infatti il valore p trovato rappresenta la probabilit`
a dellerrore di I specie
che si commette rifiutando H0 a favore di HA quando si assume come regione di rifiuto
R = [28.04 , +1). E nel caso specifico p `e minore dell1%.
Lesempio proposto permette di capire meglio il signicato del valore p. Pi`u piccolo `e
p, pi`u fortemente il test suggerisce il rigetto dellipotesi nulla a favore di quella alternativa.
109
(u) = 1 ,
2
per il rischio di errore di prima specie si ha
X p
X p
0
0
=P
= .
Z < u 2 [ Z > u 2
n < u 2 [
n > u 2
X < 0 p u 2
n
Posto
oppure
x1 = 0 p u 2 ,
n
X > 0 + p u 2 .
n
x2 = 0 + p u 2 ,
n
Oltre al test bilaterale, esiste la possibilit`a di eseguire anche dei test unilaterali a
seconda di esigenze tecniche speciche. In questo caso si possono avere due ipotesi
alternative: HA : < 0 oppure HA : > 0 . Indicato con u il quantile soluzione
dellequazione
(u) = 1 ,
valgono le seguenti relazioni:
'
(
X 0 p
P Z < u = P
n < u = ;
'
(
X 0 p
P Z > +u = P
n > +u = .
Posto quindi
1 = 0 p u ,
2 = 0 + p u ,
n
n
le due precedenti probabilit`a diventano
P (X < 1 ) = ;
P (X > 2 ) = .
La prima delle due probabilit`a ci assicura che, nel caso HA : < 0 , se rigettiamo
lipotesi nulla a favore di quella alternativa quando il valore di x `e minore di 1 ,
lerrore di I a specie commesso `e uguale ad . La seconda probabilit`a ci garantisce
invece un errore dello stessa entit`a nel caso si riuti lipotesi nulla a favore dellipotesi
alternativa HA : > 0 se la media calcolata x risulta maggiore di 2 .
Pertanto, nel caso di test unilaterale per la media (nota la varianza) si procede nel
modo seguente: nel caso HA : < 0 , lipotesi H0 si rigetta se x < 1 ; nel caso
HA : > 0 , H0 si rigetta se x > 2 .
La tabella che segue riassume i casi considerati.
111
se
H A : = 0 ;
[u , +1)
se
HA : < 0 ;
(1 , +u ]
se
HA : > 0 .
.
2
Di conseguenza la regione aleatoria di riuto della ipotesi nulla diventa
Tn1 (t) = 1
S
X < 0 p t 2
n
oppure
S
X > 0 + p t 2 .
n
[x1 , x2 ] = 0 p t 2 , 0 + p t 2 .
n
n
112
1 = 0 p t ,
2 = 0 + p t ,
n
n
si ha
P (X > 2 ) = .
P (X < 1 ) = ;
La prima delle due probabilit`a ci suggerisce di riutare lipotesi nulla H0 a favore
dellipotesi alternativa HA : < 0 se la media x, calcolata approssimando con
,
risulta minore di 1 ; a sua volta la seconda probabilit`a suggerisce, nel caso HA : >
0 , di riutare H0 se si ha x > 2 . Quanto aermato pu`o essere sintetizzato dicendo
che, nel caso di test unilaterale, gli intervalli di accettazione sono:
[1 , +1)
se
HA : < 0 ;
(1 , 2 ]
se HA : > 0 .
La tabella data in precedenza per il caso varianza nota rimane quindi valida anche
nel caso varianza incognita fatto salvo il fatto che ora lintervallo [x1 , x2 ] e i valori
1 e 2 sono calcolati utilizzando i quantili della distribuzione di Student (ad N1
gradi di libert`a) anzich`e quelli della normale standardizzata.
Osservazione. Analogamente a quanto osservato in precedenza nel caso di varianza
nota, le conclusioni del test ora proposto possono essere tratte in maniera pi`
u immediata ragionando direttamente sugli intervalli di accettazione per Tn1 , che anche in
questo caso chiameremo intervalli standardizzati:
[t 2 , t 2 ]
se
HA : = 0 ;
[t , +1)
(1 , +t ]
se
se
HA : < 0 ;
HA : > 0 .
n = 200 ,
x = 44500
0 = 44800 ,
113
= 3250 .
3.
4.
5.
Z=
X 0
X 44800
p '
.
/ n
230
X 2
/ [x1 , x2 ], con x1 = 0 e x2 = 0 + . Essendo
6.
X2
/ [44350 , 45250] .
Poich`e il valore calcolato di X , cio`e x, vale 44500, e quindi `e interno a questo intervallo,
lipotesi nulla non pu`
o essere rigettata.
6. La regione di rifiuto pu`
o essere espressa in modo pi`
u immediato in forma standardizzata, nel qual caso `e data da:
jZj > u 2 = u0.025 1.96. Standardizzando quindi il
valore osservato di X , si ottiene
z=
44500 44800
x 0
p =
1.305 .
/ n
230
Essendo jzj < 1.96, come in precedenza arriviamo alla conclusione che lipotesi nulla non
pu`o essere rifiutata.
Osservazione. Se avessimo avuto x = 44300, lipotesi nulla, per la quale la durata media
della popolazione costituita dai cambi `e 44800 Km, sarebbe stata da respingere a favore
= 44800 km.
dellipotesi alternativa HA : 6
p = 2 P (Z jzj) = 2P (Z 1.305) = 2 1 P (Z 1.305) 2(1 0.904) = 0.192 .
Essendo p assai grande, risulta significativamente confermata la non rigettabilit`
a di H0 .
b)
Esempio 3.12.2
Riprendiamo lesempio 3.5.2. I consumi di un motore sperimentale registrati durante 8 prove, per 100 Km di percorrenza, sono stati: 14, 12, 11, 13, 15, 12, 16, 13.
Possiamo affermare che il consumo medio di benzina per quel tipo di motore non supera 12
litri per ogni 100 Km di percorrenza con un livello di significativit`
a =0.01 ?
Come abbiamo gi`
a visto nellesempio 3.5.2, dai dati rilevati nelle prove si ottiene
1.67 .
x = 13.25 ;
La procedura da seguire `e la seguente:
1.
I dati del campione sono assunti come provenienti da una popolazione normale (o
approssimativamente tale) con varianza incognita.
2. Lipotesi nulla corretta sarebbe H0 : 12 contro lipotesi alternativa HA : > 12.
Questo caso tuttavia, avendo a che fare con unipotesi nulla composta sarebbe di difficile
trattazione. Conviene pertanto assumere lipotesi nulla semplice H0 : = 0 = 12 e
ragionare poi sui risultati ottenuti per trarre conclusioni sullipotesi nulla composta.
114
X 0 p
X 12 p
n=
8.
S
S
4. Il rischio di prima specie che siamo disposti a correre `e: = 1%.
3.
5.
T7 =
1.67
X > 2 = 0 + p t = 12 + p 2.998 12 + 1.77 = 13.77 .
n
8
x 0 p
13.25 12 p
n=
8 ' 2.117 .
1.67
Essendo t minore di t0.01 =2.998, lipotesi nulla H0 : =12 non pu`
o essere rigettata.
t=
7. Consideriamo ora il caso in cui lipotesi nulla `e composta, cio`e H0 : 12. Osserviamo
o scriversi in funzione di 0 :
innanzitutto che il valore 2 della relazione di cui al punto 5) pu`
2 (0 ) 0 + 1.77 .
Ci`
o premesso, si pu`
o ragionare in questo modo: ogni ipotesi nulla semplice H0 : = con
< 12 non potr`a essere rifiutata per ogni tale che
X < 2 ( ) + 1.77 ,
ossia
> X 1.77 .
Tenendo conto del fatto che il valore osservato di X `e x = 13.25, ne consegue che lipotesi
o essere
nulla semplice H0 : = , contrapposta allipotesi alternativa HA : > 12, non pu`
rifiutata con un errore di prima specie dell1% per
Esempio 3.12.3
n=50 ,
x=14.8 ,
=6.4 ,
0 =0 .
t=
x 0 p
14.8 p
n=
50 16.35 .
6.4
Dalla tabella dei quantili della legge di Student (non essendo riportato n=49 basta guardare
T50 ), si vede subito che t `e esterno allintervallo di fiducia per qualunque ragionevole livello
115
di significativit`
a . Dunque, in ogni caso, lipotesi nulla deve essere rigettata, il che esclude
che la riduzione di colesterolo sia un fatto puramente fortuito.
Lesempio che segue `e storico; esso riprende esperimenti eseguiti da Student per confrontare le tecniche di trattamento dellorzo utilizzate nella preparazione della birra,
pi`
u precisamente per valutare gli eetti dellessicazione in forno prima della semina. A
parte linteresse storico, esso risulta utile ad illustrare come il problema di avvalorare
oppure no una tesi di lavoro possa essere arontato in due modi diversi, il primo neutrale rispetto alla scelta che il test potr`a suggerire, il secondo invece sbilanciato in
favore dellaccettazione dellipotesi di lavoro.
Esempio 3.12.4
di : +106
20
+101
33
36
+72
+62
+38
70
+127
+24
66.2
66.2
0 p t 2 , 0 + p t 2 = p t 2 , p t 2 = 19.95 t 2 , 19.95 t 2 .
n
n
11
11
Ora, essendo
t0.05 = 1.812 ,
t0.025 = 2.228 ,
t0.005 = 3.169 ,
)
)
[36.15 , 36.15] ;
[44.54 , 44.54] ;
[63.35 , 63.35] .
t=
x 0 p
33.7 p
n=
11 1.688 ,
66.2
116
Essendo
66.2
1 , 0 + p t = 1 , p t = 1 , 19.95 t .
n
11
t0.10 = 1.372 ,
t0.05 = 1.812 ,
t0.01 = 2.764 ,
)
)
)
(1 , 27.37] ;
(1 , 36.15] ;
(1 , 55.14] .
La media calcolata, che vale 33.7, cade internamente alla zona di rifiuto relativa ad =
0.10 ed esternamente a quelle relative agli altri due livelli di significativit`a. Ora pertanto,
diversamente dal caso a), per = 10% lipotesi nulla `e da rigettare in favore dellipotesi
alternativa (che rappresenta quanto desiderato da Student).
Ovviamente si giunge alle stesse conclusioni anche ragionando con gli intervalli di fiducia
espressi attraverso la media standardizzata e quindi, essendo la varianza incognita, attraverso
i quantili della distribuzione di Student. Nel caso di test unilaterale, con ipotesi alternativa
HA : > 0 , la regione di accettazione `e data da (1, t ]. Essendo t=1.688, esso risulta
maggiore di t0.10 e minore di t0.05 e t0.01 , col che ritorniamo (ovviamente) alle conclusioni
precedenti.
Dunque, passando da un test bilaterale ad uno unilaterale, e con un alto livello di significativit`
a (in realt`
a basso), il test pu`
o portare a conclusioni pi`
u favorevoli ai propri desideri.
Questo esempio mostra che impostando il test in un modo o in un altro si possono anche
assumere posizioni non del tutto imparziali rispetto alle ipotesi da rifiutare o avvalorare.
A titolo desercizio si pu`
o andare a calcolare il valore p del test. Chiaramente, essendo
p il minimo per cui lipotesi nulla deve essere rigettata, e sapendo gi`a che al livello di
significativit`
a = 0.1 H0 deve essere rigettata, mentre non pu`
o esserlo per = 0.05,
dovremo trovare un valore di p compreso fra 0.05 e 0.1. Nel caso in questione per definizione
si ha: p = 1 P (T10 t). Utilizzando un opportuno software contenente le funzioni
distribuzione pi`
u significative, indicata con t10 (x) la funzione distribuzione di T10 , si ricava
e quindi
p 0.061 .
Se avessimo calcolato il valore p anche nel caso del test bilaterale, avremmo avuto
p = 2 1P (T10 t = 2 1 t10 (1.688) 0.122 ,
a considerati.
con conferma della non rigettabilit`
a di H0 per tutti tre i livelli di significativit`
117
Caso a)
HA : 1 6
= 2 .
si riuta H0
non si riuta H0
=)
X Y (1 2 )
N (0, 1) .
12 22
+
n m
X Y
12 /n
+ 22 /m
Caso b)
Il test che si vuole eseguire `e lo stesso del punto a). Ora, per`o, abbiamo 12 =22 = 2 ,
con incognita. La statistica usata in precedenza diventa
XY
.
2 1/n + 1/m
Come abbiamo visto nel x 3.7, la varianza 2 pu`o essere stimata dai dati utilizzando
la varianza ponderata Sp2 cos` denita:
Sp2 =
ove
(n 1)S12 + (m 1)S22
,
n+m2
S12 =
1
(Xi X)2 ,
n 1 i=1
S22 =
1
(Yi Y )2 .
m 1 i=1
X Y
1/n + 1/m
Tn+m2 ,
che, come gi`a visto, segue una distribuzione di Student con n + m 2 gradi di libert`a.
Assunto ancora come livello di signicativit`a del test ed indicato con t 2 il quantile
soluzione dellequazione Tn+m2 (t) = 1 2 , lintervallo di accettazione bilaterale per
lo stimatore XY risulta
$
$
t 2 Sp 1/n + 1/m , t 2 Sp 1/n + 1/m ,
mentre quello unilaterale sinistro `e
$
1, t Sp 1/n + 1/m .
2
indicato con
il valore di S
ricavato dal campione, i suddetti intervalli sono approssimati da
t 2
, t 2
e
1, t
.
Caso c)
Essendo questa situazione facilmente arontabile sulla base di quanto appena visto
e delle nozioni gi`a introdotte nel x 3.7 (punto c), la tratteremo rapidamente. La
statistica da utilizzare `e
12
22 2
+
(X Y )
n
m
,
= T ,
= 2
2
2
2
22 2
S1
S2
1
+
n
n
m
+ m
n1
m1
essendo
12 e
22 i valori di S12 e S22 calcolati tramite il campione. Indicati quindi con
t 2 e t i quantili soluzioni, nellordine, delle equazioni
T (t) = 1
e
T (t) = 1 ,
2
le regioni di accettazione per i test bilaterale e unilaterale sinistro sono approssimate
da
'
(
(
12
12
12
22
22
22
t 2
+
, t 2
+
,
1, t
+
.
n
m
n
m
n
m
Caso d)
Campioni appaiati
120
= p u 2
con u 2 soluzione dellequazione (u) = 1 .
n
2
I valori estremi x1 =44350 e x2 =45250 rapresentano rispettivamente il valore minimo
e il valore massimo delle medie (dei campioni con n=200) oltre i quali lipotesi nulla va
riutata. Il rischio di seconda specie `e quindi dato dalla probabilit`a di osservare(ovviamente
per campioni della stessa dimensione) medie comprese fra x1 e x2 quando sia vera lipotesi
altenativa HA : =A =44900, o equivalentemente
= P x1 X x2 HA : A =44900 .
44350 44900
230), si ha
350
550
230
230
230
230
(1.52) (2.39) = (1.52) + (2.39) 1 0.936 + 0.992 1 = 0.928
45250 44900
Va fatto notare che che la scelta in alternativa tra un test unilaterale o bilaterale
dipende dallo specico quesito posto e dalle caratteristiche del problema esaminato.
In ogni caso si pu`o aermare che la potenza di un test bilaterale, cio`e la probabilit`a
di riutare H0 quando H0 `e falsa, a parit`a di dimensione del campione e di livello
di ducia, `e minore rispetto a quella del corrispondente test unilaterale. Ci`o risulta
evidente dalla gura che segue, dove sono messe a confronto le curve caratteristiche
operative per il test bilaterale HA : 6
= 44800 e per il test unilaterale HA : < 44800.
` importante notare che per i principali test statistici le curve caratteristiche sono diE
sponibili gi`a tabulate in funzione della dierenza o del rapporto tra il valore ipotizzato
nellipotesi nulla e quello nellipotesi alternativa, naturalmente in forma standardizzata. I graci che seguono lEsempio 11.9 mostrano le curve caratteristiche operative
X 0 p
n, con rischio di prima specie = 0.05, per test
relative alla statistica Z =
unilaterali e test bilaterali. In ascissa ci sono i valori assunti dal rapporto j0 A j/,
dove 0 `e il valore della media ipotizzato nellipotesi nulla H0 e A `e un preciso valore
tra quelli considerati nelle ipotesi alternative, con scarto quadratico medio supposto
noto.
122
Z=
X 0
X 1.54 X 1.54
p =
p =
;
0.0451
/ n
0.23/ 26
= P X 2 j HA : = 1.62 .
123
Standardizzando si ha
X 1.62
2 1.62
P Z 0.133] =
0.0451
0.0451
= 1 P [Z 0.133] 1 0.553 = 0.447 45% .
=P
= P X 2 (n) j HA : = 1.65 ,
0.3784
u
.
2 (n) = 0 + p 1.54 + p
n
n
Essendo noto ed uguale a 0.1, mediante standardizzazione la relazione scritta sopra porta
alla seguente equazione in n:
'
X 1.65 p
2 (n) 1.65 p
P
n
n =P Z
0.23
0.23
0.3784
0.11 p
0.23
n = 0.1 ,
0.11 p
0.23
n = 1.281
p p
p
(0.3784 0.11 n) n = 0.2946 n ,
da cui
e quindi
p
0.11 n = 0.673
ossia
n=
0.673 2
0.11
(6.12)2 37.4 .
Dunque, la dimensione del campione che soddisfa alle condizioni poste nella domanda `e 38.
Se avessimo voluto determinare n mediante le curve caratteristiche, avremmo dovuto procedere nel modo seguente. Calcolata lascissa
d=
j0 A j
j1.54 1.65j
=
0.48 ,
0.23
essendo lordinata uguale a 0.1, si individua la curva caratteristica, fra quelle per test
unilaterali relative ad =0.05, che contiene il punto (d, ) (0.48, 0.1). Dai grafici che
seguono, per quanto un po grossolani, il valore che che si desume `e del tutto compatibile
con n=38.
124
Curve caratteristiche operative per test unilaterali per la media della popolazione
(varianza nota), con campioni di dimensione 2-10,15,20,30,40,50,75,100, per =0.05.
Curve caratteristiche operative per test bilaterali per la media della popolazione
(varianza nota), con campioni di dimensione 2-10,15,20,30,40,50,75,100, per =0.05.
125
P [N (0, 1)] x
.00
.01
.02
.03
.04
.05
.06
.07
.08
.09
.0
.5000
.5040
.5080
.5120
.5160
.5199
.5239
.5279
.5319
.5359
.1
.5398
.5438
.5478
.5517
.5557
.5596
.5636
.5675
.5714
.5753
.2
.5793
.5832
.5871
.5910
.5948
.5987
.6026
.6064
.6103
.6141
.3
.6179
.6217
.6255
.6293
.6331
.6368
.6406
.6443
.6480
.6517
.4
.6554
.6591
.6628
.6664
.6700
.6736
.6772
.6808
.6844
.6879
.5
.6915
.6950
.6985
.7019
.7054
.7088
.7123
.7157
.7190
.7224
.6
.7257
.7291
.7324
.7357
.7389
.7422
.7454
.7486
.7517
.7549
.7
.7580
.7611
.7642
.7673
.7704
.7734
.7764
.7794
.7823
.7852
.8
.7881
.7910
.7939
.7967
.7995
.8023
.8051
.8078
.8106
.8133
.9
.8159
.8186
.8212
.8238
.8264
.8289
.8315
.8340
.8365
.8389
1.0
.8413
.8438
.8461
.8485
.8508
.8531
.8554
.8577
.8599
.8621
1.1
.8643
.8665
.8686
.8708
.8729
.8749
.8770
.8790
.8810
.8830
1.2
.8849
.8869
.8888
.8907
.8925
.8944
.8962
.8980
.8997
.9015
1.3
.9032
.9049
.9066
.9082
.9099
.9115
.9131
.9147
.9162
.9177
1.4
.9192
.9207
.9222
.9236
.9251
.9265
.9279
.9292
.9306
.9319
1.5
.9332
.9345
.9357
.9370
.9382
.9394
.9406
.9418
.9429
.9441
1.6
.9452
.9463
.9474
.9484
.9495
.9505
.9515
.9525
.9535
.9545
1.7
.9554
.9564
.9573
.9582
.9591
.9599
.9608
.9616
.9625
.9633
1.8
.9641
.9649
.9656
.9664
.9671
.9678
.9686
.9693
.9699
.9706
1.9
.9713
.9719
.9726
.9732
.9738
.9744
.9750
.9756
.9761
.9767
2.0
.9772
.9778
.9783
.9788
.9793
.9798
.9803
.9808
.9812
.9817
2.1
.9821
.9826
.9830
.9834
.9838
.9842
.9846
.9850
.9854
.9857
2.2
.9861
.9864
.9868
.9871
.9875
.9878
.9881
.9884
.9887
.9890
2.3
.9893
.9896
.9898
.9901
.9904
.9906
.9909
.9911
.9913
.9916
2.4
.9918
.9920
.9922
.9925
.9927
.9929
.9931
.9932
.9934
.9936
2.5
.9938
.9940
.9941
.9943
.9945
.9946
.9948
.9949
.9951
.9952
2.6
.9953
.9955
.9956
.9957
.9959
.9960
.9961
.9962
.9963
.9964
2.7
.9965
.9966
.9967
.9968
.9969
.9970
.9971
.9972
.9973
.9974
2.8
.9974
.9975
.9976
.9977
.9977
.9978
.9979
.9979
.9980
.9981
2.9
.9981
.9982
.9982
.9983
.9984
.9984
.9985
.9985
.9986
.9986
3.0
.9987
.9987
.9987
.9988
.9988
.9989
.9989
.9989
.9990
.9990
3.1
.9990
.9991
.9991
.9991
.9992
.9992
.9992
.9992
.9993
.9993
3.2
.9993
.9993
.9994
.9994
.9994
.9994
.9994
.9995
.9995
.9995
3.3
.9995
.9995
.9995
.9996
.9996
.9996
.9996
.9996
.9996
.9997
125
DI STUDENT:
P [Tn (x)]
=0.90
=0.95
=0.975
=0.98
=0.99
=0.995
3.078
6.314
12.71
15.894
31.821
63.66
1.886
2.920
4.303
4.849
6.965
9.925
1.638
2.353
3.182
3.482
4.541
5.841
1.533
2.132
2.776
2.999
3.747
4.604
1.476
2.015
2.571
2.757
3.365
4.032
1.440
1.943
2.447
2.612
3.143
3.707
1.415
1.895
2.365
2.517
2.998
3.499
1.397
1.860
2.306
2.449
2.896
3.355
1.383
1.833
2.262
2.398
2.821
3.250
10
1.372
1.812
2.228
2.359
2.764
3.169
11
1.363
1.796
2.201
2.328
2.718
3.106
12
1.356
1.782
2.179
2.303
2.681
3.055
13
1.350
1.771
2.160
2.282
2.650
3.012
14
1.345
1.761
2.145
2.264
2.624
2.977
15
1.341
1.753
2.131
2.249
2.602
2.947
16
1.337
1.746
2.120
2.235
2.583
2.921
17
1.333
1.740
2.110
2.224
2.567
2.898
18
1.330
1.734
2.101
2.214
2.552
2.878
19
1.328
1.729
2.093
2.205
2.539
2.861
20
1.325
1.725
2.086
2.197
2.528
2.845
21
1.323
1.721
2.080
2.189
2.518
2.831
22
1.321
1.717
2.074
2.183
2.508
2.919
23
1.319
1.714
2.069
2.177
2.500
2.807
24
1.318
1.711
2.064
2.172
2.492
2.797
25
1.316
1.708
2.060
2.167
2.485
2.787
26
1.315
1.706
2.056
2.162
2.479
2.779
28
1.313
1.701
2.048
2.154
2.467
2.763
30
1.310
1.697
2.042
2.147
2.457
2.750
32
1.309
1.694
2.037
2.141
2.449
2.738
35
1.306
1.690
2.030
2.133
2.438
2.724
40
1.303
1.684
2.021
2.123
2.423
2.704
50
1.299
1.676
2.009
2.109
2.403
2.678
60
1.296
1.671
2.000
2.099
2.390
2.660
1.282
1.645
1.960
2.054
2.326
2.576
126
0.005
0.01
0.025
0.05
.00004
.00016
.00098
0.0100
0.0201
0.0506
0.0717
0.115
0.207
0.297
0.412
0.554
0.676
0.872
0.989
1.344
P [2n (x)]
0.10
0.90
0.95
0.975
0.99
0.995
.0039
.015
2.706
3.841
5.024
6.635
7.879
0.103
0.211
4.605
5.991
7.378
9.210
10.597
0.216
0.352
0.584
6.251
7.815
9.348
11.345
12.838
0.484
0.711
1.064
7.779
9.488
11.143
13.277
14.860
0.831
1.145
1.610
9.236
11.070
12.832
15.086
16.750
1.237
1.635
2.204
10.645
12.592
14.449
16.812
18.548
1.239
1.690
2.167
2.833
12.017
14.067
16.013
18.475
20.278
1.647
2.180
2.733
3.490
13.362
15.507
17.535
20.090
21.955
1.735
2.088
2.700
3.325
4.168
14.684
16.919
19.023
21.666
23.589
10
2.156
2.558
3.247
3.940
4.865
15.987
18.307
20.483
23.209
25.188
11
2.603
3.053
3.816
4.575
5.578
17.275
19.675
21.920
24.725
26.757
12
3.074
3.571
4.404
5.226
6.304
18.549
21.026
23.337
26.217
28.300
13
3.565
4.107
5.009
5.892
7.041
19.812
22.362
24.736
27.688
29.819
14
4.075
4.660
5.629
6.571
7.790
21.064
23.685
26.119
29.141
31.319
15
4.601
5.229
6.262
7.261
8.547
22.307
24.996
27.488
30.578
32.801
16
5.142
5.812
6.908
7.962
9.312
23.542
26.296
28.845
32.000
34.267
17
5.697
6.408
7.564
8.672
10.085
24.769
27.587
30.191
33.409
35.718
18
6.265
7.015
8.231
9.390
10.865
25.989
28.869
31.526
34.805
37.156
19
6.844
7.633
8.907
10.117
11.651
27.204
30.144
32.852
36.191
38.582
20
7.434
8.260
9.591
10.851
12.443
28.412
31.410
34.170
37.566
39.997
21
8.034
8.897
10.283
11.591
13.240
29.615
32.671
35.479
38.932
41.401
22
8.643
9.542
19.982
12.338
14.041
30.813
33.924
36.781
40.289
42.796
23
9.260
10.196
11.689
13.091
14.848
32.007
35.172
38.076
41.638
44.181
24
9.886
10.856
12.401
13.848
15.659
33.196
36.415
39.364
42.980
45.558
25
10.520
11.524
13.120
14.611
16.473
34.382
37.652
40.646
44.314
46.928
26
11.160
12.198
13.844
15.379
17.292
35.563
38.885
41.923
45.642
48.290
27
11.808
12.878
14.573
16.151
18.114
36.741
40.113
43.195
46.963
49.645
28
12.461
13.565
15.308
16.928
18.939
37.916
41.337
44.461
48.278
50.994
29
13.121
14.256
16.047
17.708
19.768
39.087
42.557
45.722
49.588
52.335
30
13.787
14.953
16.791
18.493
20.599
40.256
43.773
46.979
50.892
53.672
32
15.134
16.362
18.291
20.072
22.271
42.585
46.194
49.480
53.486
56.328
34
16.501
17.789
19.806
21.664
23.952
44.903
48.602
51.966
56.061
58.964
36
17.887
19.233
21.336
23.269
25.643
47.212
50.998
54.437
58.619
61.581
38
19.289
20.691
22.878
24.884
27.343
49.513
53.384
56.895
61.162
64.181
40
20.707
22.164
24.433
26.509
29.051
51.805
55.758
59.342
63.691
66.766
45
24.311
25.901
28.366
30.612
33.350
57.505
61.656
65.410
69.957
73.166
50
27.991
29.707
32.357
34.764
37.689
63.167
67.505
71.420
76.154
79.490
60
35.534
37.485
40.482
43.188
46.459
74.397
79.082
83.298
88.379
91.952
70
43.275
45.442
48.758
51.739
55.329
85.527
90.531
95.023
100.425 104.215
80
51.172
53.140
57.153
60.391
64.278
96.578
90
59.196
61.754
65.647
69.126
73.291
100
67.328
70.065
74.222
77.929
82.358
127
BIBLIOGRAFIA
128