variabili casuali (aleatorie) continue 1/ dispense sbio/2016... · 2017-06-15 · 1 variabili...
TRANSCRIPT
1
Variabili Casuali (aleatorie) Continue 1/
Dato un spazio di probabilità (S, F,P), si definisce variabile casuale X una
funzione misurabile(*)
(*) nota: funzione misurabile è una funzione opportunamente definita su insiemi misurabili, sulla
quale non entreremo in dettagli
tale che RI: FX F )(, 1 IXEI
Quindi: F )(1 IX È un evento ed è possibile quindi, valutarne la probabilità:
1;0)(1 IXP
(**)
(**) nota: la variabile casuale X è un modo per indurre la probabilità su sottoinsiemi di R.
I
dxxfIXP )( )(
Si supponga ora che X assume valore non in un insieme discreto ma in un sottoinsieme di R avente
la potenza del continuo (ad es. l’intervallo [a,b]): una variabile aleatoria siffatta (che assume valori in
un insieme che ha la potenza del continuo) è detta continua. Per il calcolo della probabilità si
ricorre allora all’uso della funzione f(x) densità di probabilità che costituisce l’estensione della
funzione di probabilità al caso continuo :
Ricordiamo:
Def. Variabile Casuale Continua
2
Variabili Casuali (aleatorie) Discrete 1b/
Schema :
eventi) (spazio space sample S algebra F
S
F
]1,0[
R
àprobabilitP
aleatoria variabileX
3
Variabili Casuali (aleatorie) continue 1c/
Schema :
eventi) (spazio space sample S Borel di algebra F
S
F
]1,0[
R
àprobabilitP
aleatoria variabileX
4
Variabili Casuali (aleatorie) Continue 2/
Def. Distribuzione di probabilità
b
a
dxxfbXaP )()(
f(X) funzione distribuzione di probabilità della variabile aleatoria X
Es. Funzione Densità di Probabilità
f(x) (funzione di variabile reale)
è detta funzione densità di
probabilità della variabile reale x
Nel caso significativo in cui I=[a;b] allora si scrive brevemente:
)(]);([)( 11 bXaPbaXPIXP
b
a
dxxfbXaP )()(
dxxfdxxXxP )()(
Osserviamo la seguente possibile interpretazione della funzione densità di probabilità:
La funzione densità di probabilità non è univocamente determinata per la variabile aleatoria X
(due funzioni che hanno lo stesso integrale di Riemann possono essere equivalenti per la
determinazione della probabilità [ad es. due funzioni che differiscono per un insieme di punti a
misura nulla (*)]).
(*) nota: un sottoinsieme I di R ha misura nulla (grossolanamente) se: 0Idx
5
Variabili Casuali (aleatorie) Continue 2a/
6
V.A.C.: funzione densità: caratteristiche 3/
Poiché:
0)()( b
a
dxxfbXaP in [a,b]q.o.xf (*) 0)( )1
(*) nota: q.o. quasi ovunque. Significa che l’insieme in cui la relazione non vale ha misura nulla.
D’ora in poi tralasceremo questa precisazione affermando la proprietà per ogni x.
Inoltre, poiché:
0)()()( a
a
dxxfaXaPaXP 0)( )2 aXP
cioè la probabilità che la variabile aleatoria continua X assume un qualsiasi valore reale è zero
Se X assume valori su tutto R, la condizione di normalizzazione richiede che:
1)( )3
dxxff(x)dxR
Se, in generale , X assume valori in I sottoinsieme di R dovrà essere: 1 )3 I f(x)dx
7
V.A.C.: funzione densità: caratteristiche 3/
Poiché:
0)()( b
a
dxxfbXaP in [a,b]q.o.xf (*) 0)( )1
(*) nota: q.o. quasi ovunque. Significa che l’insieme in cui la relazione non vale ha misura nulla.
D’ora in poi tralasceremo questa precisazione affermando la proprietà per ogni x.
Inoltre, poiché:
0)()()( a
a
dxxfaXaPaXP 0)( )2 aXP
cioè la probabilità che la variabile aleatoria continua X assume un qualsiasi valore reale è zero
Se X assume valori su tutto R, la condizione di normalizzazione richiede che:
1)( )3
dxxff(x)dxR
Se, in generale , X assume valori in I sottoinsieme di R dovrà essere: 1 )3 I f(x)dx
8
V.A.C.: funzione di ripartizione 4/
b
a
dxxfbXaP )()(
Def. Funzione di Ripartizione o Cumulativa
x
dttfxXPxF )()()( )4
x
a
dttfxXPxFa )()()( )4
In generale se la f. densità è definita in [a,b]:
9
V.A.C.: funzione di ripartizione 4a/
Per il teorema fondamentale del calcolo integrale la funzione di ripartizione risulta essere una
funzione integrale (di una funzione che è continua). Dunque:
)()(' )4 xfxFb La derivata della funzione di ripartizione è la funzione densità di probabilità.
10
V.A.C.: Valore di aspettazione di X 5/
Def. Valore di aspettazione di X (valor medio)
dxxfxXE )()( )5
In generale se la f. densità è definita in [a,b]:
b
a
dxxfxXEa )()( )5
Ricorda: per le variabili discrete:
11
)()( )5i
ii
i
ii pxxXpxXEb
11
V.A.C.: Varianza e dev. Standard di X 6/
Def. Varianza di X :
dxxfxXEXVar )()())(()( )6 222
In generale se la f. densità è definita in [a,b]:
Ricorda: per le variabili discrete:
b
a
dxxfxXEXVara )()())(()( )6 222
i
ii pxXEXVarb 222 )())(()( )6
Def. Deviazione standard di X: ))(( )7 2 XE
12
V.A.C.: Momenti di X 7/
Def. Momento di ordine k di X :
dxxfxXEm kk )()( )8 k
b
a
kk dxxfxXEa )()(m )8 ki
i
k
i
k pxXEb )(m )8 k
Def. Momento CENTRALE di ordine k di X :
dxxfxXE kk )()())(( )8 k
b
a
kk dxxfxXEa )()())(( )8 k
i
i
k
i
k pxXEb )())(( )8 k
13
V.A.C.: Momenti di X , Skew e Curtosi 8/
Oss.
10 m 1m2
2)( mXE
2
22)( mXVar01
Def. Curtosi (Coefficiente di Curtosi) 4
4
Curtosi
Def. Asimmetria (SKEW) 3
3
SKEW
14
Integrale Definito: Integrali impropri di 2° specie «particolari» 1/
20
2
dxe x
Ecco alcuni integrali impropri riguardanti funzioni di cui la primitiva non è esprimibile
con funzioni «elementari»
2
2
2
2
20
2
2
x
ydxex
22
222
0
22
22
dxedxexx
02
2
dxexx
15
Integrale Definito: Integrali impropri di 2° specie «particolari» 2/
Ecco alcuni integrali impropri riguardanti funzioni di cui la primitiva non è esprimibile
con funzioni «elementari»
30
2
4
2
dxex x
20
2
dxe x
50
4
8
32
dxex x
30
2/1
2
2
dxex x
50
2/3
4
32
dxex x
2
2
0
22
2
dxexx
16
Integrale Definito: Integrali impropri di 2° specie «particolari» 3/
2
)sin(
0
dxx
x2/3
0
2
2)sin(
dxx
dx x1
12
17
Distribuzione Continua Uniforme 1/
Def. Funzione di Densità
abxf
1)(
]);([ baUX
X variabile aleatoria con distribuzione uniforme (detta a volte rettangolare) sull’intervallo
[a;b]
Normalizzazione: 11
)(
b
a
b
a
dxab
dxxf
Valore Medio <X> 22
11)(
22 baab
abxdx
abdxxfx
b
a
b
a
<X2> 33
11)(
223322 babaab
abdxx
abdxxfx
b
a
b
a
18
Distribuzione Continua Uniforme 2/
Var(X)=<X2>-(<X>)2 =
12
)(
12
2
12
363444
4
)(
3
2222222222 babababababababababa
32
ab
2
baX
3
222 baba
X
Riassumendo:
19
Distribuzione Continua Uniforme 3/
La distribuzione uniforme viene impiegata nella trattazione degli errori di misura ogni
qual volta si sa con sicurezza che una certa variabile è contenuta in un certo intervallo,
ma non si ha alcun motivo per ritenere alcuni valori più plausibili di altri.
20
Distribuzione Triangolare 1/
]);([ 0 xTX
X variabile aleatoria con distribuzione triangolare
]);;([ 0 xTX A
21
Distribuzione Triangolare 2/
]);([ 0 xTX
Quando la variabile casuale è definita in un certo intervallo, ma ci sono delle ragioni per
ritenere che i gradi di fiducia decrescano linearmente dal centro x_0 verso gli estremi si
ha la cosiddetta distribuzione triangolare (o di Simpson).
Anch’essa è molto utile per il calcolo delle incertezza di misura, in quanto in molte
circostanze, questo tipo di modello può essere più realistico di quello uniforme.
Intervallo : baxx ;; 00
]);;([ 0 xTX A baxx ;; 00
Chiamiamo c l’ascissa del punto di massimo:
bxc 2
c x 2
cxa 2
)(
cb
xb
ab
ab
ac
ax
ab
xf
22
Distribuzione Triangolare 3/
bxc 2
c x 2
cxa 2
)(
cb
xb
ab
ab
ac
ax
ab
xf
]);([ 0 xTX
000
0
000
xxx 1
x x 1
xxx 1
)(
xx
xx
xf
2
1
m
2
0
xq
21
1
m 2
01
xq
23
Distribuzione Triangolare 4/
]);([ 0 xTX
Calcolo Valor Medio : 0xX
0
0
0
0
0
0
0
02323
2
1
3
1
23
11
x
x
x
x
x
x
x
x
xq
xm
xq
xmdxqxmxdxqmxxX
0
0
0
0
2323
2
1
3
1
23x
x
x
x
xq
xm
xq
xm
232
)(
3
)(
2
)(
3
)(
23
2
1
3
1
2
01
3
0
1
2
0
3
0
23
0 000x
qx
mx
qx
mx
qx
mx
qx
m
2
2
3
)33(
2
2
3
)33( 2
01
32
0
2
1
2
0
32
0
2
00x
qxx
mx
qxx
m
2
2
3
)33(1
2
2
3
)33(1 2
01
32
0
2
2
2
0
32
0
2
2
00x
qxxx
qxx
24
Distribuzione Triangolare 4/
]);([ 0 xTX
Calcolo Valor Medio : 0xX
2
2
2
22
2
2
2
22 2
0
2
0
2
0
2
00
2
01
2
0
2
2
0 xxxxx
xq
xq
x
0000
2
0
2
0
2
0
2
00 22
2
2
2
22 xxxx
xxxxx
Calcolo : 2X
b
x
x
a
b
x
x
a
xq
xm
xq
xmdxqxmxdxqmxxX
0
0
0
0
3434
3
1
4
1
34
11
222
Poniamo: 0xa 0xb2
a
q 21
b
q
2
1
m
21
1
m
25
Distribuzione Triangolare 4/
Varianza :
41,06
6
)(2
XVar
333444
)(3
1
33
01
4
1
44
01
1
bq
aq
xqq
bm
am
xmm
mm
3342333)(
42
3
0
22
44
2
44
2
4
0
2
4
2
43
0
2
444
0
xbababaxbaxbaba
mx
m
2
424
0
4
0
2
4
0
2
44
2
4
0
2
4
0
2
44
2
443
0
2
0
2
4
0
12
)6(2
6123
2
2343
2
2
xxxbaxxbabaxxx
2
0
2
2
422
0
4
0
2
4
0
66
6
6x
xxx
2
0
22
6xX
26
Distribuzione Normale (o Gaussiana) 1/
Es. Distribuzione Gaussiana Normale
2
2
2
1)(
X
eXf
Es. Distribuzione Gaussiana con valor medio µ e deviazione standard σ
2
2
2
2
1)(
X
eXf
)1,0(NX
),( 2NX
Funzione di distribuzione
Funzione di distribuzione
27
Distribuzione Normale (o Gaussiana)
2
2
2
2
1)(
X
eXf
28
Distribuzione Normale : proprietà 1/ Normalizzazione (traccia di calcolo)
Valore Medio <X>
dxe
X2
2
2
2
1
xzCambio variabile dxdz
1
12
1
2
12
2
22
dzedzezz
dzezdxexzX
)(2
1
2
12
2
2
2
2
202
1
2
12
2
22
dzedzezzz
29
Distribuzione Normale : proprietà 2/
<X2>
dzezdxexzX
)(2
1
2
12
22
2
2
2
2
22222
22
2
22 2022
12
2
1222
dzedzezdzezzzz
Var(X) 222 ][)( XXXVar
30
Distribuzione Normale
Parametri: media a varianz2
Proprietà: E’ simmetrica rispetto alla retta verticale x=μ
E’ unimodale
Presenta due punti di flessi simmetrici in x = μ ± σ
Presenta un punto di massimo per x=μ per cui
2
1)(f
Tende asintoticamente a zero per x che tende all’infinito 0)(lim
xfx
Per essa: media=moda=mediana
Frequenza cumulata:
y
dxxfyF )()(
FWHM: )2ln(22
31
Distribuzione Normale
Parametri: media a varianz2
Proprietà:
Fissato σ al variare di μ si
ottengono i seguenti
grafici:
Fissato μ al variare di σ si
ottengono i seguenti
grafici:
32
Distribuzione Normale
33
Distribuzione Normale: Funzione di Ripartizione
Distribuzione Normale
34
Indicato con [μ-hσ, μ+hσ] un intorno della media aritmetica μ, si ha:
(Legge dei tre sigma) In una distribuzione normale la (quasi) totalità dei casi osservati
è compresa in un intorno completo di μ di ampiezza 6 σ
http://www.sixsigmaonline.org/index.html
%6868,0)( 1 xPh
%9595,0)22( 2 xPh
%9999,0)33( 3 xPh
Distribuzione Normale Standardizzata
35
XZ
Tale distribuzione è indicata con N(0,1):
2exp
2
1)(
2zzf
1
0
2
)1;0( );( 2 NZNX
Teo.
Teo.
bZ
aPbXaP )(
Funzione di Ripartizione Normale Standardizzata
36
La Funzione di ripartizione (cumulata) della N(0,1):
0
)()()( 00
z
dttfzZPzF
1)(lim
zFz
2
1)0( F
0)(lim
zFz
2exp
2
1)(
2zzf
z tz
dtedttfzZPzF 2
2
2
1)()()(
Funzione Cumulativa Gaussiana F(z): Tabella
37
Funzione Cumulativa Gaussiana: Tabella
38
Funzione di Ripartizione ridotta
39
0
0
0 )()(
z
dttfz
0)0(
2
1)(lim
z
z
Esistono tabelle dell’integrale della funzione Φ(z). Da queste tabelle è possibile
calcolare qualsiasi altro integrale facendo uso delle proprietà di simmetria della funzione
e dei valori notevoli di F(z).
Essa va letta nel seguente modo:
il valore di z™, fino alla prima cifra decimale, è riportato nella prima colonna;
la seconda cifra decimale è indicata nella prima riga delle altre colonne e, in
corrispondenza di essa, è riportato il valore dell’integrale;
)(5.0)( zzF
Data la simmetria della distribuzione gaussiana standardizzata per i valori tabellari, si
preferisce introdurre la seguente funzione (che chiameremo «funzione di ripartizione
ridotta») :
Tabella Funzione Ripartizione ridotta z
40
z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,00000 0,00399 0,00798 0,01197 0,01595 0,01994 0,02392 0,02790 0,03188 0,03586
0,1 0,03983 0,04380 0,04776 0,05172 0,05567 0,05962 0,06356 0,06749 0,07142 0,07535
0,2 0,07926 0,08317 0,08706 0,09095 0,09483 0,09871 0,10257 0,10642 0,11026 0,11409
0,3 0,11791 0,12172 0,12552 0,12930 0,13307 0,13683 0,14058 0,14431 0,14803 0,15173
0,4 0,15542 0,15910 0,16276 0,16640 0,17003 0,17364 0,17724 0,18082 0,18439 0,18793
0,5 0,19146 0,19497 0,19847 0,20194 0,20540 0,20884 0,21226 0,21566 0,21904 0,22240
0,6 0,22575 0,22907 0,23237 0,23565 0,23891 0,24215 0,24537 0,24857 0,25175 0,25490
0,7 0,25804 0,26115 0,26424 0,26730 0,27035 0,27337 0,27637 0,27935 0,28230 0,28524
0,8 0,28814 0,29103 0,29389 0,29673 0,29955 0,30234 0,30511 0,30785 0,31057 0,31327
0,9 0,31594 0,31859 0,32121 0,32381 0,32639 0,32894 0,33147 0,33398 0,33646 0,33891
1,0 0,34134 0,34375 0,34614 0,34849 0,35083 0,35314 0,35543 0,35769 0,35993 0,36214
1,1 0,36433 0,36650 0,36864 0,37076 0,37286 0,37493 0,37698 0,37900 0,38100 0,38298
1,2 0,38493 0,38686 0,38877 0,39065 0,39251 0,39435 0,39617 0,39796 0,39973 0,40147
1,3 0,40320 0,40490 0,40658 0,40824 0,40988 0,41149 0,41309 0,41466 0,41621 0,41774
1,4 0,41924 0,42073 0,42220 0,42364 0,42507 0,42647 0,42785 0,42922 0,43056 0,43189
1,5 0,43319 0,43448 0,43574 0,43699 0,43822 0,43943 0,44062 0,44179 0,44295 0,44408
1,6 0,44520 0,44630 0,44738 0,44845 0,44950 0,45053 0,45154 0,45254 0,45352 0,45449
1,7 0,45543 0,45637 0,45728 0,45818 0,45907 0,45994 0,46080 0,46164 0,46246 0,46327
1,8 0,46407 0,46485 0,46562 0,46638 0,46712 0,46784 0,46856 0,46926 0,46995 0,47062
1,9 0,47128 0,47193 0,47257 0,47320 0,47381 0,47441 0,47500 0,47558 0,47615 0,47670
2,0 0,47725 0,47778 0,47831 0,47882 0,47932 0,47982 0,48030 0,48077 0,48124 0,48169
2,1 0,48214 0,48257 0,48300 0,48341 0,48382 0,48422 0,48461 0,48500 0,48537 0,48574
2,2 0,48610 0,48645 0,48679 0,48713 0,48745 0,48778 0,48809 0,48840 0,48870 0,48899
2,3 0,48928 0,48956 0,48983 0,49010 0,49036 0,49061 0,49086 0,49111 0,49134 0,49158
2,4 0,49180 0,49202 0,49224 0,49245 0,49266 0,49286 0,49305 0,49324 0,49343 0,49361
2,5 0,49379 0,49396 0,49413 0,49430 0,49446 0,49461 0,49477 0,49492 0,49506 0,49520
2,6 0,49534 0,49547 0,49560 0,49573 0,49585 0,49598 0,49609 0,49621 0,49632 0,49643
2,7 0,49653 0,49664 0,49674 0,49683 0,49693 0,49702 0,49711 0,49720 0,49728 0,49736
2,8 0,49744 0,49752 0,49760 0,49767 0,49774 0,49781 0,49788 0,49795 0,49801 0,49807
2,9 0,49813 0,49819 0,49825 0,49831 0,49836 0,49841 0,49846 0,49851 0,49856 0,49861
3,0 0,49865 0,49869 0,49874 0,49878 0,49882 0,49886 0,49889 0,49893 0,49896 0,49900
Uso Tabella: Esempi 1/
41
Es. Si calcoli P(0<Z<1.46)~0.4279 ( nella tabella sono riportati i valori di (z) ):
Es. Se a,b sono positivi
)()()()()( aFbFabbZaP
La simmetria della distribuzione normale permette di valutare dalle stesse tavole
anche l’integrale su un intervallo qualsiasi.
135905.0841345.0977250.0)1()2()1()2()21( FFZP
Uso Tabella: Esempi 1b/
42
Es. Se a,b sono negativi )()()( babZaP
241731.0691462.0933193.0)5.0()5.1()5.0()5.1()5.05.1( FFZP
)()()( bFaFbZaP
Uso Tabella: Esempi 1c/
43
Es. Se a negativo ,b positivo
668712.0191462.0477250.0)5.0()2()25.0( ZP
668712.01691462.0977250.05.0)5.0(5.0)5.1()5.05.1( FFZP
)()()( abbZaP
1)()()( aFbFbZaP
Uso Tabella: Esempi 2/
44
Es.
Es. In relazione alla figura a fianco :
)46.1(072145.0927855.01)46.1(1)46.1( ZPFZP
)46,1(927855,0)46.1()46.1( ZPFZP
)8,046,1(139710.0788145.0927855.0)8.0()46.1()46.18.0( ZPFFZP
716.01788145.0927855.01)8.0()46.1()46,18,0( FFZP
532807.01691462.0841345.01)5.0()1( FF
)15.0( ZP
Uso Tabella: Esempi 3/
45
Es. I voti di un compito di matematica sono stati dall’1 al 10. ipotizzando che si
distribuiscano secondo la legge normale continua con valor medio 6.7 e scarto
quadratico medio 1.2 determinare:
la percentuale di studenti che ha preso il voto tra 5.5 e 6.5
xz 1
2.1
7.65.5 5.5
zx 17.0
2.1
7.65.6 5.6
zx
P(-1<z<-0.17) = F(1)-F(0,17) ~ 0,841345-0,567495 = 0,27385 ~ 27.38%
Uso Tabella: Esempi 4/
46
Es. Si consideri una distribuzione normale con μ=25 e σ=3. Utilizzando la tabella della
probabilità cumulata si calcoli:
])29;(( XP ])20;(( XP ])29;20[( XP
Ris. Passiamo alla variabile Z standardizzata:
3
25
XZ 33.1
3
4
3
25292
z 908241,0])33.1;((])29;(( ZPXP
67.13
5
3
25201
z ]);67.1((])67.1;((])29;(( ZPZPXP
047460,0952540.01])67.1;((1 ZP
8607,00475,09082,0])20;((])29;((])29;20[( XPXPXP
Uso Tabella: Campo di Incertezza 5/
47
Spesso si utilizza la funzione di probabilità cumulata per la valutazione degli «intervalli di
confidenza» o «intervalli fiduciari» o «campo di incertezza». Si stabilisca una percentuale che individui la probabilità con cui vogliamo determinare il
«livello di fiducia» delle nostre rilevazioni/misurazioni. Supponiamo ad es. P=95%. Ciò
significa che vogliamo che la possibilità di commettere un errore sia del 5%: questo
valore è indicato solitamente con α (in statistica inferenziale noto come «p-value»).
Si tratta di determinare un intervallo [z1;z2] in modo tale che:
%)95( 1)( 21 zZzP
%)5,2( 2
)()( 21
zZPzZPE, per simmetria:
Spesso si pone:
2
1 zz 2
12
zz
Uso Tabella: Campo di Incertezza 6/
48
Come si trovano gli estremi z1 e z2 dell’intervallo fiduciario ?
z1 è legato ad un valore pari ad α/2 ( 2,5% ) della funzione cumulativa
z2 è legato ad un valore pari ad 1-α/2 ( 97,5% ) della funzione cumulativa
Leggendo, come dire , in modo inverso la tabella (cioè cercando il valore della
percentuale nella tabella e risalendo attraverso le intestazione di riga e colonna al valore
della variabile) otteniamo:
96,106,09,12 z
96,121 zz
Per z1 (che è negativo) utilizziamo la
simmetria della curva
Uso Tabella: Campo di Incertezza 7/
49
Passando a variabile gaussiane non standardizzate :
%)95( 121
z
xzP
%)95( 121 zxzP
L’intervallo fiduciario diventa allora: 21; zz
Uso Tabella: Valori Critici di z 8/
50
Funzione Errore (Erf) 1/
51
la funzione degli errori (chiamata anche funzione degli errori di Gauss) è una
funzione speciale che si incontra in probabilità, in statistica. Si definisce come:
La funzione degli errori differisce solo per
traslazione e omotetia dalla funzione di
distribuzione cumulativa normale
standard, che denotiamo con Φ:
Quando i risultati di una serie di misure sono descritti da una distribuzione normale con
deviazione standard σ, allora:
2
aerf
esprime la probabilità che l'errore di una singola
misura si trovi fra -a e +a.
Distribuzione Esponenziale 1/
52
In teoria delle probabilità la distribuzione esponenziale (o di Laplace) è una distribuzione
di probabilità continua che descrive la “durata di vita” di un fenomeno che non invecchia
(ovvero è priva di memoria).
Un esempio è la durata di vita di una particella radioattiva prima di decadere oppure la
durata della richiesta di un servizio; dunque essa è in relazione al tempo di attesa del
primo successo, in fenomeni aleatori con distribuzione geometrica. La distribuzione esponenziale (o di Laplace) può dedursi anche come la distribuzione di probabilità di una variabile aleatoria definita
come somma dei quadrati di due variabili aleatorie normali standardizzate (ossia con valore atteso zero e varianza unitaria); dunque
è banalmente riconducibile anche ad un caso particolare di distribuzione del chi-quadro, essendo, quest'ultima, la distribuzione di
probabilità della variabile aleatoria costruita come la somma dei quadrati di n variabili aleatorie indipendenti normali e standardizzate.
Distribuzione esponenziale
doppia (o di Laplace)
avente valore atteso
nullo e deviazione standard
unitaria.
Distribuzione Esponenziale 2/
53
In generale indichiamo una variabile aleatoria X che si distribuisce secondo legge
esponenziale con parametro λ con: )(X E
La distribuzione esponenziale E(λ) , con parametro >
0 , ha funzione di densità di probabilità definita sui numeri
reali positivi R+ pari alla funzione esponenziale
xexf )(
Normalizzazione
Valore <X>
10
00
x
xx e
edxe
00
00dx
eexdxxedxex
xxxx
11
00
x
x edxe
1XE
Distribuzione Esponenziale 3/
54
Valore <X2>
00
2
0
2
0
2 2 dxe
xe
xdxexdxexxx
xx
2
2 2
XE
2
1
XVar
1X
xexXPXF 1)()(
Varianza
Funzione di
Ripartizione
20
12
2
dxxe x
xx
xt
xt ee
edte
11
00
Distribuzione Esponenziale 4/
55
Distribuzione Esponenziale in funzione del Tempo tx
1
t
etf
1
)( XE 2XVar X
La distribuzione esponenziale può essere atta a descrivere una situazione di incertezza
in cui anche valori molto grandi della grandezza possono essere ammissibili, ma con
gradi di fiducia tali che dopo alcune deviazioni standard si è “praticamente certi” che essi
non si verifichino. Un caso interessantissimo in cui essa entra in gioco è nei tempi di
attesa di conteggi in fenomeni descritti da processi di Poisson
In particolare la formula
Fra le distribuzioni di probabilità discrete, invece, ogni distribuzione priva di memoria è
una distribuzione geometrica.
implica la mancanza di memoria xexXP )(
aeaXP )( )()( baebaXP
)()(
)()|( bXPe
aXP
baXPaXbaXP b
Distribuzione di Cauchy (Breit-Wigner) 1/
56
La distribuzione di Cauchy (esempio di distribuzione a varianza non finita) è data da:
22
1)(
xxf
A rigore questo integrale non esiste perché la funzione non si azzera abbastanza
rapidamente all’infinito (f(x)~1/x2, xf(x)~1/x divergente). Tuttavia possiamo considerarlo
in senso lato nullo, poiché si tratta dell’integrale di una funzione dispari su un intervallo
simmetrico rispetto all’origine.
Normalizzazione
Valore Atteso
01
)()(22
dxx
xdxxfxXE
dxx
dxx
dxxf2222
1
11)(
dxdyx
y
1
,
11
1
12
dyy
Distribuzione di Cauchy (Breit-Wigner) 2/
57
La distribuzione di Cauchy è nota in Fisica Nucleare come distribuzione di Lorentz o di
Breit-Wigner e viene utilizzata per descrivere le risonanze nelle sezioni d’urto.
Varianza
11
0 maxmax
yx
dxxfxXE )()( 22
2
1)( essendo
xxf
FWHM
)()]([)()( 222 XEXEXEXVar
22
1
11
2
1
xy
y
22222
222
2
1
xx
xx
2FWHM
Invece della varianza questa distribuzione può essere caratterizzata dalla ampiezza
totale a metà massimo,
58
Legame tra Distribuzioni Discrete e Continue:Distribuzione Binomiale 1/
Distribuzione delle probabilità P(k) relative ai vari k considerati, quando p=0.3 e n=10.
59
Legame tra Distribuzioni Discrete e Continue: Distribuzione Binomiale 2/
60
Legame tra Distribuzioni Discrete e Continue: Distribuzione Binomiale 3/
La distribuzione binomiale permette di calcolare, per numeri n piccoli, le probabilità di avere un certo numero k di successi nelle n prove. Se abbiamo molte prove, n diventa molto grande. Trovare le probabilità dei successi k diventa difficile. Per alti n il problema non è di trovare la probabilità connessa ad uno specifico numero k di successi, ma di trovare ad esempio la probabilità di trovare più o meno di k successi
Si ricorre allora alle distribuzioni NORMALE ( GAUSSIANA) o di Poisson, che valgono
per n molto grande.
In questo caso lo scaloide della distribuzione di probabilità binomiale, ossia l’insieme
dei rettangoli che rappresentano le probabilità dei singoli k, tende a diventare un’area
sottostante ad una linea continua.
Per il legame tra distribuzione binomiale e distribuzione di Poisson vale il
seguente teorema:
Teo. Supponiamo: Ni pnBX ni ,..,1 ),( Con pn successione reale (positiva)
tale che:
0lim
nn
np Allora: Nk Abbiamo:
!
)(limk
ekPk
Xn
61
Legame tra Distribuzioni Discrete e Continue: Distribuzione di Poisson 1 /
62
Teoremi Generali sulle Distribuzioni
Teorema del Limite Centrale 1/
Sono una famiglia di teoremi di convergenza debole nell'ambito della teoria della
probabilità. Una delle formulazioni più note del teorema è la seguente:
Teo. (del Limite Centrale)
Siano Xi i=1,..,n n variabili aleatorie indipendenti, identicamente distribuite (i.i.d.)
(medesima funzione di densità, di qualsiasi tipo) tali che:
i XE i )( i X i )(
Sia:
n
nX
Y
n
i
i
n
1 Allora: )1,0(lim NYYnn
n
n
X
Y
n
i
i
n
1
Nota:
n
X
X
n
i
i
1
nX
2
)Var(
nper
63
Teoremi Generali sulle Distribuzioni
Teorema Centrale del Limite 2/
Esempio
Consideriamo il lancio di uno, due .. dieci dadi a sei facce. Ecco i grafici della
distribuzione del valore medio ottenuto dal lancio dei dadi:
1-dado 2-dadi 3-dadi
5-dadi 10-dadi
64
Convergenza in distribuzione della binomiale e di Poisson
Sia la binomiale che la poissoniana godono della proprietà riproduttiva. Questa proprietà
permette di pensare una distribuzione caratterizzata da un valore medio elevato come
una somma di tante variabili casuali provenienti dallo stesso tipo di distribuzione ma
caratterizzate da valori medi più piccoli. Siccome per il teorema del limite centrale una
somma di variabili casuali tende ad una distribuzione normale, la distribuzione binomiale
e quella di Poisson tendono alla distribuzione normale al crescere, rispettivamente, di
np e di λ
Distribuzione binomiale
Per valori di np (10-15) abbastanza grandi la distribuzione binomiale tende ad una
gaussiana con : np nqp
Distribuzione di Poisson
Per valori di λ abbastanza grandi (10-15) la distribuzione di Poisson tende ad una
gaussiana con :
65
Teoremi Generali sulle Distribuzioni
Diseguaglianza di Čebyšëv 2/
Nelle situazioni aleatorie caratterizzate da una serie di eventi ripetuti, occorre trovare la probabilità
che il numero di successi ricada entro un certo intervallo. Ad esempio nei controlli di qualità di
richiede di conoscere la probabilità che il numero di pezzi privi di difetti si avvicini il più possibile al
numero di pezzi prodotti, cioè che vengano prodotti il minor numero possibile di pezzi difettosi. In
più nell’ambito della produzione si vuole sapere qual è la valutazione della probabilità che la
produzione di pezzi privi di difetti sia p.es. >= 95%, 98%, 99% (carta di controllo).
Se è nota la distribuzione di probabilità della variabile aleatoria X (numero pezzi privi di difetti),
allora è possibile valutare quanto richiesto attraverso il seguente teorema:
Teo. (Diseguaglianza di Čebyšëv)
Per ogni variabile aleatoria X, che si distribuisce secondo una distribuzione avente
valor medio µ e deviazione standard σ, vale la seguente diseguaglianza:
2
)()(
XVarXP
2
)()(1)(
XVarXPXP
66
Teoremi Generali sulle Distribuzioni
Diseguaglianza di Čebyšëv 3/
Oss_ Si ponga
22
2 1)(
XP Allora:
Ed anche: 2
11)(1)(
XPXP
Es. Si lancia 50 volte una moneta non truccata. Si registra ogni volta il lancio. Si determini la
probabilità per cui la variabile aleatoria X = «numero di teste uscite» assuma un valore entro 2σ dal
valore di aspettazione µ .
%754
3
2
1)2(1)2(
2 XPXP
2
1;50 pnBX 25 np 536,35,12 npq
La probabilità che il numero di teste differisca da sia tra (25-7,072)~18 e
(25+7,072)~32 è del 75%
67
Teoremi Generali sulle Distribuzioni
Diseguaglianza di Čebyšëv 4/
Es. Usando valori interi di λ otteniamo la seguente tabella:
%754
3
4
11
%88.889
8
9
11
%75.9316
15
16
11
%9625
24
25
11
%99100
99
100
11
68
Teoremi Generali sulle Distribuzioni
Legge dei Grandi Numeri 1/
Sia data la successione delle variabili aleatorie Xi. Per avere più chiaro il senso di ciò che segue, si
può immaginare che le Xi rappresentino misurazioni successive di una grandezza, ad esempio una
grandezza fisica, la cui aleatorietà è dovuta all’imprecisione degli strumenti di misura.
Se si effettuano n misure successive, è assai naturale considerare la media aritmetica dei risultati
ottenuti, cioè:
n
X
X
n
i
i
n
1
media campionaria
Una parte considerevole dei Teoremi limite del calcolo delle probabilità riguarda il comportamento
asintotico, per n → +∞, della media campionaria.
Def. Diciamo che la successione di variabili aleatorie {Xn} converge (debolmente) in probabilità a
X se e solo se :
0lim:0
XXP nn
e scriveremo: XXP
n
Es. Dai teoremi precedenti: se nn pnBX ;
Allora:
0 npn
)(o
P
n PXX
69
Teoremi Generali sulle Distribuzioni
Legge (debole) dei Grandi Numeri 1/
Def. Diremo che la successione Xn soddisfa la legge (debole) dei grandi numeri se e solo se:
P
nX
Supponiamo che le Xn abbiamo tutte la stessa media µ e la stessa deviazione standard σ
In altre parole, la Legge dei Grandi Numeri afferma che la media campionaria converge alla
media probabilistica, fornendo così una giustificazione a posteriori della nozione di valor medio.
Resta, naturalmente, da stabilire sotto quali condizioni sulla successione (Xn) sia valida la Legge
dei Grandi Numeri. L’ipotesi più comunemente assunta è quella in cui le Xn sono indipendenti
ed identicamente distribuite (i.i.d.).
Il prossimo risultato è una versione ”elementare” della legge dei grandi numeri.
Teo. (Legge debole dei Grandi Numeri) Sia {Xn} una successione i.i.d., e supponiamo che le Xn
ammettano momento secondo. Allora la successione (Xn) soddisfa la Legge debole dei Grandi
Numeri.
70
Teoremi Generali sulle Distribuzioni
Legge (debole) dei Grandi Numeri 2/ Esplicitiamo la Legge dei Grandi numeri attraverso la storica diseguaglianza di Bernoulli (deducibile per altro da quella di Čebyšëv).
Teo. (Diseguaglianza di Bernoulli) Sia X=X1+X2+…Xn una successione i.i.d. tutte con valor medio
µ e deviazione standard σ allora:
0 2
2
nn
XP
Oss. Per le proprietà del valor medio e della varianza:
n
XE
nn
n
n
XVar
n
XVar
2
2
2
2
)(
Basta poi sostituire questi valori nella diseguaglianza di Čebyšëv
71
Teoremi Generali sulle Distribuzioni
Legge (debole) dei Grandi Numeri 3/ Osserviamo che nella diseguaglianza di Bernoulli la n sta al denominatore, il che significa che la frazione a destra al crescere di n diventa sempre più piccola. In altri termini al crescere del numero delle prova (legge dei Grandi Numeri) la media campionaria si «avvicina» sempre di più alla valore medio delle distribuzioni, cioè in qualche modo al valore «vero» della misurazione. Meglio : la probabilità della differenza tra la media campionaria ed il valore medio «vero» tende a zero al tendere all’infinito del numero delle prove effettuare.
La legge dei grandi numeri è detta anche «legge empirica del caso» perché da un qualche fondamento alla concezione frequentista della probabilità.
72
METODO MONTECARLO 1/ Il Monte Carlo é una tecnica che fa uso di numeri casuali per risolvere numericamente problemi di
diverso tipo. Il nome Monte Carlo fu coniato da Nicholas Metropolis nel 1949 con riferimento al
gioco d’azzardo, ma tecniche di calcolo ed esperimenti basati sul campionamento statistico furono
sviluppate per tutto il XIX secolo con la finalità di risolvere problemi che non avevano soluzione
analitica.
Il primo ad aver applicato i metodi di campionamento statistico alla fisica sembra sia stato Enrico
Fermi negli anni trenta, che tuttavia, essendo più interessato ai risultati che alle tecniche con
cui li aveva ottenuti, non ne fece mai cenno nei suoi lavori.
E’ intorno al 1948 ai laboratori di Los Alamos nel gruppo (composto da John von Neumann, Stan
Ulam e Nicholas Metropolis) che lavorava allo sviluppo delle armi nucleari che queste tecniche
vengono usate per descrivere la diffusione di neutroni e prendono piena cittadinanza nella Fisica
moderna. Già nel 1949 si teneva la I Conferenza sui metodi Monte Carlo con un centinaio di
partecipanti.
La caratteristica di questi lavori è che essi utilizzano il computer, e anzi costituiscono una
motivazione importante per la progettazione dei primi calcolatori. Da quel momento lo sviluppo di
queste tecniche, come è avvenuto per tutti i metodi numerici di calcolo, si lega indissolubilmente
allo sviluppo delle tecnologie informatiche.
73
METODO MONTECARLO 2/ Generazione di numeri casuali e pseudo casuali.
Da una serie di misure possiamo ricavare una sequenza di numeri casuali, cioè la sequenza dei
valori assunti dalla variabile aleatoria. Si ipotizza che questa sequenza sia imprevedibile e, quindi,
non riproducibile. Tipici processi fisici che possiamo considerare a tale fine sono i decadimenti
radioattivi, il rumore termico in un circuito elettronico, i tempi di arrivo di raggi cosmici, ... .
Il problema più importante che occorre affrontare per essere sicuri di ottenere dei numeri veramente
casuali è quello di eliminare possibili distorsioni introdotte dal metodo di misura.
Si tratta di sequenze di numeri veramente casuali, tuttavia il loro uso su calcolatore per generare
eventi aleatori complessi è sconsigliato perché il continuo accesso alla memoria di massa allunga
considerevolmente i tempi dei calcoli.
Si preferisce pertanto rinunciare ai numeri veramente casuali ed utilizzare i cosiddetti numeri
pseudo-casuali, che sono invece numeri generati da algoritmi matematici veloci e che consumano
poca memoria. Poiché si tratta di sequenze generate in maniera deterministica, i numeri pseudo-
casuali sono esattamente riproducibili e predicibili.
Il requisito diventa allora che tali sequenze siano statisticamente indistinguibili da una sequenza
di numeri veramente casuali. Questo vuol dire che i generatori di numeri pseudo-casuali, se
sottoposti a test di casualità, devono dare dei risultati vicini a quelli che ci si aspetta da dei numeri
veramente casuali. Prima di passare a descrivere alcuni di questi test, premettiamo che, d’ora in
avanti, ove non diversamente specificato, riserveremo il termine di numeri pseudo-casuali (o
pseudo-random) a numeri generati da un algoritmo matematico che si suppongono indipendenti e
uniformemente distribuiti nell’intervallo (0, 1).
74
METODO MONTECARLO 3/ Test di casualità.
Consideriamo la funzione:
Essa da il valore atteso delle n variabili aleatorie X1,..,Xn.
Supponiamo che esse siano uniformemente distribuite in [0,1].
Considerando che:
n
X
XX
n
i
i
n
1
1 ),..,(
)1,0(,..,1 UXX n
0.28867512
1
5.0
Il Teorema del Limite Centrale allora implica che la variabile aleatoria ψ per n → +∞ si
distribuisca gaussianamente con :
5.0)( Enn
Var12
1)(
2
Considerando allora l’intervallo [µ-2σ, µ+2σ] allora ci si dovrebbe aspettare la probabilità di
trovare ψ all’interno di questo intervallo di circa il 95%.
Se ciò non accade si dice che il test fallisce al livello del 5%.
75
METODO MONTECARLO 4/ Generazione di numeri casuali secondo particolari distribuzioni (Gaussiane):
Metodo MonteCarlo di INVERSIONE
E’ possibile dimostrare che la distribuzione cumulativa di una variabile aleatoria è sempre
distribuita secondo una distribuzione uniforme in [0,1].
Supponiamo che la variabile aleatoria X sia distribuita con N(0,1). La sua distribuzione cumulativa è
allora distribuita con una distribuzione uniforme in [0;1]:
)1,0()()1,0( UXFNX
Generiamo allora una sequenza di numero pseudo-casuali in [0,1] , siamo questi:
)()( poniamo,...,1 1
iiiii yFzzFyniy
INV.NORM.S Excel funzione1 F
Allora le zi saranno distribuite secondo una N(0,1). Ponendo poi:
zx ii
Allora le xi saranno distribuite secondo una N(µ,σ).
Vedi Foglio Excel «Metodo Montecarlo.xlsm»
76
Distribuzione t di Student 1/ La distribuzione venne descritta nel 1908 da William Sealy
Gosset, che pubblicò il suo risultato sotto lo pseudonimo
«Student” perché la fabbrica di birra Guinness presso la quale
era impiegato vietava ai propri dipendenti di pubblicare articoli
affinché questi non divulgassero segreti di produzione. Il nome
distribuzione di Student venne successivamente introdotto da
Ronald Fisher.
77
Funzione Gamma Di Eurlero 1/
Funzione GAMMA di Eulero
Es. Utilizzo
0
1 )( dte tx tx-
2
1
78
Funzione Beta Di Eurlero 1/ Funzione BETA di Eulero
Caratteristiche
79
Distribuzione t di Student 1/
Funzione GAMMA di Eulero
Funzione BETA di Eulero
libertà di gradi
80
Distribuzione t di Student 2/
libertà di gradi n
81
Tabella Distribuzione t di Student 3/
libertà di gradi n
Funzione densità di probabilità
Esempi di distribuzioni di t di
Student per ν uguale a 1 (curva
più larga), 2, 5, 10 e 100 (~ ∞).
82
Tabella Distribuzione t di Student 4/
Da: Segue che:
)//()( 22 nSqXnSqXPqTqP nn
83
Distribuzione t di Student: Valori critici 4/
84
Distribuzione t di Student: Valori critici 5/
85
t di Student: Valori critici (cont.) 6/
86
t di Student: Valori critici (cont.) 7/
87
t di Student: Funzione di
ripartizione 8/
88
t di Student: Funzione di
ripartizione 9/
89
Distribuzione Chi2 di Pearson 1/ In teoria delle probabilità la distribuzione χ2 (chi quadrato o chi-quadro) è la distribuzione di
probabilità della somma dei quadrati di variabili aleatorie indipendenti normalizzate.
In statistica viene particolarmente utilizzata per l'omonimo test di verifica d'ipotesi (test χ2) [vedi
dispense sulla statistica descrittiva bivariata].
La variabile che segue tale distribuzione è usualmente indicata con . Il parametro
ν, non necessariamente intero è detto numero di gradi di libertà. Valore
atteso, varianza e moda sono:
2
1
0
x
90
Distribuzione Chi2 di Pearson 2/
Variabile Aleatoria:
dove x1;..; xk sono variabili aleatorie indipendenti con distribuzione normale standard
N(0; 1) . Il parametro k è detto numero di gradi di libertà.
91
Distribuzione Chi2 di Pearson 2/
Esempi di distribuzioni di Chi2. I numeri in grassetto si riferiscono alle curve continue.
92
Chi2 : valori critici 1/
93
Chi2 : valori critici 2/
94
Distribuzione Chi2 : 3/
95
Distribuzione Chi2 : (cont) 3/
96
Distribuzione F di Fisher-Snedecor 1/ In teoria delle probabilità la distribuzione di Fisher-Snedecor (o F di Fisher-Snedecor, o Z di
Fisher) è una distribuzione di probabilità continua che regola il rapporto “riscalato” tra due
variabili aleatorie che seguono due distribuzioni Chi2.
La funzione densità di probabilità è:
21 e Sono detti Gradi di libertà
La variabile aleatoria è: 2
1
/
/
Y
XF con )( 1
2 X )( 2
2 Y
Valore atteso e varianza sono:
97
Distribuzione F di Fisher-Snedecor 2/ In statistica il test F per il confronto di due varianze è un test di ipotesi basato sulla distribuzione F
di Fisher-Snedecor e volto a verificare l'ipotesi che due popolazioni che seguono entrambe
distribuzioni normali abbiano la stessa varianza.
Seguono le tavole dei quantili per la distribuzione F di Fisher-Snedecor
98
Distribuzione F : Tabelle 3/
99
Distribuzione F : Tabelle 4/
100
Distribuzione F : Tabelle 5/
101
Distribuzione F : Tabelle 6/