SAMMANFATTNING TAMS65
Matematisk statistik, fortsättningskurs
LÄST SOM EN DEL AV CIVILINGENJÖRSPROGRAMMET I
INDUSTRIELL EKONOMI VID LITH, VT 2016
Senast reviderad: 2016-06-01 Författare: Viktor Cheng
Sida 2 av 24
Innehållsförteckning
Introduktion till statistikteori .......................................................................................................................... 4
Modellering ..................................................................................................................................................... 4
Lägesmått för stickprov................................................................................................................................... 4
Spridningsmått för stickprov ........................................................................................................................... 4
Standardiserad normalfördelning ..................................................................................................................... 4
Regler för normalfördelning ............................................................................................................................ 5
Egenskaper hos normalfördelade stokastiska variabler .................................................................................... 5
Väntevärde, varians och standardavvikelse för 𝑿 (oberoende) ......................................................................... 5
Räkneregler för väntevärde och varians för oberoende s.v. .............................................................................. 5
Räkneregler för s.v. ......................................................................................................................................... 5
Punktskattningar .............................................................................................................................................. 6
Väntevärdesriktighet (v.v.r) ............................................................................................................................. 6
Konsistent skattning........................................................................................................................................ 6
Effektivitet ...................................................................................................................................................... 6
Skattning av väntevärde och varians ............................................................................................................... 7
Skattning av 𝝁 ................................................................................................................................................. 7
Skattning av 𝝈𝟐............................................................................................................................................... 7
Momentmetoden (MM) ................................................................................................................................... 8
Minsta-kvadrat-metoden (MK) ....................................................................................................................... 8
Maximum-likelihood-metoden (ML) ............................................................................................................. 9
ML-skattningar vid normalfördelning .............................................................................................................. 9
Exempel på medelfel för en skattning ............................................................................................................ 9
Konfidensintervall........................................................................................................................................... 10
Konstruktion av konfidensintervall ............................................................................................................... 10
Ensidigt konfidensintervall, simultan konfidensgrad ...................................................................................... 10
Konfidensintervall för 𝝁................................................................................................................................ 11
Konfidensintervall för 𝝈 eller 𝝈𝟐 .................................................................................................................. 12
Modellering av parvisa skillnader ................................................................................................................... 13
Konfidensintervall vid två stickprov .............................................................................................................. 13
Jämförelse av varianser .................................................................................................................................. 14
Normalapproximation.................................................................................................................................... 15
Binomialfördelning – konfidensintervall för 𝒑............................................................................................... 15
Binomialfördelning – konfidensintervall för 𝒑𝟏 − 𝒑𝟐................................................................................... 16
Normalapproximation via centrala gränsvärdessatsen.................................................................................... 17
Exempel – Användning av CGS................................................................................................................ 17
Hypergeometrisk fördelning – konfidensintervall för 𝒑 ................................................................................. 18
Sida 3 av 24
Hypotesprövning ............................................................................................................................................ 19
En- och tvåsidiga test .................................................................................................................................... 19
Slutsatser från konfidensmetoden.................................................................................................................. 20
Hypotesprövning utan normalapproximation ................................................................................................ 20
Jämförelse mellan 𝑪-metoden och 𝒑-metoden .............................................................................................. 20
Hypotesprövning med normalapproximation ................................................................................................ 21
Normalapproximation - allmänt .................................................................................................................... 21
Hypotesprövning vid ett stickprov – 𝝈 känd ................................................................................................. 22
Hypotesprövning vid ett stickprov – 𝝈 okänd ............................................................................................... 22
Hypotesprövning vid ett stickprov – 𝑯𝟎:𝝈𝟐 = 𝝈𝟎𝟐.................................................................................... 22
Hypotesprövning vid flera stickprov – 𝝁𝒊 ..................................................................................................... 23
Hypotesprövning vid flera stickprov – 𝝈𝒊 ..................................................................................................... 23
Stokastiska vektorer........................................................................................................................................ 24
Flerdimensionell normalfördelning............................................................................................................... 24
Kovariansmatris ............................................................................................................................................ 24
Regressionsanalys .......................................................................................................................................... 24
Sida 4 av 24
Introduktion till statistikteori
Definition Beteckning Betydelse
Population 𝑁 Samtliga möjliga observationer
Stickprov 𝑛 Utvalt antal ur population
Observation 𝑥 𝑥 är ett givet tal, när stickprovet har tagits.
Parameter 𝑝 𝑝 är en okänd parameter som ska skattas
Punktskattning 𝑝∗ Ett tal som är en skattning av 𝑝
Intervallskattning
Konfidensintervall 𝐼𝑝
Ett intervall som med en viss given säkerhet (%) innehåller det okända värdet 𝑝, t.ex. 𝐼𝑝 = (𝑎∓ 𝑏) = [𝑎 − 𝑏, 𝑎 + 𝑏]
Hypotesprövning
Signifikanstest
Ställ upp hypotes att 𝑝 < 𝑝0 , där 0 ≤ 𝑝0 ≤ 1 är ett givet tal. Pröva hypotes mha stickprovet, dvs. om stickprovets utseende stämmer överens med hypotesen eller om hypotesen ska förkastas.
Slumpmässigt stickprov
Ett slumpmässigt stickprov 𝑥1,… , 𝑥𝑛 utgörs av observationer av
oberoende och likafördelade s.v. 𝑋1,… , 𝑋𝑛
Modellering
Verklighet Modell
Mätvärden 𝑥1,… ,𝑥𝑛 Oberoende s.v. 𝑋1,… , 𝑋𝑛
𝑥1,… , 𝑥𝑛 är observationer av dessa s.v.
Okänd konstant 𝜇 Konstanten 𝜇 är väntevärdet för 𝑋1,… , 𝑋𝑛
Lägesmått för stickprov
Medelvärde 𝑥̅ =1
𝑛∑𝑥𝑖
𝑛
𝑖=1
=𝑥1+𝑥2+⋯+𝑥𝑛
𝑛
Spridningsmått för stickprov
Varians 𝑠2 =1
𝑛 − 1∑(𝑥𝑖− �̅�)
2
𝑛
𝑖=1
Standardavvikelse 𝑠 = √1
𝑛 − 1∑(𝑥𝑖− �̅�)
2
𝑛
𝑖=1
Standardiserad normalfördelning
Låt Φ(𝑦) vara (den fyrkantiga) fördelningsfunktionen för 𝑌~𝑁(0,1)
Låt 𝑋 vara en s.v. med väntevärde 𝜇 och standardavvikelse 𝜎, dvs. 𝑋~𝑁(𝜇,𝜎)
Då kallas 𝑌 =𝛸−𝜇
𝜎 en standardiserad s.v. och 𝑌~𝑁(0,1) ⟹
𝑃(𝑎 < 𝑋 ≤ 𝑏) = 𝑃 (𝑎 − 𝜇
𝜎<𝑋 − 𝜇
𝜎≤𝑏 − 𝜇
𝜎) = 𝑃 (
𝑎 − 𝜇
𝜎< 𝑌 ≤
𝑏 − 𝜇
𝜎) = Φ(
𝑏 − 𝜇
𝜎)− Φ(
𝑎 − 𝜇
𝜎)
Sida 5 av 24
Regler för normalfördelning
Antag att 𝑎 > 0, 𝑏 > 0 och 𝛸~𝑁(0,1). Då gäller:
Regel
𝑃(𝛸 ≤ −𝑎) = = Φ(−𝑎) = 1− Φ(𝑎)
𝑃(𝛸 > 𝑎) = = 1 −𝑃(𝛸 ≤ 𝑎) = 1 −Φ(𝑎)
𝑃(−𝑎 < 𝛸 ≤ 𝑏) = = Φ(𝑏) −Φ(−𝑎)
= Φ(𝑏) − (1 −Φ(𝑎)) = Φ(𝑏) +Φ(𝑎) − 1
Egenskaper hos normalfördelade stokastiska variabler
Förutsättningar Resultat
𝑋~𝑁(𝜇, 𝜎) 𝑌 = 𝑎𝑋 + 𝑏
𝑌~𝑁(𝑎 ∙ 𝜇 + 𝑏, |𝑎|𝜎)
𝑋~𝑁(𝜇1,𝜎1) 𝑌~𝑁(𝜇2 ,𝜎2)
𝑋 och 𝑌 oberoende
(𝛸 ± 𝑌)~𝑁 (𝜇1 ± 𝜇2,√𝜎12 +𝜎2
2)
𝑋1,… , 𝑋𝑛 är oberoende
𝑋1~𝑁(𝜇1,𝜎1), … , 𝑋𝑛~𝑁(𝜇𝑛,𝜎𝑛) (∑𝑎𝑖𝛸𝑖 +𝑏
𝑛
1
) ~𝑁(∑𝑎𝑖𝜇𝑖 +𝑏
𝑛
1
, √∑𝑎𝑖2𝜎𝑖
2
𝑛
1
)
Väntevärde, varians och standardavvikelse för �̅� (oberoende)
Förutsättningar Resultat
𝑋1,… , 𝑋𝑛 har alla samma väntevärde 𝜇 𝐸[𝑋] = 𝜇
𝑋1,… , 𝑋𝑛 har alla samma varians 𝜎2 𝑉(�̅�) =
𝜎2
𝑛
𝑋~𝑁 (𝜇,𝜎
√𝑛)
𝑋1,… , 𝑋𝑛 har alla samma standardavvikelse 𝜎 𝐷(𝑋) =𝜎
√𝑛
Räkneregler för väntevärde och varians för oberoende s.v.
Väntevärde 𝐸(𝑎𝑋 + 𝑏𝑌 +𝐶) = 𝑎 ∙ 𝐸(𝑋) + 𝑏 ∙ 𝐸(𝑌)+ 𝐶
Varians 𝑉(𝑎𝑋 + 𝑏𝑌 + 𝐶) = 𝑎2𝑉(𝑋) + 𝑏2𝑉(𝑌)
Räkneregler för s.v.
Diskret sv. 𝒀 = 𝒈(𝑿) 𝐸[𝑌] = 𝐸[𝑔(𝑋)] = ∑𝑔(𝑘) ∙ 𝑝𝛸(𝑘)
𝑘
Kontinuerlig sv. 𝒀 = 𝒈(𝑿) 𝐸[𝑌] = 𝐸[𝑔(𝛸)] = ∫ 𝑔(𝑥) ∙ 𝑓𝛸(𝑥) 𝑑𝑥∞
−∞
Varians 𝑉(𝑋) = 𝐸[𝑋2] − (𝐸[𝑋])2
Sida 6 av 24
Punktskattningar
Beteckning Betydelse Exempel
𝜃𝑜𝑏𝑠∗
Punktskattning av okänd parameter 𝜃
Är ett utfall av den s.v. 𝜃∗ (dvs. ett tal)
𝜃𝑜𝑏𝑠∗ är en funktion av mätdata 𝑥1, 𝑥2,… , 𝑥𝑛
𝜃𝑜𝑏𝑠∗ =
𝑥
1000= 0.35
𝜃∗ Stickprovsvariabel
Är en s.v. som beror av de s.v. 𝑋1, 𝑋2, … , 𝑋𝑛 𝜃∗ =
𝑋
1000
𝐸(𝜃∗) Väntevärdet för fördelningen av 𝜃∗ 𝐸(𝜃∗) = 𝐸 (𝑋
1000)
𝑉(𝜃∗) Variansen för fördelningen av 𝜃∗ 𝑉(𝜃∗) = 𝑉 (𝑋
1000) =
𝜃(1 − 𝜃)
1000
𝐷(𝜃∗) Standardavvikelsen för fördelningen av 𝑝∗ 𝐷(𝑝∗) = 𝐷 (𝑋
1000) = √
𝜃(1 − 𝜃)
1000
𝑑(𝜃∗)
Medelfelet för 𝜃𝑜𝑏𝑠∗
𝑑(𝜃∗) = 𝐷(𝜃𝑜𝑏𝑠∗ )
Numerisk skattning av osäkerheten i skattningen 𝜃𝑜𝑏𝑠∗
𝑑(𝜃∗) = √𝜃𝑜𝑏𝑠∗ (1 − 𝜃𝑜𝑏𝑠
∗ )
1000=
= √0.35(1 − 0.35)
1000≈ 0.015
Väntevärdesriktighet (v.v.r)
En punktskattning 𝜃𝑜𝑏𝑠∗ är väntevärdesriktig om:
Dess tillhörande stickprovsvariabel 𝜃∗ har väntevärde 𝜃 𝐸(𝜃∗) = 𝜃 för alla värden som 𝜃∗ kan anta
”Det förväntade utfallet av stickprovsvariabeln θ∗ är det sanna värdet på θ”
Konsistent skattning
En punktskattning 𝜃𝑜𝑏𝑠∗ är konsistent om:
𝑃(| 𝜃𝑛∗ − 𝜃| > 𝜀) → 0 då stickprovsstorleken 𝑛 → ∞
Alternativt:
För varje fixt 𝜃 som 𝜃∗ kan anta och
för varje givet 𝜀 > 0
𝐸(𝜃∗) = 𝜃 Väntevärdesriktighet
𝑉(𝜃𝑛∗) → 0 då stickprovsstorleken 𝑛 →∞ Minskad varians (avvikelse från det sanna värdet)
”Ju fler observationer, desto mindre blir felet”
Effektivitet
En skattning 𝜃1∗ sägs vara en mer effektiv skattning än 𝜃2
∗ om:
𝜃1,𝑜𝑏𝑠∗ och 𝜃2,𝑜𝑏𝑠
∗ är väntevärdesriktiga skattningar För alla 𝜃 som 𝜃∗ kan anta
𝜃1∗ och 𝜃2
∗ uppfyller 𝑉(𝜃1∗) < 𝑉(𝜃2
∗) För alla 𝜃 som 𝜃∗ kan anta
”Mindre varians ⇒ bättre/mer effektiv skattning”
Sida 7 av 24
Skattning av väntevärde och varians
Okänd parameter är antingen väntevärde 𝜇 eller varians 𝜎2 för den fördelning som stickprovet kommer ifrån
Skattning av 𝝁
Steg Beräkning Beskrivning
Punktskattning 𝜇𝑜𝑏𝑠∗ =
1
𝑛∑𝑥𝑖
𝑛
𝑖=1
= �̅� Använd stickprovsmedelvärdet som punktskattning
Stickprovsvariabel 𝜇∗ =1
𝑛∑𝑋𝑖
𝑛
𝑖=1
= 𝑋 Betrakta 𝜇𝑜𝑏𝑠
∗ = �̅� som en
observation av en s.v. 𝜇∗ = 𝑋
Betrakta de s.v. 𝑋𝑖 som oberoende
och likafördelade med väntevärde
𝜇 och standardavvikelse 𝜎
𝐸(𝜇∗) = 𝐸 (1
𝑛∑𝑋𝑖
𝑛
𝑖=1
) =1
𝑛𝐸 (∑𝑋𝑖
𝑛
𝑖=1
) =1
𝑛∙ 𝑛𝜇 = 𝜇
𝑉(𝜇∗) = 𝑉 (1
𝑛∑𝑋𝑖
𝑛
𝑖=1
) =1
𝑛2𝑉 (∑𝑋𝑖
𝑛
𝑖=1
) =1
𝑛2∙ 𝑛𝜎2 =
𝜎2
𝑛
Väntevärde 𝐸(𝜇∗) = 𝜇 Väntevärdesriktig
Varians 𝑉(𝜇∗) =𝜎2
𝑛
För stora 𝑛 ligger skattningen
troligen nära det rätta värdet 𝜇
Sats 11.1: Stickprovsmedelvärdet 𝑀∗ = 𝑋 är en väntevärdesriktig och konsistent skattning av 𝜇.
Skattning av 𝝈𝟐
Steg Beräkning Beskrivning
Punktskattning (𝜎2)𝑜𝑏𝑠∗ =
1
𝑛 − 1∑(𝑥𝑖− �̅�)
2
𝑛
𝑖=1
= 𝑠2 Använd stickprovsvariansen som punktskattning
Stickprovsvariabel (𝜎2)∗ =1
𝑛 − 1∑(𝑋𝑖 −𝑋)
2
𝑛
𝑖=1
= 𝑆2 Betrakta (𝜎 2)𝑜𝑏𝑠
∗ = 𝑠2 som en
observation av en s.v. (𝜎2)∗ = 𝑆 2
Betrakta de s.v. 𝑋𝑖 som oberoende och likafördelade med väntevärde
𝜇 och standardavvikelse 𝜎
𝐸(𝑆2) = 𝐸 (1
𝑛− 1∑(𝑋𝑖− 𝑋)
2
𝑛
𝑖=1
) = 𝜎2
Väntevärde 𝐸((𝜎2)∗) = 𝜎2 Väntevärdesriktig
Sats 11.2: Stickprovsvariansen 𝑠2 är en väntevärdesriktig skattning av 𝜎2.
OBS: Skattningen 𝜎𝑜𝑏𝑠∗ = 𝑠 = √
1
𝑛−1∑ (𝑥𝑖 − �̅�)
2𝑛𝑖=1 är inte väntevärdesriktig!
Sida 8 av 24
Momentmetoden (MM)
Steg Beskrivning
Förutsättningar 𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛
Täthets- eller sannolikhetsfunktion som beror av 𝜃
Ta fram 𝐸(𝑋)
𝐸(𝑋) = 𝜇(𝜃) ⇒ 𝜇(𝜃𝑜𝑏𝑠
∗ ) = �̅�
𝜃𝑜𝑏𝑠∗ är MM-skattningen av 𝜃 𝑄(𝜃) antar sitt minsta värde i 𝜃𝑜𝑏𝑠
∗ dvs. 𝜇(𝜃𝑜𝑏𝑠∗ ) = �̅�
Anmärkningar
Funkar alltid att skatta med MM-metoden!
Dock inte nödvändigtvis alltid en bra skattning
Förstamoment: 𝜇1 = 𝐸(𝑋) =1
𝑛∑ 𝑥𝑖𝑛1 = �̅�
Andramoment: 𝜇2 = 𝐸(𝑋2) =1
𝑛∑ 𝑥𝑖
2𝑛1
Minsta-kvadrat-metoden (MK)
Steg Beskrivning
Förutsättningar 𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛
𝐸(𝑋𝑖) = 𝜇(𝜃) 𝑉(𝑋𝑖) = 𝜎
2
Bilda 𝑄(𝜇(𝜃)) = 𝑄(𝜃) 𝑄(𝜃) =∑(𝑥𝑖 −𝜇(𝜃))2
𝑛
𝑖=1
Söker minsta fel/avvikelse
⇒ minimera 𝑄(𝜃)
⇒𝑑𝑄
𝑑𝜃= 0
⇒∑−2(𝑥𝑖 − 𝜇(𝜃))
𝑛
𝑖=1
= 0 ⇔∑(𝑥𝑖 − 𝜇(𝜃))
𝑛
𝑖=1
= 0 ⇔
⇔ ∑𝑥𝑖
𝑛
𝑖=1
− 𝑛 ∙ 𝜇(𝜃) = 0 ⇔ 𝜇(𝜃) =1
𝑛∑𝑥𝑖
𝑛
𝑖=1
= �̅�
𝜃𝑜𝑏𝑠∗ är MK-skattningen av 𝜃 𝑄(𝜃) antar sitt minsta värde i 𝜃𝑜𝑏𝑠
∗ dvs. 𝜇(𝜃𝑜𝑏𝑠∗ ) = �̅�
Anmärkningar Minimum ty funktionen 𝑄(𝜃) är strikt konvex
Sida 9 av 24
Maximum-likelihood-metoden (ML)
Steg Beskrivning
Förutsättningar 𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛
Täthetsfunktion 𝑓(𝑥;𝜃) eller sannolikhetsfunktion 𝑝(𝑥;𝜃)
Bilda likelihoodfunktionen 𝐿(𝜃) 𝐿(𝜃) =
{
∏𝑝(𝑥𝑖;𝜃)
𝑛
𝑖=1
= 𝑝(𝑥1;𝜃) ∙ … ∙ 𝑝(𝑥𝑛;𝜃) (diskret)
∏𝑓(𝑥𝑖;𝜃)
𝑛
𝑖=1
= 𝑓(𝑥1;𝜃) ∙ … ∙ 𝑓(𝑥𝑛;𝜃) (kontinuerlig)
Maximera 𝐿(𝜃) Ofta lättare att maximera ln 𝐿(𝜃) ty summa istället för produkter
Detta bevarar den optimala punkten 𝜃𝑜𝑏𝑠∗
Kalla 𝑙(𝜃) = ln 𝐿(𝜃)
𝑑𝑙
𝑑𝜃= 0
Betrakta 𝜃 som variabel och 𝑥𝑖 som konstant
Lös med avseende på 𝜃
𝜃𝑜𝑏𝑠∗ är ML-skattningen av 𝜃 𝐿(𝜃) antar sitt största värde i 𝜃𝑜𝑏𝑠
∗
Kontrollera maximum Säkerställ att 𝜃𝑜𝑏𝑠∗ verkligen är ett maximum mha.
𝑑2𝑙
𝑑𝜃2< 0
Anmärkningar I allmänhet: 𝜃∗ är konsistent och har goda asymptotiska egenskaper
ML-skattningar vid normalfördelning
𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇, 𝜎)
𝝁 𝝈 Resultat
Okänd Känd 𝜇∗ = �̅�
Känd Okänd (𝜎2)∗ =1
𝑛∑(𝑥𝑖− 𝜇)
2
𝑛
𝑖=1
Okänd Okänd
{
𝜕𝑙
𝜕𝜇= 0
𝜕𝑙
𝜕𝜎= 0
⇒ {
𝜇∗ = �̅�
(𝜎2)∗ =1
𝑛∑(𝑥𝑖 − �̅�)
2
𝑛
𝑖=1
Exempel på medelfel för en skattning
𝑋1,… , 𝑋𝑛 är oberoende s.v
𝑋𝑖~𝑁(𝜇, 𝜎)
𝜇, 𝜎 är okända
Vi vet att en skattning av 𝜇 är 𝜇∗ = �̅�. Vi vill veta medelfelet för denna skattning.
En skattning av standardavvikelsen 𝐷(𝜃∗) kallas medelfelet för 𝜃∗ och betecknas 𝑑 = 𝑑(𝜃∗)
Vår skattning har standardavvikelsen 𝐷(𝑀∗) = 𝐷(𝑋) =𝜎
√𝑛, vilken beror på 𝜎 (som är okänd!)
Därför skattar vi även variansen 𝜎2 med stickprovsvariansen 𝑠2 och medelfelet blir: 𝑑(𝑀∗) = 𝑑(𝑋) =𝑠
√𝑛
Vill veta medelfel för skattning = standardavvikelse för
skattning. Svårt att ta fram standardavvikelse direkt – kan
bero på okänd parameter (ofta 𝜎). Därför:
Ta fram eller skatta variansen 𝜎2 för skattningen. Använd
𝐷(𝑋) = √𝑉(𝑋) på framtagen varians, så fås medelfelet
Sida 10 av 24
Konfidensintervall
Intervall 𝐼𝜃1−𝛼 = (𝜃𝑜𝑏𝑠 , 𝑙𝑜𝑤𝑒𝑟 𝑏𝑜𝑢𝑛𝑑
∗ , 𝜃𝑜𝑏𝑠, 𝑢𝑝𝑝𝑒𝑟 𝑏𝑜𝑢𝑛𝑑∗ ) där:
o 𝜃𝑜𝑏𝑠 , 𝑙𝑜𝑤𝑒𝑟 𝑏𝑜𝑢𝑛𝑑∗ = 𝑎1(𝑥1,… , 𝑥𝑛)
o 𝜃𝑜𝑏𝑠 , 𝑢𝑝𝑝𝑒𝑟 𝑏𝑜𝑢𝑛𝑑∗ = 𝑎2(𝑥1,… , 𝑥𝑛)
o 𝛼 är sannolikheten för fel
Och sådant att
o 𝑃(𝜃𝑜𝑏𝑠, 𝑙𝑜𝑤𝑒𝑟 𝑏𝑜𝑢𝑛𝑑∗ < 𝜃 < 𝜃𝑜𝑏𝑠, 𝑢𝑝𝑝𝑒𝑟 𝑏𝑜𝑢𝑛𝑑
∗ ) = 1− 𝛼
Kallas ett konfidensintervall för 𝜃 med konfidensgrad 1 − 𝛼
Konstruktion av konfidensintervall
Steg Exempel
Bestäm en lämplig punktskattning 𝜃𝑜𝑏𝑠∗ 𝜃𝑜𝑏𝑠
∗ = �̅�
Ta fram fördelning för motsvarande s.v. 𝜃∗ 𝜃∗ = 𝑋~𝑁 (𝜃,𝜎
√𝑛)
Konstruera en hjälpvariabel som innehåller 𝜃 men inga andra okända parametrar
(Hjälpvariabeln ska ha en känd fördelning)
𝑍 =𝑋 − 𝜃
𝜎/√𝑛 ~𝑁(0,1)
Stäng in hjälpvariabeln i ett intervall med sannolikhetsmassa 1 − 𝛼
𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎) = 0.95
Beräkna gränserna (𝑎 etc.) mha. tabell
𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎) = 0.95 ⇔ 𝑃(𝑍 ≤ 𝑎) = 0.975
⇔ Φ(𝑎) = 0.975
⇒ 𝑎 = 1.96
Skriv om intervallet till ett villkor på 𝜃 (isolera 𝜃)
På formen 𝑃(𝑎1(𝑥1,… , 𝑥𝑛) < 𝜃 < 𝑎2(𝑥1,… , 𝑥𝑛))
𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎)
⇔ 𝑃(−𝑎 ≤𝑋 − 𝜃
𝜎/√𝑛≤ 𝑎)
⇔ 𝑃(𝑋 − 𝑎 ∙𝜎
√𝑛≤ 𝜃 ≤ 𝑋 + 𝑎 ∙
𝜎
√𝑛)
Sätt in observationer och beräkna 𝐼𝜃1−𝛼
𝐼𝜃1−𝛼 = (𝑎1(𝑥1,… , 𝑥𝑛), 𝑎2(𝑥1,… , 𝑥𝑛))
⇔ 𝐼𝜃1−𝛼 = (�̅� ∓ 1.96
𝜎
√𝑛)
Ensidigt konfidensintervall, simultan konfidensgrad
Sida 11 av 24
χ2-fördelning
Förutsättningar Resultat
𝑋~𝜒2(𝑓) 𝐸(𝑋) = 𝑓
𝑋~𝜒2(𝑓1) 𝑌~𝜒2(𝑓2)
𝑋 och 𝑌 oberoende
𝑋 + 𝑌~𝜒2(𝑓1 +𝑓2)
𝑋1,… , 𝑋𝑛 oberoende
𝑋1,… , 𝑋𝑛~𝑁(𝜇, 𝜎)
1
𝜎2∑(𝑋𝑖− 𝜇)
2
𝑛
𝑖=1
~𝜒2(𝑛)
(𝑛 − 1)𝑆2
𝜎2~𝜒2(𝑛 − 1)
𝑋~𝑁 (𝜇,𝜎
√𝑛)
𝑋 och 𝑆2 är oberoende s.v.
t-fördelning
Förutsättningar Resultat
𝑋~𝑡(𝑓) 𝑡(𝑓)-fördelning konvergerar mot
𝑁(0,1)-fördelning då 𝑓 → ∞
Gossets sats
𝑋~𝑁(0,1) 𝑌~𝜒2(𝑓)
𝑋 och 𝑌 oberoende
𝑋
√𝑌/𝑓 ~𝑡(𝑓)
𝑋1,… , 𝑋𝑛 oberoende
𝑋1,… , 𝑋𝑛~𝑁(𝜇, 𝜎)
𝑋 − 𝜇
𝜎/√𝑛~𝑁(0,1)
(𝑛 − 1)𝑆2
𝜎2~𝜒2(𝑛 − 1)
Gossets sats ger nu
𝑋 − 𝜇
𝑆/√𝑛= ⋯ =
(𝑋 − 𝜇)/(𝜎/√𝑛)
√(𝑛 − 1)𝑆2
𝜎2/(𝑛− 1)
~𝑡(𝑛− 1)
Konfidensintervall för 𝝁
𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇, 𝜎)
𝝈 känd / okänd 𝜎 känd 𝜎 okänd
Hjälpvariabel 𝑋 − 𝜇
𝜎/√𝑛~𝑁(0,1)
𝑋 − 𝜇
𝑆/√𝑛~𝑡(𝑛 − 1)
Sida 12 av 24
Konfidensintervall för 𝝈 eller 𝝈𝟐
𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇, 𝜎)
𝝁 känt / okänt 𝜇 känt 𝜇 okänt
Hjälpvariabel 1
𝜎2∑(𝑋𝑖 −𝜇)
2
𝑛
𝑖=1
~𝜒2(𝑛) (𝑛 − 1)𝑆2
𝜎2~𝜒2(𝑛 − 1)
Vid stickprov från två normalfördelningar där 𝜎1 = 𝜎2 = 𝜎 men 𝜎 är okänd:
𝑠2 =(𝑛1 −1)𝑠1
2 + (𝑛2 −1)𝑠22
(𝑛1 − 1) + (𝑛2 −1)
𝑠 kallas ”pooled standard deviation”
𝑠2 är den bästa skattningen av 𝜎2
Om man har två (eller flera stickprov) från normalfördelningar med samma 𝜎, använder man den sammanvägda
𝜎2-skattningen för samtliga stickprov även om man t.ex. bara ska konstruera 𝐼µ1
Parvisa mätningar
𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇, 𝜎)
Steg Exempel
𝑥𝑖 mätvärden
𝑦𝑖 mätvärden
𝑋𝑖~𝑁(𝜇𝑖 ,𝜎1)
𝑌𝑖~𝑁(𝜇𝑖+∆,𝜎2)
Bilda differenser 𝑑𝑖
T.ex. före vs. efter
𝑑𝑖 = 𝑦𝑖 − 𝑥𝑖
𝐷𝑖 = 𝑌𝑖− 𝑋𝑖~𝑁(∆,𝜎)
Skatta ∆ med ∆∗ ∆∗= 𝑑 ̅
Skatta 𝜎2 med 𝑠2 𝑠2 =1
𝑛 − 1∑(𝑑𝑖−𝑑̅)
2𝑛
𝑖=1
Hjälpvariabel
(𝜎 okänd) 𝑍 =
�̅� − ∆
𝑆/√𝑛~𝑡(𝑛 − 1)
Stäng in hjälpvariabeln i ett intervall med sannolikhetsmassa 1 − 𝛼
𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎) = 0.95
Beräkna gränserna (𝑎 etc.) mha. tabell 𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎) = 0.95
⇔ 𝑃(𝑍 ≤ 𝑎) = 0.975
Skriv om intervallet till ett villkor på ∆ (isolera ∆)
På formen 𝑃(𝑎1(𝑑1,… , 𝑑𝑛) ≤ ∆≤ 𝑎2(𝑑1, … , 𝑑𝑛))
𝑃(−𝑎 ≤ 𝑍 ≤ 𝑎)
⇔ 𝑃(−𝑎 ≤𝐷 − ∆
𝑆/√𝑛≤ 𝑎)
⇔ 𝑃(�̅� − 𝑎 ∙𝑆
√𝑛≤ ∆≤ �̅� + 𝑎 ∙
𝑆
√𝑛)
Sätt in observationer och beräkna 𝐼∆1−𝛼
𝑠 = √𝑠2 , där 𝑠, 𝑠2 är obs. av 𝑆 respektive 𝑆2
𝐼∆1−𝛼 = (𝑎1(𝑥1,… ,𝑥𝑛), 𝑎2(𝑥1,… , 𝑥𝑛))
⇔ 𝐼∆1−𝛼 = (𝑑̅ ∓ 2.23
𝑠
√𝑛)
Dra slutsatser om ∆ (och därigenom 𝜇1 och 𝜇2) utifrån 𝐼∆ 𝐼∆ = (4.9, 15.6), dvs. med stor sannolikhet
gäller att ∆ > 0 ⇒ 𝜇𝑖 < 𝜇𝑖 +∆ ⇔ 𝜇1 < 𝜇2
Sida 13 av 24
Modellering av parvisa skillnader
Givet att mätserierna är lika långa och man vill undersöka om det finns en systematisk skillnad
Om mätningarna hänger ihop parvis
o ⇒ bilda differenser
o Minskar variansen för den skattningsvariabel som beskriver den systematiska skillnaden
Om mätserierna är helt frikopplade från varandra (dvs. oberoende)
o ⇒ bilda 𝐼𝜇1−𝜇2
Konfidensintervall vid två stickprov
𝑥1,… , 𝑥𝑛 är observationer av oberoende s.v. 𝑋1, … , 𝑋𝑛, där 𝑋𝑖~𝑁(𝜇1,𝜎1)
𝑦1, … , 𝑦𝑛 är observationer av oberoende s.v. 𝑌1,… , 𝑌𝑛 , där 𝑌𝑖~𝑁(𝜇2, 𝜎2)
Båda stickprov är helt frikopplade från varandra (dvs. oberoende)
Vill undersöka om 𝜇1 = 𝜇2 eller 𝜇1 ≠ 𝜇2 ⇒ konstruera konfidensintervall för 𝜇1 − 𝜇2
𝝈𝟏 och 𝝈𝟐 𝝈𝟏 = 𝝈𝟐 eller
𝝈𝟏 ≠ 𝝈𝟐? Hjälpvariabel Övrigt
Kända 𝜎1 ≠ 𝜎2
𝑋 −𝑌 − (𝜇1 − 𝜇2)
√𝜎12
𝑛1+𝜎22
𝑛2
~𝑁(0,1)
Vanlig linjärkombination
Okända 𝜎1 = 𝜎2 = 𝜎
(𝑛1 +𝑛2 − 2)𝑆2
𝜎2~ χ2(𝑛1 +𝑛2 − 2)
OBS: För 𝐼𝜎 och 𝐼𝜎2
Via sammanvägd 𝜎2-skattning
Okända 𝜎1 = 𝜎2 = 𝜎
𝑋 − 𝑌 − (𝜇1 −𝜇2)
𝑆√1𝑛1+1𝑛2
~𝑡(𝑛1 +𝑛2 − 2)
Frihetsgrader från ovan, för 𝜎
Okända 𝜎1 = 𝜎2 = 𝜎
𝑐1𝑋 − 𝑐2�̅� − (𝑐1𝜇1 − 𝑐2𝜇2)
𝑆√𝑐12
𝑛1+𝑐22
𝑛2
~𝑡(𝑛1 + 𝑛2 − 2)
OBS: För 𝐼𝑐1𝜇1+𝑐2𝜇2
Generalisering av ovan
Okända 𝜎1 ≠ 𝜎2
𝑋 −𝑌 − (𝜇1− 𝜇2)
√𝑆12
𝑛1+𝑆22
𝑛2
≈ 𝑡(𝑣) 𝑣 =(𝑆12
𝑛1+𝑆22
𝑛2)2
(𝑆12/𝑛1)
2
𝑛1 −1+(𝑆22/𝑛2)
2 𝑛2−1
Kallas Welch-Aspins metod
Sida 14 av 24
F-fördelning
Förutsättningar Resultat
𝑌1 och 𝑌2 oberoende
𝑌1~𝜒2(𝑟1)
𝑌2~𝜒2(𝑟2)
𝑍 =𝑌1/𝑟1𝑌2/𝑟2
~ 𝐹(𝑟1, 𝑟2)
Jämförelse av varianser
𝜎12 och 𝜎2
2 okända
𝜎12 och 𝜎2
2 är inte nödvändigtvis lika (detta ska undersökas)
Steg Exempel
Ta fram variansskattningar
(𝑛1 −1)𝑆12
𝜎12
~ 𝜒2(𝑛1 −1)
(𝑛2 −1)𝑆22
𝜎22
~ 𝜒2(𝑛2 − 1)
Använd sats om F-fördelning 𝑍 =𝑌1/(𝑛1 −1)
𝑌2/(𝑛2 −1) ~ 𝐹(𝑛1 −1, 𝑛2 − 1)
Hjälpvariabeln blir därmed 𝑆12/𝜎1
2
𝑆22/𝜎2
2 ~ 𝐹(𝑛1 − 1, 𝑛2 −1)
Stäng in hjälpvariabeln i ett intervall med sannolikhetsmassa 1 − 𝛼
𝑃(𝑎 < 𝑍 < 𝑏) = 0.95
Beräkna gränserna (𝑎, 𝑏 etc.) mha. tabell 𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95
Skriv om intervallet till ett villkor på 𝜎1/𝜎2 (isolera 𝜎1/𝜎2)
På formen 𝑃(𝑎1(𝑠1,… , 𝑥𝑛) < 𝜎1/𝜎2 < 𝑎2(𝑠1, … , 𝑥𝑛))
𝑃(−𝑎 < 𝑍 < 𝑎)
⇔ 𝑃(𝑎 <𝑆12/𝜎1
2
𝑆22/𝜎2
2< 𝑏)
⇔ 𝑃(𝑎 ∙𝜎12
𝜎22≤𝜎12
𝜎22≤ 𝑏 ∙
𝜎12
𝜎22)
Sätt in observationer och beräkna 𝐼𝜎1 /𝜎21−𝛼
𝐼𝜎1/𝜎21−𝛼
= (𝑎1(𝑠1,… , 𝑥𝑛),𝑎2(𝑠1, … , 𝑥𝑛))
⇔ 𝐼𝜎1 /𝜎21−𝛼 = (𝑎 ∙
𝑠12
𝑠22, 𝑏 ∙
𝑠12
𝑠22)
Dra slutsatser om 𝜎1
𝜎2 (och därigenom 𝜎1och 𝜎2) utifrån 𝐼𝜎1/𝜎2
𝐼𝜎1 /𝜎2 =(0.09, 1.91)
OBS: 1 ∈ 𝐼𝜎1 /𝜎2 , dvs. går inte att utesluta att 𝜎1
𝜎2= 1 ⇔ 𝜎1 kan vara lika med 𝜎2
Sida 15 av 24
Normalapproximation
Vid observationer från andra fördelningar än normalfördelning
Skattningsvariabel 𝜃∗ ≈ 𝑁(𝜃, 𝐷)
Hjälpvariabel:
{
𝜃∗ − 𝜃
𝐷≈ 𝑁(0,1), 𝐷 känd
𝜃∗ − 𝜃
𝐷∗≈ 𝑁(0,1), 𝐷 okänd
Binomialfördelning – konfidensintervall för 𝒑
Steg Exempel
Ta fram s.v. och observation 𝑥 = 37 är en observation från 𝑋~𝐵𝑖𝑛(1015,𝑝)
Skatta 𝑝 mha. 𝑝∗ och ta fram 𝑝𝑜𝑏𝑠∗
𝑝∗ =𝑋
𝑛
𝑝𝑜𝑏𝑠∗ =
𝑥
𝑛=
37
1015= 0.036
Vill ta fram hjälpvariabel
Börja med att hitta en fördelning för 𝑋
Använd normalapproximation ty 1015 ej
med i binomialtabell
𝑋~𝐵𝑖𝑛(1015,𝑝) ≈ 𝑁(𝑛𝑝, √𝑛𝑝(1 − 𝑝))
eftersom 𝑛 ∙ 𝑝𝑜𝑏𝑠∗ (1 − 𝑝𝑜𝑏𝑠
∗ ) > 10
Kan nu ta fram (approximativ) fördelning för 𝑝∗
𝐸(𝑝∗) = 𝐸 (𝑋
𝑛) =
1
𝑛𝐸(𝑋) =
1
𝑛∙ 𝑛𝑝 = 𝑝
𝑉(𝑝∗) = 𝑉 (𝑋
𝑛) =
1
𝑛2𝑉(𝑋) =
1
𝑛2∙ 𝑛𝑝(1 − 𝑝) =
𝑝(1 − 𝑝)
𝑛
⇒ 𝑝∗ =𝑋
𝑛≈ 𝑁(𝑝,√
𝑝(1 − 𝑝)
𝑛)
Standardisera 𝑝∗ så fås en hjälpvariabel för 𝑝 𝑝∗ ≈ 𝑁(𝑝,√𝑝(1 − 𝑝)
𝑛) ⇔
𝑝∗ −𝑝
√𝑝(1 − 𝑝)𝑛
≈ 𝑁(0,1)
Okända parametrar i nämnare på
hjälpvariabel, vilket blir krångligt
Bilda ny hjälpvariabel:
𝑍 =𝑝∗ −𝑝
√𝑝∗(1− 𝑝∗)𝑛
≈ 𝑁(0,1)
eftersom 𝑝∗ är en konsistent skattning av 𝑝
Stäng in hjälpvariabeln i ett intervall med
sannolikhetsmassa 1 − 𝛼
Isolera 𝑝 och beräkna gränserna mha. tabell
Ersätt med observationer
Detta ger intervallet:
𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95
⇔ 𝑃
(
−𝑎 <𝑝∗ − 𝑝
√𝑝∗(1 − 𝑝∗)𝑛
< 𝑎
)
= 0.95
⇔ 𝐼𝑝 = (𝑝𝑜𝑏𝑠∗ ∓1.96√
𝑝𝑜𝑏𝑠∗ (1 − 𝑝𝑜𝑏𝑠
∗ )
𝑛)
Sida 16 av 24
Binomialfördelning – konfidensintervall för 𝒑𝟏− 𝒑𝟐
Steg Exempel
Punktskattning 𝑝1,𝑜𝑏𝑠∗ − 𝑝2,𝑜𝑏𝑠
∗ =𝑥1
𝑛1−
𝑥2
𝑛2
Ta fram motsvarande s.v. 𝑝1∗ och 𝑝2
∗ är ≈ 𝑁(𝑛𝑝, √𝑛𝑝(1 − 𝑝))
eftersom 𝑛𝑖 ∙ 𝑝𝑖,𝑜𝑏𝑠∗ (1 − 𝑝𝑖,𝑜𝑏𝑠
∗ ) > 10
Då gäller att 𝑝1∗ −𝑝2
∗ ≈ 𝑁(𝜇, 𝜎)
Sök 𝜇 𝐸(𝑝1
∗− 𝑝2∗) = 𝐸 (
𝑋1𝑛1−𝑋2𝑛2) =
𝐸(𝑋1)
𝑛1−𝐸(𝑋2)
𝑛2
=𝑛1𝑝1𝑛1
−𝑛2𝑝2𝑛2
= 𝑝1 − 𝑝2
Sök 𝜎
𝑉(𝑝1∗ − 𝑝2
∗) = 𝑉 (𝑋1𝑛1−𝑋2𝑛2) =
𝑉(𝑋1)
𝑛12
−𝑉(𝑋2)
𝑛22
=𝑛1𝑝1(1 − 𝑝1)
𝑛12
−𝑛2𝑝2(1 − 𝑝2)
𝑛22
=𝑝1(1 − 𝑝1)
𝑛1−𝑝2(1 − 𝑝2)
𝑛2
Sammanfattningsvis 𝑝1∗ −𝑝2
∗ ≈ 𝑁(𝑝1 − 𝑝2, √𝑝1(1 − 𝑝1)
𝑛1−𝑝2(1 − 𝑝2)
𝑛2)
Standardisering ger
𝑍 =𝑝1∗− 𝑝2
∗ − (𝑝1 − 𝑝2)
√𝑝1∗(1− 𝑝1
∗)𝑛1
−𝑝2∗(1 − 𝑝2
∗)𝑛2
≈ 𝑁(0,1)
eftersom 𝑝𝑖∗ är konsistenta skattningar av 𝑝𝑖
Stäng in hjälpvariabeln i ett
intervall med sannolikhetsmassa 1 − 𝛼
Isolera 𝑝 och beräkna gränserna
mha. tabell
Ersätt med observationer
Detta ger intervallet:
𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95
⇔ 𝑃
(
−𝑎 <𝑝∗ − 𝑝
√𝑝∗(1 − 𝑝∗)𝑛
< 𝑎
)
= 0.95
⇔ 𝐼𝑝1−𝑝2 = (𝑝1,𝑜𝑏𝑠∗ − 𝑝2,𝑜𝑏𝑠
∗ ∓ 1.96√𝑝1∗(1 − 𝑝1
∗)
𝑛1−𝑝2∗(1 − 𝑝2
∗)
𝑛2)
Dra slutsatser om 𝑝1 − 𝑝2 utifrån 𝐼𝑝1−𝑝2
𝐼𝜎1 /𝜎2 = (−0.0414,0.0014)
OBS: Om 0 ∈ 𝐼𝑝1−𝑝2, dvs. går inte att utesluta att 𝑝1 − 𝑝2 = 0
⇔ 𝑝2 kan vara lika med 𝑝1
Sida 17 av 24
Normalapproximation via centrala gränsvärdessatsen
𝑥1,… , 𝑥𝑛 är observationer av oberoende och likafördelade s.v. 𝑋1,… , 𝑋𝑛
𝑋1,… , 𝑋𝑛 är inte normalfördelade men har 𝐸(𝑋𝑖) = 𝜇 och 𝑉(𝑋𝑖) = 𝜎2
Steg Exempel
Punktskattning 𝜇𝑜𝑏𝑠∗ = �̅�
Ta fram motsvarande s.v. 𝜇∗ = 𝑋 =1
𝑛∑ 𝑋𝑖𝑛𝑖=1
Enligt CGS 𝑋 ≈ 𝑁 (𝜇,𝜎
√𝑛) om 𝑛 ≥ 30
Hjälpvariabel
𝑋 − 𝜇
𝜎/√𝑛≈ 𝑁(0,1) om 𝜎 är känd
Annars ersätts 𝜎 med lämplig skattningsvariabel 𝜎 ∗
Exempelvis 𝜎 ∗ = 𝑆 men inte alltid (beror på fördelning för 𝑋𝑖)
Stäng in hjälpvariabeln i ett intervall med sannolikhetsmassa 1 − 𝛼
Isolera 𝜇 och beräkna gränserna mha. tabell
Ersätt med observationer
𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95
⇔ 𝑃(−𝑎 <𝑋 − 𝜇
𝜎 ∗/√𝑛< 𝑎) = 0.95
⇔ 𝐼𝜇 = (�̅� ∓ 𝑎 ∙𝜎∗
√𝑛)
Exempel – Användning av CGS
Steg Exempel
𝑥1,… , 𝑥𝑛1 obs. från 𝑋𝑖~𝐸𝑥𝑝(𝜇1)
𝑦1, … , 𝑦𝑛2 obs. från 𝑌𝑖~𝐸𝑥𝑝(𝜇2)
Punktskattningar 𝜇1,𝑜𝑏𝑠∗ = �̅� och 𝜇2,𝑜𝑏𝑠
∗ = �̅�
Ta fram motsvarande s.v. 𝜇1∗ = 𝑋 och 𝜇2
∗ = 𝑌
Enligt CGS 𝑋 ≈ 𝑁 (𝜇1,𝜇1
√𝑛1) och �̅� ≈ 𝑁 (𝜇2,
𝜇2
√𝑛2) ty 𝑛𝑖 ≥ 30
Hjälpvariabel
𝑋 −𝑌 − (𝜇1− 𝜇2)
√𝜇1∗
𝑛1+𝜇2∗
𝑛2
≈ 𝑁(0,1) ty kända standardavvikelser
Kan ej isolera 𝜇1 −𝜇2 ty kvadrat i nämnaren
Approximera mha.
𝜇1∗ = 𝑋 och 𝜇2
∗ = 𝑌 (OK eftersom de är konsistenta
skattningar av 𝜇1 respektive 𝜇2)
Stäng in hjälpvariabeln
Isolera 𝜇1 − 𝜇2 och beräkna gränserna mha. tabell
𝑋 − 𝑌 − (𝜇1 −𝜇2)
√𝑋2
𝑛1+𝑌2
𝑛2
≈ 𝑁(0,1)
⇔⋯⇔ 𝐼𝜇1−𝜇2 = (𝜇1 − 𝜇2 ∓ 𝑎 ∙ √𝑋2
𝑛1+𝑌2
𝑛2)
Ersätt med observationer från punktskattningar
Detta ger intervallet:
⇔ 𝐼𝜇1−𝜇2 = (�̅� − �̅� ∓ 1.96 ∙ √�̅�2
𝑛1+�̅�2
𝑛2)
Sida 18 av 24
Hypergeometrisk fördelning – konfidensintervall för 𝒑
Steg Exempel
Ta fram s.v. och observation 𝑥 är en observation från 𝑋~𝐻𝑦𝑝(𝑁,𝑛, 𝑝)
Ta fram approximation (via tabell) 𝑋~𝐻𝑦𝑝(𝑁. 𝑛, 𝑝) ≈ 𝑁 (𝑛𝑝,√𝑁− 𝑛
𝑁− 1𝑛𝑝(1− 𝑝))
Skatta 𝑝 mha. 𝑝∗ och ta fram 𝑝𝑜𝑏𝑠∗
𝑝∗ =𝑋
𝑛
𝑝𝑜𝑏𝑠∗ =
𝑥
𝑛
Vill ta fram hjälpvariabel
Börja med att hitta en fördelning
för 𝑋
Använd normalapproximation
𝑋~𝐻𝑦𝑝(𝑁, 𝑛, 𝑝) ≈ 𝑁 (𝑛𝑝,√𝑁− 𝑛
𝑁− 1𝑛𝑝(1− 𝑝))
eftersom 𝑁−𝑛
𝑁−1𝑛𝑝(1 − 𝑝) ≥ 10
Kan nu ta fram (approximativ) fördelning
för 𝑝∗
𝐸(𝑝∗) = 𝐸 (𝑋
𝑛) =
1
𝑛𝐸(𝑋) =
1
𝑛∙ 𝑛𝑝 = 𝑝
𝑉(𝑝∗) = 𝑉 (𝑋
𝑛) =
1
𝑛2𝑉(𝑋) =
1
𝑛2∙𝑁 − 𝑛
𝑁 − 1𝑛𝑝(1 − 𝑝)
=𝑁 − 𝑛
𝑁 − 1∙𝑝(1 − 𝑝)
𝑛
⇒ 𝑝∗ =𝑋
𝑛≈ 𝑁(𝑝,√
𝑁 − 𝑛
𝑁 − 1∙𝑝(1 − 𝑝)
𝑛)
Standardisera 𝑝∗ så fås en hjälpvariabel
för 𝑝 𝑝∗ ≈ 𝑁 (𝑝, √
𝑁 − 𝑛
𝑁 −1∙𝑝(1 − 𝑝)
𝑛) ⇔
𝑝∗ − 𝑝
√𝑁 − 𝑛𝑁 − 1
∙𝑝(1 − 𝑝)
𝑛
≈ 𝑁(0,1)
Okända parametrar i nämnare på
hjälpvariabel, vilket blir krångligt
Bilda ny hjälpvariabel:
𝑍 =𝑝∗ −𝑝
√𝑁 − 𝑛𝑁 − 1
∙𝑝∗(1 − 𝑝∗)
𝑛
≈ 𝑁(0,1)
eftersom 𝑝∗ är en konsistent skattning av 𝑝
Stäng in hjälpvariabeln i ett
intervall med sannolikhetsmassa 1 − 𝛼
Isolera 𝑝 och beräkna gränserna
mha. tabell
Ersätt med observationer
Detta ger intervallet:
𝑃(−𝑎 < 𝑍 < 𝑎) = 0.95
⇔ 𝑃
(
−𝑎 <𝑝∗ − 𝑝
√𝑁 − 𝑛𝑁 − 1
∙𝑝∗(1− 𝑝∗)
𝑛
< 𝑎
)
= 0.95
⇔ 𝐼𝑝 = (𝑝𝑜𝑏𝑠∗ ∓1.96√
𝑁 − 𝑛
𝑁 − 1∙𝑝𝑜𝑏𝑠∗ (1 − 𝑝𝑜𝑏𝑠
∗ )
𝑛)
Sida 19 av 24
Hypotesprövning
Observationer 𝑥1,… , 𝑥𝑛 av oberoende och likafördelade s.v. 𝑋1, … , 𝑋𝑛 (ibland är 𝑛 = 1)
Beteckning Betydelse Exempel
𝐻0
Nollhypotes
Påstående om att parametern 𝜃 har ett bestämt värde 𝜃0
I regel det man tror är falskt
𝐻𝑜: 𝜃 = 𝜃0
𝐻1
Mothypotes
Påstående om att parametern 𝜃 har ett annat värde än 𝜃0
I regel det man vill visa
𝐻1: 𝜃 > 𝜃0 eller 𝜃 < 𝜃0
𝑡(𝑥1,… , 𝑥𝑛) Teststorhet (TS) – observation från s.v.
”Teststorhetens s.v. då 𝐻0 är sann” 𝑧 =
�̅� − 𝜇0
𝜎/√𝑛 𝑑å 𝐻0 är sann
𝑇(𝑥1,… , 𝑥𝑛) Teststorhetens s.v. 𝑍 =𝑋 − 𝜇
𝜎/√𝑛~𝑁(0,1) då 𝐻0 är sann
𝐶 = [𝑎,𝑏]
Kritiskt område (C)
𝐻0 förkastas om 𝑡(𝑥1,… , 𝑥𝑛) ∈ 𝐶
𝐻0 förkastas ej om 𝑡(𝑥1,… , 𝑥𝑛) ∉ 𝐶
𝐶 = 𝐼𝜃 = [𝑎,∞[
𝛼
Signifikansnivå
𝛼 = 𝑃(𝐻0 förkastas om 𝐻0 är sann) ⇔
𝛼 = 𝑃(𝑡(𝑋1, … , 𝑋𝑛) ∈ 𝐶 om 𝐻0 är sann)
𝛼 = 5%
Styrka för ett värde 𝜃1 (i 𝐻1)
𝑃(𝐻0 förkastas om 𝜃1 ärdet sanna värdet) ⇔
𝑃(𝑡(𝑋1,… , 𝑋𝑛) ∈ 𝐶 om 𝜃1 är detsanna värdet)
Styrka = 81%
ℎ(𝜃)
Styrkefunktion
𝑃(𝐻0 förkastas om 𝜃 ärdet sanna värdet) ⇔
𝑃(𝑡(𝑋1,… , 𝑋𝑛) ∈ 𝐶 om 𝜃 ärdet sanna värdet)
Styrkefunktionen ska vara stor för 𝑝-värden som tillhör mothypotes
ℎ(𝜃) = ∑(10
𝑘) 𝜃𝑘(1− 𝜃)10−𝑘
10
𝑘=6
Fel av typ I Att förkasta 𝐻0 då den är sann
Signifikansnivå 𝛼 = risk för fel av typ I
Fel av typ II Att inte förkasta 𝐻0 då den är falsk
P-värde
P är sannolikheten (då 𝐻0 är sann) att få ett minst lika extremt värde på TS som det man har observerat.
Lågt P-värde tyder på stor avvikelse från 𝐻0
𝐻0 förkastas ⇔ 𝑃 < 𝛼
En- och tvåsidiga test
Fall Kriterium Metod
𝐻1: 𝜃 > 𝜃0
eller 𝜃 < 𝜃0
𝐻0 förkastas om 𝑡(𝑋1,… , 𝑋𝑛) > 𝑎
respektive 𝑡(𝑋1,… , 𝑋𝑛) < 𝑎
Nedåt/uppåt begränsat konfidensintervall för 𝜃
𝐻0 förkastas om 𝜃0 ∉ 𝐼𝜃
Konfidensgrad = 1 − 𝛼
𝐻1: 𝜃 ≠ 𝜃0 𝐻0 förkastas om 𝑡(𝑋1,… , 𝑋𝑛) < 𝑏1
eller 𝑡(𝑋1,… , 𝑋𝑛) > 𝑏2
𝛼
2= 𝑃(𝑡(𝑋1,… , 𝑋𝑛) < 𝑏1 𝑜𝑚 𝜃 = 𝜃0)
𝛼
2= 𝑃(𝑡(𝑋1,… , 𝑋𝑛) > 𝑏2 𝑜𝑚 𝜃 = 𝜃0)
Gör tvåsidigt konfidensintervall för 𝜃
𝐻0 förkastas om 𝜃0 ∉ 𝐼𝜃
Sida 20 av 24
Slutsatser från konfidensmetoden
Teststorhet Beslut Betydelse
𝑡 ∈ 𝐶 𝐻0 förkastas (till förmån för 𝐻1)
”Långt borta”, ”Osannolikt”
Har funnit en signifikant avvikelse från 𝐻0
Avvikelsen är på nivån 𝛼
Med felrisk ≤ 𝛼 så gäller 𝐻1
𝑡 ∉ 𝐶 𝐻0 förkastas ej
Inte tillräckligt ”långt borta” eller ”osannolikt”
Ingen signifikant avvikelse från 𝐻0
Sett till nivån 𝛼
𝐻0 kan vara sann (eller falsk)
Hypotesprövning utan normalapproximation
Steg Exempel
Observationer
Hypoteser
Signifikansnivå
𝑥 = 7 är en observation från 𝑋~𝐵𝑖𝑛(𝑛, 𝑝)
𝐻0: 𝑝 = 0.3, 𝐻1: 𝑝 > 0.3
𝛼 = 5%
Ta fram observation av 𝑝 𝑝𝑜𝑏𝑠∗ =
𝑥
10=7
10= 0.7
Välj teststorhet 𝑡(𝑋): 𝑥
Ställ upp uttryck för att se om 𝑡(𝑋) > 𝑎 (⇒ förkasta 𝐻0)
𝑃(𝑋 ≥ 𝑎 om 𝐻0 är sann) ≤ 0.05
𝑃(𝑋 ≥ 𝑎 om 𝑝 = 0.3) ≤ 0.05
Beräkna tröskelvärdet 𝑎 𝐵𝑖𝑛(10,0.3) ger
𝑃(𝑋 ≥ 6) = 𝑃(𝑋 = 10) + ⋯+ 𝑃(𝑋 = 6) = 0.0473 ≤ 0.05
Jämför tröskelvärde med teststorhet
Tolka resultat
𝑥 = 7 > 6 = 𝑎 ⇒ 𝐻0 förkastas
Med felrisk 4.73% ≤ 5% kan vi påstå att 𝐻1:𝑝 > 0.3 gäller
Jämförelse mellan 𝑪-metoden och 𝒑-metoden
𝑪-metoden 𝒑-metoden
Anta att 𝐻0 är sann:
Detta leder till en given fördelning för teststorheten 𝑋
Anta att vi får resultatet (observationen) 𝑥
Är sannolikheten att vi fick detta resultat tillräckligt liten?
Beräkna 𝛼: 𝑃(𝑋 ≥ 𝑎) = 𝛼 eller 𝑃(𝑋 ≤ 𝑎) = 𝛼
(där vi söker 𝑎 så att sannolikheten blir 𝛼)
Beräkna 𝑝-värdet:
𝑝 = 𝑃(𝑋 ≤ 𝑥) eller 𝑝 = 𝑃(𝑋 ≥ 𝑥)
Om 𝒙 ≤ 𝒂 eller 𝒙 ≥ 𝒂:
Resultatet är osannolikt under 𝐻0
Detta är signifikant ⇒ 𝐻0 kan förkastas
Om 𝒑 ≤ 𝜶 eller 𝒑 ≥ 𝜶 :
Resultatet är osannolikt under 𝐻0
Detta är signifikant ⇒ 𝐻0 kan förkastas
Annars:
Resultatet är ej tillräckligt osannolikt under 𝐻0
Detta är ej signifikant ⇒ 𝐻0 kan ej förkastas
Annars:
Resultatet är ej tillräckligt osannolikt under 𝐻0
Detta är ej signifikant ⇒ 𝐻0 kan ej förkastas
Sida 21 av 24
Hypotesprövning med normalapproximation
Steg Exempel
Observationer
Hypoteser
Signifikansnivå
𝑥 = 7 är en observation från 𝑋~𝐵𝑖𝑛(𝑛, 𝑝)
𝐻0: 𝑝 = 𝑝0, 𝐻1: 𝑝 ≠ 𝑝0
𝛼 = 5%
Ta fram fördelning för 𝑋 (under 𝐻0)
𝑋~𝐵𝑖𝑛(𝑛, 𝑝0) ≈ 𝑁 (𝑛𝑝0 , √𝑛𝑝0(1 − 𝑝0))
⇒ 𝑝∗ =𝑋
𝑛≈ 𝑁(𝑝0,√
𝑝0(1− 𝑝0)
𝑛)
Bilda hjälpvariabel 𝑍
Välj teststorhet 𝑧
𝑍 =𝑝∗ − 𝑝
0
√𝑝0(1 − 𝑝0)/𝑛≈ 𝑁(0,1), då 𝐻0 är sann
𝑡: 𝑧 =𝑝𝑜𝑏𝑠∗ −𝑝
0
√𝑝0(1 − 𝑝0)/𝑛
Ställ upp uttryck för att se om |𝑝∗| stor (⇒ förkasta 𝐻0)
|𝑝∗| stor ⇒ |𝑧| stor ⇒ testa 𝑧
𝑃(|𝑍| > 𝑎 om 𝐻0 är sann) ≤ 𝛼 = 0.05
𝑃(|𝑍| > 𝑎 om 𝑝 = 𝑝0) ≤ 0.05
Beräkna tröskelvärdet 𝑎
𝑁(0,1) ger
𝑃(|𝑍| > 𝑎) = 𝑃(−𝑎 < 𝑍 < 𝑎) = 0.05 ⇒
𝑎 = 1.96
Jämför tröskelvärde med teststorhet
Tolka resultat
𝑧 > 𝑎 eller 𝑧 < −𝑎 ⇒ 𝐻0 förkastas
Med felrisk 𝛼 kan vi påstå att 𝐻1: 𝑝 ≠ 𝑝0 gäller
Normalapproximation - allmänt
En eller flera stickprov ger en punktskattning 𝜃𝑜𝑏𝑠∗
Tillhörande s.v. 𝜃∗ ≈ 𝑁(𝜃, 𝐷)
Vill pröva 𝐻0: 𝜃 = 𝜃0
Bilda hjälpvariabel och teststorhet:
o Teststorheten är i princip hjälpvariabeln för 𝐼𝜃 fast med villkoret att 𝐻0 är sant
𝑍 = {
𝜃∗ − 𝜃
𝐷≈ 𝑁(0,1), 𝐷 känd
𝜃∗ −𝜃
𝐷∗≈ 𝑁(0,1), 𝐷 okänd
𝑧 = {
𝜃𝑜𝑏𝑠∗ −𝜃
𝐷≈ 𝑁(0,1), om 𝐷 känd då 𝐻0 är sann
𝜃𝑜𝑏𝑠∗ − 𝜃
𝑑≈ 𝑁(0,1), om 𝐷 okänd
där 𝑑 är en skattning av 𝐷 som gäller då 𝐻0 är sann
Ensidigt eller tvåsidigt test beror på hur mothypotesen ser ut
Sida 22 av 24
Hypotesprövning vid ett stickprov – 𝝈 känd
Steg Exempel
Observationer
S.v.
𝑥1,… , 𝑥𝑛 från oberoende och likafördelade s.v. 𝑋1, … , 𝑋𝑛
𝑋𝑖 = 𝜇 + 𝜀𝑖 och 𝜀𝑖~𝑁(0,𝜎)
Hypoteser 𝐻0: 𝜇 = 𝜇0 mot 𝐻1: 𝜇 ≠ 𝜇0
Signifikansnivå 𝛼
Punktskattning 𝜇𝑜𝑏𝑠∗ = �̅�
Tillhörande s.v.
𝜇∗ = 𝑋~𝑁 (𝜇,𝜎
√𝑛)
𝜇∗ = 𝑋~𝑁 (𝜇0,𝜎
√𝑛) då 𝐻0 är sann (ty H0 ⇒ 𝜇 = 𝜇0)
Bilda hjälpvariabel 𝑍
Bilda därefter teststorhet 𝑧
(𝑍 under villkoret att 𝐻0 är sant)
𝑍 =𝑋 − 𝜇
𝜎/√𝑛~𝑁(0,1) då 𝐻0 är sann
𝑧 =�̅� − 𝜇0
𝜎/√𝑛 observation från 𝑍~𝑁(0,1) om 𝐻0 är sann
Ställ upp uttryck för att se om 𝜇𝑜𝑏𝑠∗ avviker
⇔ |𝜇𝑜𝑏𝑠∗ | stor ⇔ |�̅�| stor ⇒ |𝑧| stor
⇒ testa 𝑧
𝑃(|𝑍| > 𝑎 om 𝐻0 är sann) ≤ 𝛼
Tvåsidigt med 𝛼
2 på vardera sida pga. 𝐻1: 𝜇 ≠ 𝜇0
Beräkna tröskelvärdet 𝑎 𝑁(0,1) ger 𝑃(|𝑍| > 𝑎) = 𝑃(−𝑎 < 𝑍 < 𝑎) =𝛼
2 ⇒ 𝑎 = 𝜆𝛼/2
Jämför tröskelvärde med teststorhet 𝑧
Tolka resultat
Om 𝑧 > 𝑎 eller 𝑧 < −𝑎 ⇒ 𝐻0 förkastas
Med felrisk 𝛼 kan vi påstå att 𝐻1: 𝑝 ≠ 𝑝0 gäller
Ekvivalent: risken att teststorhet av slump hamnar i kritiska
området |𝑍|> 𝑎 är lika med 𝛼
Hypotesprövning vid ett stickprov – 𝝈 okänd
Bilda hjälpvariabel 𝑍
Bilda därefter teststorhet 𝑧
(𝑍 under villkoret att 𝐻0 är sant)
𝑇 =𝑋 − 𝜇
𝑆/√𝑛~𝑡(𝑛 − 1) då 𝐻0 är sann
𝑡 =�̅� − 𝜇0
𝑠/√𝑛 observation från 𝑇~𝑡(𝑛− 1) om 𝐻0 är sann
Hypotesprövning vid ett stickprov – 𝑯𝟎 :𝝈𝟐 = 𝝈𝟎
𝟐
Bilda hjälpvariabel 𝑆2
Bilda därefter teststorhet 𝑠2
𝑆2 =1
𝑛 − 1∑(𝑋𝑖− �̅�)
2𝑛
𝑖=1
𝑠2 =1
𝑛 − 1∑(𝑥𝑖− �̅�)2𝑛
𝑖=1
Antag att 𝐻1: 𝜎2 > 𝜎0
2
Förkasta 𝐻0 då 𝑠2 > 𝑐
Bestäm 𝑐 mha. följande:
{
𝛼 = 𝑃(𝑆2 > 𝑐 om 𝐻0 är sann)
(𝑛 − 1)𝑆2
𝜎02 ~𝜒2(𝑛− 1) om 𝐻0 är sann
⇒
𝛼 = 𝑃((𝑛 − 1)𝑆2
𝜎02 >
(𝑛 − 1)c
𝜎02 om 𝐻0 är sann)
Sida 23 av 24
Hypotesprövning vid flera stickprov – 𝝁𝒊
Steg Exempel
Observationer
S.v.
𝑥1,… , 𝑥𝑛 från oberoende och likafördelade s.v. 𝑋𝑖~𝑁(𝜇1,𝜎1)
𝑦1, … , 𝑦𝑛 från oberoende och likafördelade s.v. 𝑌𝑖~𝑁(𝜇2, 𝜎2)
Hypoteser 𝐻0: 𝜇1 = 𝜇2 ⇔ 𝜇1 −𝜇2 = 0
𝐻1: 𝜇1 ≠ 𝜇2 eller 𝐻1: 𝜇1 > 𝜇2 eller 𝐻1: 𝜇1 < 𝜇2
Konfidensintervall-metoden
Konstruera konfidensintervall för 𝜇1 − 𝜇2
Förkasta 𝐻0 om 0 ∉ 𝐼𝜇1−𝜇2
{𝐻1: 𝜇1 > 𝜇2 eller 𝐻1: 𝜇1 < 𝜇2𝐻1: 𝜇1 ≠ 𝜇2
⇒ {Ensidigt intervall
Tvåsidigt intervall
Vid flera stickprov ⇒ jämför konfidensintervall
Teststorhet-metoden
Teststorhet: 𝑇 =𝑋 − 𝑌
𝑆√1𝑛1+1𝑛2
~𝑡(𝑛1 + 𝑛2 −2) under 𝐻0
Förkasta 𝐻0 om 𝑇 < −𝑐 och/eller 𝑇 > 𝑐 (beroende på 𝐻1)
Hypotesprövning vid flera stickprov – 𝝈𝒊
Steg Exempel
Hypoteser 𝐻0: 𝜎12 = 𝜎1
2 = 𝜎2 (alternativt 𝜎1 = 𝜎2 = 𝜎)
𝐻1: 𝜇1 ≠ 𝜇2 eller 𝐻1: 𝜇1 > 𝜇2 eller 𝐻1: 𝜇1 < 𝜇2
Bilda hjälpvariabel 𝑉
Bilda därefter teststorhet 𝑣
(𝑉 under villkoret att 𝐻0 är sant)
𝑉 =
(𝑛1−1)𝑆12
𝜎12 /(𝑛1 − 1)
(𝑛2 −1)𝑆22
𝜎12 /(𝑛2 − 1)
~𝐹(𝑛1− 1,𝑛2 −1) då 𝐻0 är sann
𝑣 =𝑠12
𝑠22 obs. från 𝑉~𝐹(𝑛1− 1, 𝑛2− 1) om 𝐻0 är sann
Ensidigt eller tvåsidigt test {𝐻1: 𝜎1
2 > 𝜎22 eller 𝐻1: 𝜎1
2 < 𝜎22
𝐻1: 𝜎12 ≠ 𝜎1
2 ⇒ {
Ensidigt intervall
Tvåsidigt intervall
Jämför tröskelvärde 𝑐 med teststorhet Förkasta 𝐻0 om 𝑇 < −𝑐 och/eller 𝑇 > 𝑐 (beroende på 𝐻1)
Sida 24 av 24
Stokastiska vektorer
Väntevärde Varians
𝐸[𝑋+ 𝑌] = 𝐸[𝑋] + 𝐸[𝑌] 𝑉(𝑋+ 𝑌) = 𝑉(𝑋) + 2 ∙ 𝐶𝑜𝑣(𝑋,𝑌) + 𝑉(𝑌)
𝐸[𝑎𝑋 + 𝑏𝑌 + 𝑐] = 𝑎 ∙ 𝐸[𝑋] + 𝑏 ∙ 𝐸[𝑌] + 𝑐 𝑉(𝑎𝑋+ 𝑏𝑌 + 𝑐) = 𝑎2 ∙ 𝑉(𝑋) + 2𝑎𝑏 ∙ 𝐶𝑜𝑣(𝑋,𝑌) + 𝑏2 ∙ 𝑉(𝑌)
𝐸[𝑋 ∙ 𝑌] = 𝐸[𝑋] ∙ 𝐸[𝑌] om Χ och Y är
oberoende
𝑉(𝑋+ 𝑌) = 𝑉(𝑋) + 𝑉(𝑌) om Χ och Y är oberoende
Kovarians Korrelation
𝐶𝑜𝑣(𝛸, 𝑌) = 𝐸[𝛸 ∙ 𝑌] − 𝐸[𝛸] ∙ 𝐸[𝑌] 𝜌(𝛸, 𝑌) =𝐶𝑜𝑣(𝛸, 𝑌)
𝐷(𝑋) ∙ 𝐷(𝑌)=
𝐶𝑜𝑣(𝛸, 𝑌)
√𝑉(𝛸) ∙ 𝑉(𝑌)
𝐶𝑜𝑣(𝑋, 𝑋) = 𝑉(𝑋) Mått på linjärt beroende mellan 𝛸 och 𝑌
𝐶𝑜𝑣(𝑋, 𝑌) = 𝐶𝑜𝑣(𝑌,𝑋) −1 ≤ 𝜌 ≤ 1 gäller alltid!
𝐶𝑜𝑣(𝑎𝑋,𝑏𝑌) = 𝑎 ∙ 𝑏 ∙ 𝐶𝑜𝑣(𝑋, 𝑌) Tänk ”𝑋 är −100% respektive 100% beroende av 𝑌”
𝐶𝑜𝑣(𝑋, 𝑌) = 0 om Χ och Y är oberoende 𝛸 och 𝑌 är oberoende ⟹ 𝐶𝑜𝑣(𝑋,𝑌) = 0 ⟹
𝛸 och 𝑌 är okorrelerade ⟹ 𝜌(𝛸, 𝑌) = 0
Flerdimensionell normalfördelning
Kovariansmatris
Tänk 𝑉(𝑎𝑋+ 𝑏𝑌 + 𝑐) = 𝑎2 ∙ 𝑉(𝑋) + 2𝑎𝑏 ∙ 𝐶𝑜𝑣(𝑋,𝑌) + 𝑏2 ∙ 𝑉(𝑌) o Fast generaliserat till tre eller fler dimensioner i form av X, Y, Z,…
Därav matrisform
𝑪𝑿 = (𝐶(𝑋, 𝑋) 𝐶(𝑋, 𝑌) 𝐶(𝑋, 𝑍)
𝐶(𝑌, 𝑋) 𝐶(𝑌,𝑌) 𝐶(𝑌, 𝑍)
𝐶(𝑍, 𝑋) 𝐶(𝑍, 𝑌) 𝐶(𝑍, 𝑍)) = (
𝑉(𝑋) 𝐶(𝑋, 𝑌) 𝐶(𝑋, 𝑍)
𝐶(𝑌, 𝑋) 𝑉(𝑌) 𝐶(𝑌, 𝑍)
𝐶(𝑍, 𝑋) 𝐶(𝑍,𝑌) 𝑉(𝑍))
Notera symmetri pga. 𝐶(𝑋, 𝑌) = 𝐶(𝑌,𝑋) samt att 𝐶(𝑋, 𝑋) = 𝑉(𝑋)
Regressionsanalys
Sats: Komponenterna i en normalfördelad vektor är oberoende ⇔ kovariansmatrisen är en diagonalmatris.
Följdsats: Två simultant normalfördelade s.v. X, Y är oberoende ⇔ X, Y är okorrelerade, 𝜌(𝛸, 𝑌) = 0
Sats: Om 𝒀 = 𝑨𝑿+ 𝑩 där 𝑿 har flerdimensionell normalfördelning ⇒ 𝒀 är normalfördelad
”En linjärkombination av oberoende normalvariabler, som är komponenter i en normalfördelad vektor, är
normalfördelad ”