estimation : chapitre 10
TRANSCRIPT
1
ESTIMATION PONCTUELLE ………………….……………… 7 méthode de vraisemblance maximale ………………………….. méthode de moments ………………………………………………
FORMULAIRE ..…. 9-10ESTIMATION: INTERVALLES CONFIANCE ….…………………….. 11-12
FORMULAIRE …… 13-15
Intervalle de confiance pour la moyenne μ …..…………….....16 Calcul de la taille échantillonnale n ………………………….. 17 Interprétation intervalle confiance : simulation ……………….. 18
Estimation : différence entre 2 moyennes μ1 - μ2 …………… 22
Estimation : variance σ2 / écart type σ ………………………... 27
Estimation du paramètre θ (ou p) : distribution binomiale … 30
Différence θ1 - θ2 entre 2 distributions binomiales (10,3,5) : hors programme
Estimation : chapitre 10 (ed2 HMGB)
Bernard CLÉMENT, PhD
Intervalle de prévision pour une observation future ………. 34 Intervalle de tolérance pour un pourcentage distribution …… 35
Rappel : terminologie statistique - résultats…………………… 2-6
2Bernard CLÉMENT, PhD
Méthodes statistiques- description / visualisation : données Y (ch8)- estimation : paramètres distribution (ch9-10)- tests statistiques : prise de décision (ch11-12)- modélisation Y = f(X) f = fonction de transfert (ch13)
processussystème
Y : variable de réponse
X : variablesexplicatives
Variable Y - plusieurs cas- mesure : variable continue - distribution normale N(μ, σ2) … autre
- classement 0 ou 1 : variable qualitative - distribution Bernoulli Ber(θ)
- comptage 0,1,2,.. : variable entière - distribution Poisson Poi (λ)
Variables X - catégoriques / continues / une ou plusieurs
• les populations statistiques sont modélisées par des lois de probabilitésdont les paramètres sont toujours inconnus;
• le mieux que l’on puisse faire: estimer les paramètres avec desdonnées (observations ) provenant de la distribution (population)
• données (Y1, Y2, …) sont transformées en statistique W par une fonction hW = h (Y1, Y2 ,…. ) W est une variable aléatoire
choix de h : dépend de l’application envisagée (ESTIMATION ou TEST)loi de probabilité de W s’appelle distribution d’échantillonnageexemple : 2 échantillons de taille n provenant de la même population
(Y1, Y2, …,Yn) et (Y1’, Y2’ , ….., Yn’) auront une moyenne (Ybar),différente, un écart type s différent, un histogramme différent : c’est l’influence de la variabilité de l’échantillonnage
• on dispose toujours que d’un seul échantillon de taille n pour mettreen œuvre une procédure statistique : ESTIMATION ou TEST
• paramètre statistique ξ : toute quantité associée à une loi de probabilitéex. ξ = μ : moyenne distribution normale
ξ = σ : écart type distribution quelconqueξ = θ : moyenne distribution Bernoulli ( θ)
3
Terminologie statistique
Bernard CLÉMENT, PhD
4
terminologie statistique
Échantillon aléatoire : un ensemble de variables aléatoires Y 1 , Y 2 , , Y ntelles que (a) les variables sont soumises à une même distribution f(y)
(b) les variables sont indépendantesloi conjointe : g (Y1, Y2, …, Yn) = f(Y1)* f(Y2) * …* f(Yn)
Statistique : toute fonction W calculée sur les données de l’échantillonW = h (Y1 , Y2 , …., Y n ) remarque : W est une variable aléatoire
Estimateur : une statistique particulière conçue de façon à fournirune estimation d’un paramètre d’une loi de probabilité
Estimation ponctuelle d’un paramètre ξ : est la valeur numérique ξprise par un estimateur sur la base d’un échantillon (y1, y2,…, yn)
ξ = h(y1, y2, … , yn ) Estimation par intervalle d’un paramètre statistique ξ est un intervalle
(a, b) dont les valeurs a et b dépendent de l’échantillon (Y1, Y2,…, Yn)et une probabilité spécifiée 1 - α = coefficient de confiancede telle sorte que : P ( a ≤ ξ ≤ b) = 1- α
a = h1(Y1, Y2,.., Yn) = ? b = h2(Y1, Y2,.., Yn) = ?
Bernard CLÉMENT, PhD
5
Distribution d’échantillonnage : concept fondamentaltout estimateur ξ possède une distribution de probabilité appelée distribution d’échantillonnage ; l’étude des propriétés de l’estimateurrepose sur l’étude des propriétés de cette distribution.
Estimateur sans biais (sans erreur systématique) : estimateur dont la moyenne est égale au paramètre à estimer : E( ξ ) = ξ
ξ
ξ
distribution d’échantillonnage
E( ξ )n1
n2 > n1n2
Résultat : sous certaines conditions très générales : la distribution d’échantillonnage est approximativement en forme de cloche
(normale) et sa dispersion (variance) diminue lorsque n augmente ET ( ξ ) = constante / √ n
Erreur Quadratique Moyenne = EQM = Var ( ξ ) + ( E( ξ ) – ξ )2
« meilleur » estimateur : EQM minimumsi ξ sans biais ……. minimum EQM = minimum Var ( ξ )
Bernard CLÉMENT, PhD
6
Résultat 1 Soit Y 1 , Y 2,, ….. , Y n des v. a. indépendantes telles que E(Yi ) = μi et Var (Yi ) = σi
2 i = 1, 2, …, nsoient a 1, a 2,, …. , a n des constantes etW = ∑ ai Yi une combinaison linéaire des Yi
Alors E(W) = μW = ∑ ai μi et Var (W) = σw2 = ∑ ai
2 σi2
remarque 1 : aucune hypothèse est nécessaire sur les lois des Yiremarque 2 : si les Y sont normales alors W est normale
Résultat 3 Si les Xi sont gaussiennes Xi ~ N (μ , σ2 )
alors X est gaussienne N (μ , σ2 / n )
Résultat 2 Soit ai = 1 / n E(Yi) = μ Var(Yi) = σ2 alors i = n
W = Y = Ybar = ∑ (1/n ) Yi vérifie E(Y) = μ et Var(Y) = σ2 / ni = 1
Bernard CLÉMENT, PhD
R A P P E L S (chapitre vecteurs aléatoires)
Résultat 3 Si les Yi sont normales Yi ~ N (μ , σ2 )
alors Y est normale N (μ , σ2 / n )
Résultat 4 Si les Yi sont distribuées quelconques E(Yi ) = μ Var(Yi) = σ2
alors Y est approximativement normale N (μ , σ2 / n )
7Bernard CLÉMENT, PhD
méthode 2
moments
méthode 1
vraisemblance
maximale
méthode: vraisemblance maximaleEstimation ponctuelle
fonction de vraisemblance L
L(θ1, θ2, θ3,…, θk) = π f Y (y i ; θ1, θ2, θ3,…, θk)
f Y (y i ; θ1, θ2, θ3,…, θk) : distribution de Y
θ1, θ2, θ3,…, θk : paramètres inconnus
déterminer les valeurs de θ1, θ2, θ3,…, θk
qui maximise L(θ1, θ2, θ3,…, θk)
résoudre les k équations ∂ L ∂ θ i
solutions θ i = h i ( y1, y2,…, y n ) estimateurs à VM
remarqueen général, il plus facile de d’utiliser le log de Lpour trouver les estimateurs
log(L(θ1, θ2, θ3,…, θk)) = ∑ log f Y (y i ; θ1, θ2, θ3,…, θk)
= 0
i = 1
n
i = 1, 2,.., k
8Bernard CLÉMENT, PhD
Estimation à vraisemblance maximale : étapes
Dans certains cas, l’estimateur à vraisemblance maximal n’est pas obtenu par dérivation.Par exemple, lorsque la fonction de vraisemblance est maximale à la frontière de l’espace.
NOTATION
dans l’encadré
la variable X
représente
une variable
de réponse
9
estimateurs à vraisemblance maximale
10
estimateurs à vraisemblance maximale
11Bernard CLÉMENT, PhD
Estimation méthode des moments: étapes
12
Estimation méthode des moments: exemple
13Bernard CLÉMENT, PhD
TABLEAU - différents cas d’intervalle de confianceCAS PARAMÈTRE CONDITIONS NOMBRE ÉCHANT.A moyenne μ normale N(μ, σ2) σ2 connu 1B moyenne μ normale N(μ,σ2) σ2 inconnu 1C moyenne μ quelconque n > 30 σ2 inconnu 1D μ1 - μ2 normales variances σ2
1 σ22 connues 2
E μ1 - μ2 normales variances σ21 σ2
2 inconnues 2σ1
2 = σ22 = σ2
F μ1 - μ2 normales variances σ21 σ2
2 inconnues 2et inégales
G σ2 normale N(μ, σ2) μ inconnue 1H σ1
2 / σ22 normales moyennes μ1 μ2 inconnues 2
I θ Bernoulli 1J θ1 – θ2 Bernoulli 2
14Bernard CLÉMENT, PhD
Tableau intervalles de confiance
15Bernard CLÉMENT, PhD
Tableau intervalles de confiance : suite
16
Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance
Cas A : population normale et variance σ 2 connue Y ~ N ( μ , σ 2 )
soit Y 1 , Y 2, …, Y n un échantillon de Y alors ( Y - μ ) / ( σ / √ n ) ~ N ( 0, 1 )
alors P ( - z 1 – α / 2 ≤ ( Y - μ ) / ( σ / √ n ) ≤ z 1 – α / 2 ) = 1 - α ( * )
-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26
U
-0.02
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
GAUS
S
N ( 0, 1) :
normale
centrée – réduite
1 - α : coefficient
de confiance
- z 1 – α / 2 0 z 1 – α / 2
α/ 21 - α
Z = ( Y – μ ) / (σ /√ n )
On isole le paramètre μ de l’équation ( * ) pour obtenir l’intervalle de confiance
de μ Y - z 1 – α / 2 σ ≤ μ ≤ Y + z 1 – α / 2 σ
√ n √ n
Bernard CLÉMENT, PhD
17
Exemple : supposons que la durée ( heures) de vie X d’ampoules électriques d’unecertaine marque est une loi gaussienne de moyenne μ ( inconnue) et écart type σ = 100 (a) Déterminer un intervalle de confiance avec coefficient de confiance de 0.95 pour μ si
un échantillon de n = 20 ampoules a donné les durées de vie : 1076.2 - 989.2 - 1013.91152.5 - 1076.8 - …… 1028.7 - 946.2 - 1111.8 - 1060.5 de moyenne X = 1028.5 h
(b) Refaire (a) avec une coefficient de confiance de 0.99(c) Combien d’ampoules n doit –on échantillonnées si on veut un intervalle de confiance
à 0.95 de longueur égale à 30 ?Solution : (a) 1028.5 - ( 1.96 * 100 / √ 20 ) ≤ μ ≤ 1028.5 + ( 1.96 * 100 ) / √ 20 )
1028.5 – 43.8 ≤ μ ≤ 1028.5 + 43.8984.7 ≤ μ ≤ 1072.3
(b) avec un coefficient de confiance de 0.99 le percentile 1.96 change pour 2.576et l’intervalle de confiance devient 970.9 ≤ μ ≤ 1086.1
(c) la longueur de l’intervalle en (a) est de 2*43.8 = 87.6 avec n = 20on veut 2 * 1.96 * 100 / √ n = 30 donc n = 171
Détermination de la taille de l’échantillon : calcul de n ( avec σ connu )
on spécifie : coefficient de confiance = 1 - α longueur de l’intervalle = 2Δon connaît σ
n = (z 1 – α / 2 σ / Δ) 2
Bernard CLÉMENT, PhD
Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance
18
Exemple : suite de l’exemple - Un deuxième échantillon de 20 ampoules a donné une viemoyenne de 981 h. L’intervalle de confiance à 0.95 est : 937.2 ≤ μ ≤1024.8
Remarque : dans toute étude statistique on a toujours qu’un seul échantillon de taille nqui est prélevé. Toute décision à prendre repose sur cet échantillon uniquement.Dans l’exemple, on a prélevé un deuxième échantillon pour des fins d’illustrationmais si c’était le cas réel, on aurait combiné les deux en un seul échantillon de taille 40.
Interprétation d’un intervalle de confianceLe coefficient de confiance se rapporte à la procédure à long terme : ( 1 - α ) 100% des intervalles calculés avec la formule génèrent des intervalles qui contiendront μ. On ne sait jamais si l’intervalle calculé avec l’échantillon observé contient μ mais notre degré de confiance est de ( 1 - α ) 100% qu’il fait partie de ceux qui contienne μ( les ‘ bons ‘ )L’interprétation peut être comprise et illustrée seulement avec des données simulées provenant d’une population gaussienne dont la moyenne est connue : exemple suivant
Exemple : simulation de 100 échantillons de taille n = 5
provenant d’une population gaussienne μ = 1000 et σ = 1007 échantillons : # 14 – 23 – 25 – 49 – 71 – 73 – 79 ne contiennent pas 1000
graphique: page suivantes
Bernard CLÉMENT, PhD
Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance
19
intervalles de confiance : échantillons 1-50 de 5 obs.
moy-de-5750
800
850
900
950
1000
1050
1100
1150
1200
1250
#14 – 23 - 25 – 49 - 71 – 73 - 79 : 7 intervalles sur les 100 calculés
ne contiennent pas 1000
μ =1000
Bernard CLÉMENT, PhD
échantillons 51 à 100 : groupe de 5 obs
moy-de-5750
800
850
900
950
1000
1050
1100
1150
1200
1250
Simulation interprétation intervalle confiance
20
Cas B : population normale et variance σ 2 inconnue Y ~ N ( μ , σ 2 = ? )
intervalle de confiance de la moyenne coeff. Conf. = 1 - α
Y - t 1 – α / 2, n - 1 s ≤ μ ≤ Y + t 1 – α / 2, n - 1 s√ n √ n
Exemple : 6 observations de la durée de vie d’ampoules a donné
863.0 - 1016.2 - 945.8 - 992.5 - 943.8 - 1006.4
Y = 961.3 et s = 57.0
Int. confiance avec coeff. conf. = 0.90 = 1 – α pour μ :
t 0,95 , 5 = 2.015 selon table Student avec 5 ddl
961.3 ± 2.015 * 57 / √ 6 = ( 914.4 , 1008.2 )
Bernard CLÉMENT, PhD
Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance
21
Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance
Cas C : population quelconque et n au moins 30 intervalle de confiance approximatif pour la moyenne
Y - z1 – α / 2 s ≤ μ ≤ Y + z1 – α / 2 s√ n √ n
Remarque : la formule repose sur le théorème central - limite
Exemple : la durée de vie de 50 ampoules électriques d’une
certaine marque a donné
Y = 1014 et s = 98.7
Intervalle de confiance à 0.90 pour μ est
1014 ± 1.64 * 98.7 / √ 50
1014 ± 22,9
992.1 à 1036.9
Bernard CLÉMENT, PhD
22
-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26
U
-0.02
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
GAUS
S
Résultat : (a) E (Y1 - Y2 ) = μ1 - μ2(b) Var ( Y1 - Y2 ) = σ1
2 / n1 + σ22 / n2
(c) Y1 - Y2 ~ N (μ1 - μ2 , σ12 / n1 + σ2
2 / n2 )(d) (Y1 – Y2) – (μ1 - μ2 ) / (σ1
2 / n1 + σ22 / n2 )0,5 ~ N(0,1)
le résultat (d) est approximatif si n1 et n2 sont plus grands que 30
-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26
U
-0.02
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
GAUS
S
Y11, Y12, … , Y1n1
Y1 ~ N ( μ1, σ12) Y2 ~ N ( μ2, σ2
2)
σ1 σ2
μ1 μ2
Y21, Y22, … , Y2n2
Loi d’échantillonnage de la différence entre 2 moyennes : variances connues
échantillonsindépendants
Y1 = ∑ Y1i / n1 Y2 = ∑ Y2i / n2moyennes
vrai sans aucune hypothèse sur les lois
Bernard CLÉMENT, PhD
X : cas 1 X : cas 2X : facteurcomparaison
23
Cas D : intervalle de confiance - différence de 2 moyennes μ1 - μ2variances connues (conséquence de (d) page précédente)
μ1 - μ2 : ( Y1 - Y2 ) ± Z 1 – α /2 [σ12 / n1 + σ2
2 / n2 ] 0.5
Exemple : calculer un intervalle de confiance avec coefficient de confiance 0.95pour la différence de vie ( heures ) moyenne de deux types ( 1 et 2 )
d’ampoules électriques à l’aide des informations suivantes :
type1 : n = 16 σ = 128 Y1 = 1050
type2 : n = 9 σ = 81 Y2 = 970solution selon la formule ci haut et la table de la gaussienne centrée réduite
1 - α = 0.95 donc 1- α/2 = 0.975 et z 0.975 = 1.96
μ1 - μ2 : (1050 – 970) ± 1.96 ( 1282 / 16 + 812 / 9 )0.5 = 80 ± 82.1 = - 2.1 à 162.9
question les ampoules de type1 durent elles ( en moyenne ) plus longtemps
que les ampoules de type2 ?
Réponse = ?
Bernard CLÉMENT, PhD
24
-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26
U
-0.02
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
GAUS
S
Résultat : ( Y1 – Y2 ) - ( μ1 - μ2 )
Sp √ 1/ n1 + 1 / n2
-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26
U
-0.02
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
GAUS
S
Y11, Y12, … , Y1n1
Y1 ~ N ( μ1, σ2) Y2 ~ N ( μ2, σ2)
σ σ
μ1 μ2
Y21, Y22, … , Y2n2
Loi d’échantillonnage différence entre 2 moyennes: variances inconnues égales
échantillons indépendants
Y1 = ∑ Y1i / n1 Y2 = ∑ Yi / n2moyennes
S12 = ∑ Y1i – Y1 ) 2 / ( n1 - 1 ) S2
2 = ∑ (Y2i – Y2 ) 2 / ( n2 - 1 )variances
Sp2 = [ ( n1 -1 ) S1
2 + ( n2 – 1) S22 ] / ( n1 + n2 - 2) « pooled »
= T ~ Student avec n1 + n2 - 2 ddl
Bernard CLÉMENT, PhD MTH2302 Probabilités et méthodes statistiques
Xcas 1 cas 2
25
Cas E : intervalle de confiance - différence de 2 moyennes μ1 - μ2variances inconnues mais égalesμ1 - μ2 : ( Y1 – Y2 ) ± t1 – α/2, n1 + n2 - 2 Sp [ 1/ n1 + 1/ n2 ]0.5
Exemple : on a modifié la séquence d’opération pour faire l’assemblage de
plusieurs composants. Les données suivantes furent obtenues pour comparer la
la méthode actuelle et la méthode nouvelle. On croit que la nouvelle méthode
n’affecte pas sensiblement la variabilité (sigma). Déterminer un intervalle de confiance
à 95 % pour la différence de temps moyen d’assemblage entre les 2 méthodes.
données : Y1 méthode actuelle : n1 = 10 Y1 = 55 s1 = 10
Y2 méthode nouvelle : n2 = 12 Y2 = 40 s2 = 7
Solution Sp2 = (9 x 102 + 11 x 72) / 20 = 8.482
t 0.975, 20 = 2.08 selon la table de Student avec 20 ddl
μ1 - μ2 : ( 55 – 40 ) ± 2.08 * 8.48 ( 1 / 10 + 1 / 12 ) 0.5 = 15 ± 3.63 = 11.37 à 18.63
question : la nouvelle méthode réduit- elle le temps moyen d’assemblage ?
Réponse = ?
Bernard CLÉMENT, PhD
26
Résultat : si les variances sont inconnues et inégales alors( Y1 – Y2 ) - ( μ1 - μ2 )
√s12 / n1 + s2
2 / n2= T ~ Student avec ν ddl
ν = min (n1-1, n2 -1)
Cas F : intervalle de confiance - différence de 2 moyennes μ1 - μ2variances inconnues et inégales - ν = min ( n1-1, n2 -1)
μ1 - μ2 : ( Y1 – Y2 ) ± t 1 – α/2, ν [ s12 / n1 + s2
2 / n2 ] 0.5
Exemple : comparaison de la force de tension de rupture
( psi x1000) de 2 types d’acier
données acier 1 : n1 = 16 Y1 = 74.6 s12 = 3.5
acier 2 : n2 = 13 Y2 = 70.2 s22 = 19.2
intervalle de confiance à 90% - ν = min ( 15, 12) = 12 t 0.95, 12 = 1.78
μ1 - μ2 : ( 74.6 – 70.2 ) ± 1.78 ( 3.5 / 16 + 19.2 / 13 ) 0.5 = 4.4 ± 2.3 = 2.1 à 6.7
intervalle de confiance à 99% - ν = min ( 15, 12) = 12 t 0.995, 12 = 3.05
μ1 – μ2 : ( 74.6 – 70.2 ) ± 3.05 ( 3.5 / 16 + 19.2 / 13 ) 0.5 = 4.4 ± 4.0 = 0.4 à 8.4
Bernard CLÉMENT, PhD
27
Résultat : soit Yi i = 1, 2,…, n un échantillon aléatoire d’une population N( μ, σ2 )
soit S 2 = 1 /( n – 1 ) ∑ ( Y i – Y ) 2 la variance échantillonnale
alors (n-1) S 2 / σ2 = ∑ ( Y i – Y ) 2 / σ2 suit une loi Khi-deux avec (n – 1) ddl
Résultat : E ( S2 ) = σ2 c’est - à- dire S2 est une estimation sans biais de σ2
remarque: ce résultat est la justification du diviseur n – 1 employé
dans la définition de S2
Cas G : intervalle de confiance pour σ2 / coefficient de confiance = 1 - αsoit Y i i = 1, 2,…, n un échantillon aléatoire d’une population N( μ, σ2 )Alors ( n – 1 ) s 2 ≤ σ2 ≤ (n – 1 ) s 2
χ21- α /2, n-1 χ2
α /2, n-1
remarque : cette formule fournit un intervalle de confiance pour σ en prenant les racines carrées
Exemple : un échantillon de 20 ampoules électriques a donné une durée moyenne
de 1014 et une variance échantillonnale de 625. Un intervalle de confiance pour
σ2 et σ avec un coefficient de confiance de 95% est donné par
19 * 625 / 32.85 ≤ σ2 ≤ 19 * 625 / 8.91361.49 ≤ σ2 ≤ 1332.77
19.01 ≤ σ ≤ 36.51
Bernard CLÉMENT, PhD
28
-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26
U
-0.02
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
GAUS
S
Résultat ( S12 / σ1
2 ) / (S22 / σ2
2) suit une loi F n1-1 , n2-1
-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26
U
-0.02
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
GAUS
S
Y11, Y12 , … , Y1n1
Y1 ~ N ( μ1, σ12) Y2 ~ N ( μ2, σ1
2)
σ1 σ2
μ1μ2
Y21, Y22 , … , Y2n2
loi d’échantillonnage du quotient de 2 variances
échantillonsindépendants
Y1 = ∑ Y1i / n1 Y2 = ∑ Y2i / n2moyennes
S12 = 1/( n1 – 1 ) ∑ (Y1i – Y1 )2 variances SY
2 = 1/( n2 – 1 ) ∑ ( Y2i – Y2 )2
Bernard CLÉMENT, PhD
xcas 1 Cas 2
29
cas H : intervalle de confiance pour le quotient de 2 variances
coeff. conf. = 1 - α
(S12 / S2
2 ) Fα /2, n1 -1, n2 -1 ≤ σ12 / σ2
2 ≤ (S12/S2
2 ) F1 – α /2, n1-1 , n2 -1
remarque : ce résultat fournit l’intervalle de confiance pour le quotient des écart
types σ1 / σ2 en prenant les racines carrées
Exemple : échantillon 1 : n1 = 25 S12 = 0.012
échantillon 2 : n2 = 25 S22 = 0.020
coefficient de confiance = 0.95 F 0.025 , 24 , 24 = 0.44 F 0.975 , 24 , 24 = 2.27
0.60 x 0.44 ≤ σ12 / σ2
2 ≤ 0.6 x 2.27
0.26 ≤ σ12 / σ2
2 ≤ 1.36
0.51 ≤ σ1 / σ2 ≤ 1.17
question : les variances ( ou les écart types ) sont – elles différentes (différents) ?
réponse = ?
Bernard CLÉMENT, PhD
30Bernard CLÉMENT, PhD
Cas I : Estimation de θ (p) : population Bernouilli
31Bernard CLÉMENT, PhD
Cas I : Estimation de θ : population Bernoulli
32Bernard CLÉMENT, PhD
Cas I : Estimation de θ (aussi noté p) : population Bernoulli
Exemple 10.12 et 10.13 p.247 (manuel 1988)
test de n = 75 arbres d’essieu
12 surface trop rugueuse
θ = 12/75 = 0,16
Int. confiance à 95% pour fraction θ population d’essieux
θ : 0,16 ± 1,96 [ 0,16*0,84 / 75 ]0,5 = 0,16 ± 0,08
0,08 ≤ θ ≤ 0,24
n = ? pour avoir erreur 0,05 au lieu de 0,08 avec coef. conf. = 0,95
n = (1,96/0,05)2 * (0,16*0,84) = 207
si pas d’estimation préalable de θ = 0,16 comme cas précédent
n = (1,96/0,05)2 * (0,5*0,5) = 385
33Bernard CLÉMENT, PhD
cas J : différence θ1 - θ2 différence 2 populations Bernoulli
section 9.3.6 livre HMGB édition 3 – hors programme
34Bernard CLÉMENT, PhD
Intervalle de prévision pour une variable aléatoire
Exemple intervalle prévision à 95%
n = 10 obs. 1,15 1,23 1,56 1,69 1,71 1,83 1,85 1,90 1,91
Xbar = 1,666 s = 0,273
prévision de X : 1,666 ± t 0,025, 9 (0,2732 (1 + 1/10) )0,5
1,666 ± 0,648 1,018 ≤ X ≤ 2,314
remarque: ne pas confondre avec intervalle de confiance pour la moyenne μ
1,166 ± 0,195 ce dernier est plus court
remarquez le multiplicateur
1 + (1/n)
35Bernard CLÉMENT, PhD
k constantetable VIII
page suivante
36Bernard CLÉMENT, PhD
Tableau
constante k
Intervalle de tolérancebilatéral
HMGB ed 3
p 537
37
Bernard CLÉMENT, PhD
38Bernard CLÉMENT, PhD