Résumé TEI
Résumé TEI
Résumé TEI
Les propriétés d'une fonction de Les propriétés de l'espérance sont : Les propriétés de la variance sont :
répartition : 𝐸(𝑎) = 𝑎 𝑉(𝑎) =
𝐹 est définie sur ℝ, et à valeurs 𝑜ù 𝑎 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 ∈ ℝ 0 𝑜ù 𝑎 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 ∈
dans [0,1] 𝐸(𝑎𝑋) = 𝑎𝐸(𝑋) ℝ
𝐹 est continue sur ℝ et 𝑜ù 𝑎 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 ∈ ℝ 𝑉(𝑎𝑋) = 𝑎2 𝑉(𝑋)
croissante 𝐸(𝑋 + 𝑌) = 𝐸(𝑋) + 𝐸(𝑌) 𝑜ù 𝑎 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 ∈ ℝ
lim 𝐹(𝑥) = 0 et on a ainsi 𝐸(𝑎𝑋 + 𝑏) = 𝑉(𝑋 + 𝑌) = 𝑉(𝑋) + 𝑉(𝑌) si
𝑥→−∞ 𝑎𝐸(𝑋) + 𝑏, où 𝑋 et 𝑌 sont indépendantes
lim 𝐹(𝑥) = 1
𝑥→−∞ 𝑎 𝑒𝑡 𝑏 𝑑𝑒𝑢𝑥 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒𝑠 ∈ ℝ on a ainsi 𝑉(𝑎𝑋 + 𝑏) =
𝑃(𝑋 > 𝑥) = 1 − 𝑃(𝑋 ≤ 𝑥) = 𝑎2 𝑉(𝑋), où
1 − 𝐹(𝑥) 𝑎 𝑒𝑡 𝑏 𝑑𝑒𝑢𝑥 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒𝑠 ∈
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝐹(𝑏) − 𝐹(𝑎) ℝ
Remarque: Pour une variable
aléatoire continue 𝑃(𝑋 = 𝑥) = 0
1
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Lois usuelles continues
Loi uniforme Loi exponentielle Loi normale Généralisée Loi normale centrée réduite
On dit qu'une va 𝑋 suit la loi uniforme On dit qu'une va 𝑋 suit la loi Une variable aléatoire 𝑋 à Une variable aléatoire 𝑋 à valeurs
sur l'intervalle [𝑎, 𝑏], si elle a pour exponentielle de paramètre 𝜆 > 0 si elle valeurs dans ℝ est dite normale dans ℝ est dite normale centrée
densité: a pour densité: de paramètres 𝑚 ∈ ℝ et 𝜎 ∈ réduite, si elle a pour densité la
1 𝑓𝑋 (𝑥) = {𝜆𝑒
−𝜆𝑥
𝑠𝑖 𝑥 ≥ 0 ℝ∗+ si elle a pour densité la fonction réelle 𝑓 définie par:
𝑓𝑋 (𝑥) = {𝑏 − 𝑎 𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏 0 𝑠𝑖𝑛𝑜𝑛 fonction réelle 𝑓 définie 1 −𝑥 2
0 𝑠𝑖𝑛𝑜𝑛 (𝑥−𝑚)2 𝑓𝑋 (𝑥) = 𝑒 2 ∀ 𝑥∈ℝ
1 − √2𝜋
par:𝑓𝑋 (𝑥) = 𝜎 𝑒 2𝜎2
√2𝜋
∀ 𝑥∈ℝ
2
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Plus 𝜎 est grand, plus la 𝑋−𝑚
suit la loi normale
𝜎
courbe s'étale autour centrée réduite 𝑁(0,1)
de la moyenne.
La fonction de répartition de 𝑋 est La fonction de répartition de 𝑋 est Si 𝑋~𝑁(𝑚, 𝜎), 𝐹𝑍 (−𝑧) = 1 − 𝐹𝑍 (𝑧)
donnée par donnée par 𝑎−𝑚 𝑃(𝑍 > 𝑧) = 1−𝑃(𝑍 ≤ 𝑧) =
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃 (
0 𝑠𝑖 𝑥 ≤ 𝑎 0 𝑠𝑖 𝑥 ≤ 0 𝜎 1 − 𝐹𝑍 (𝑧)
𝑥−𝑎 𝐹𝑋 (𝑥) {1 − 𝑒 −𝜆𝑥 𝑋−𝑚
𝐹𝑋 (𝑥) = { 𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏 𝑠𝑖 𝑥 ≥ 0 ≤ 𝑃𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑎, 𝑏 ∈ ℝ, 𝑃(𝑎 ≤
𝑏−𝑎 𝜎 𝑋 ≤ 𝑏) = 𝐹𝑍 (𝑏) − 𝐹𝑍 (𝑎) =
1 𝑠𝑖 𝑥 ≥ 𝑏 𝑏−𝑚
≤ ) 𝑃(𝑋 > 𝑎) − 𝑃(𝑋 > 𝑏)
𝜎 𝑃𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑧 ≥ 0, 𝑃(−𝑧 ≤
𝑏−𝑚
= 𝐹𝑍 ( ) 𝑍 ≤ 𝑧) = 𝐹𝑍 (𝑧) −
𝜎 𝐹𝑍 (−𝑧) = 2𝐹𝑍 (𝑧) − 1 =
𝑎−𝑚
− 𝐹𝑍 ( ) 1 − 2𝑃(𝑍 ≥ 𝑧)
𝜎
𝑃(𝑍 < −𝑎) = 𝑃(𝑍 > 𝑎)
Si on cherche 𝑧 tel que
𝑥
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∫−∞ 𝑓(𝑡)𝑑𝑡 𝑃(𝑍 > 𝑧) = 𝑏 <0,5 ; on doit
𝑥 regarder sur la table une
𝑠𝑖 𝑥 ≤ 𝑎 𝐹(𝑥) = ∫−∞ 𝑓(𝑡)𝑑𝑡 =
𝑥 𝑥 probabilité de valeur
∫−∞ 0𝑑𝑡 = 0 𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∫−∞ 𝑓(𝑡)𝑑𝑡 s'approchant le plus de 𝑏,
3
Résumé TEI 20-21 : 3A31&28 RASSAA. E
𝑥
𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏 𝐹(𝑥) = 𝑠𝑖 𝑥 ≤ 0 𝐹(𝑥) = ∫−∞ 𝑓(𝑡)𝑑𝑡 = puis projeter sur les lignes et
𝑥 𝑎 𝑥 1
∫−∞ 𝑓(𝑡)𝑑𝑡 = ∫−∞ 0𝑑𝑡 + ∫𝑎 𝑏−𝑎 𝑑𝑡 = 𝑥 les colonnes pour trouver 𝑧
∫−∞ 0𝑑𝑡 =0
1 𝑥−𝑎 𝑥 Si on cherche 𝑧 tel que
0 + 𝑏−𝑎 [𝑡]𝑎𝑥 = 𝑏−𝑎 𝑠𝑖 0 ≤ 𝑥 𝐹(𝑥) = ∫−∞ 𝑓(𝑡)𝑑𝑡 =
𝑥
𝑃(𝑍 > 𝑧) = 𝑏 >0,5 ; alors
0 𝑥
𝑠𝑖 𝑏 ≤ 𝑥 𝐹(𝑥) = ∫−∞ 𝑓(𝑡)𝑑𝑡 = ∫−∞ 0𝑑𝑡 + ∫0 𝜆𝑒 −𝜆𝑡 𝑑𝑡 = 0 + on conclut que 𝑧 et négatif
𝑎 𝑏 1 𝑥 𝑥
∫−∞ 0𝑑𝑡 + ∫𝑎 𝑑𝑡 + ∫𝑏 0𝑑𝑡 = 0 + 1
𝜆 [− 𝜆 𝑒 −𝜆𝑡 ] = −𝑒 −𝜆𝑥 + 1 et avant de regarder la
𝑏−𝑎
1 0 valeur sur la table, il faut
[𝑡]𝑏𝑎 +0=1
𝑏−𝑎 effectuer la transformation
suivante 𝑃(𝑍 > 𝑧) = 1 −
𝑃(𝑍 > −𝑧), donc 𝑃(𝑍 >
−𝑧)=1-𝑏 < 0,5; on n'aura
ainsi qu'à lire 1 − 𝑏 sur la
table et projeter sur les
lignes et les colonnes pour
trouver la valeur de −𝑧
(𝑏−𝑎)2 1
La variance de 𝑋 est 𝑉(𝑋) = La variance de 𝑋 est 𝑉(𝑋) = 2 𝑉(𝑋) = 𝜎 2 𝑉(𝑋) = 1
12 𝜆
𝑉(𝑋) = 𝐸(𝑋 2 ) − (𝐸(𝑋))2
𝑉(𝑋) = 𝐸(𝑋 2 ) − (𝐸(𝑋))2 où
où
4
Résumé TEI 20-21 : 3A31&28 RASSAA. E
+∞ +∞
𝐸(𝑋 2 ) = ∫−∞ 𝑥 2 𝑓𝑋 (𝑥)𝑑𝑥 = 𝐸(𝑋 2 ) = ∫−∞ 𝑥 2 𝑓𝑋 (𝑥)𝑑𝑥 =
𝑏 +∞ 1 +∞
𝑏 1 1 𝑥3 𝑏3 −𝑎3
∫𝑎 𝑥 2 𝑏−𝑎 𝑑𝑥 = 𝑏−𝑎 [ 3 ] = 3 (𝑏−𝑎) = ∫0 𝑥 2 𝜆𝑒 −𝜆𝑥 𝑑𝑥 = 𝜆 ([− 𝜆 𝑥 2 𝑒 −𝜆𝑥 ] +
𝑎 0
𝑏2 +𝑎𝑏+𝑏2 2 +∞ 2 1 2
∫ 𝑥𝑒 −𝜆𝑥 𝑑𝑥)
𝜆 0
= 𝜆 (0 + 𝜆 𝜆2 ) = 𝜆2
3
𝑏2 +𝑎𝑏+𝑏2 (𝑏+𝑎)2 (on a effectué une intégration par partie
d'où 𝑉(𝑋) = 3
− 4
=
(𝑏−𝑎)2 et on a utilisé le fait que
+∞ 1
12 ∫0 𝑥𝜆𝑒 −𝜆𝑥 𝑑𝑥 = ) 𝜆
2 1 1
d'où 𝑉(𝑋) = 𝜆2 − 𝜆2 = 𝜆2
5
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Estimation ponctuelle : Méthode des moments
Soient les moments théoriques et empiriques non centrés suivants :
∑𝑛 2
𝑖=1 𝑋𝑖
Si cette équation ne permet pas de trouver 𝜃, on passe à l'équation suivante: 𝐸(𝑋 2 ) = 𝑛
, et ainsi de suite jusqu'à trouver 𝜃̂ 𝐸𝑀𝑀
𝑛
∑ 𝑋
En d'autres termes: on estime une espérance mathématique 𝐸(𝑋) (qui est une fonction de 𝜃)par la moyenne empirique 𝑋̅ = 𝑖=1 𝑖,
𝑛
2
∑𝑛 2
𝑖=1 𝑋𝑖 ∑𝑛 2
𝑖=1 𝑋𝑖 ∑𝑛
𝑖=1 𝑋𝑖
( On estime 𝐸(𝑋 2 ) par 𝑛
2
. ,Ce qui implique que la variance théorique qui est égale à 𝜎𝑝𝑜𝑝 = 𝐸(𝑋 2 ) − (𝐸(𝑋))2 est estimée par: 𝑛
−( 𝑛
) =
2
𝜎é𝑐ℎ )
Ce qui entraine :
Exemples :
6
Résumé TEI 20-21 : 3A31&28 RASSAA. E
1 1
1. Prenons la loi exponentielle de paramètre 𝜃 > 0, comme 𝐸(𝑋) = 1/𝜃 = 𝜃 alors la résolution de l'équation 𝐸(𝑋) = 𝑋̅ nous donne 𝜃̂ 𝐸𝑀𝑀 = 𝑋̅
1 1 1
2. Prenons la loi exponentielle de paramètre 𝜃 > 0, comme 𝐸(𝑋) = 𝜃 alors la résolution de l'équation 𝜃 = 𝑋̅ nous donne 𝜃̂ 𝐸𝑀𝑀 = 𝑋̅
Etape1 : écrire la fonction de vraisemblance de 𝜽 (le paramètre à estimer) pour une réalisation (𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 )
Si 𝑋 est discrète, la fonction de vraisemblance est donnée par: 𝐿(𝑥1 , … , 𝑥𝑛 ; 𝜃) = ∏𝑛𝑖=1 ℙ𝜃 (𝑋𝑖 = 𝑥𝑖 ) = ℙ𝜃 (𝑋1 = 𝑥1 ). ℙ𝜃 (𝑋2 = 𝑥2 )……ℙ𝜃 (𝑋𝑛 = 𝑥𝑛 )
Si 𝑋 est continue, la fonction de vraisemblance est donnée par: 𝐿(𝑥1 , … , 𝑥𝑛 ; 𝜃) = ∏𝑛𝑖=1 𝑓𝜃 (𝑥𝑖 ) = 𝑓𝜃 (𝑥1 ). 𝑓𝜃 (𝑥2 )……𝑓𝜃 (𝑥𝑛 )
Etape2 : écrire le log de la fonction de vraisemblance de 𝜽 afin de transformer le produit en somme (puisque la dérivation d’une somme est plus
simple que celle d’un produit
Si 𝑋 est discrète, la fonction de log vraisemblance est donnée par: ln𝐿(𝑥1 , … , 𝑥𝑛 ; 𝜃) = ∑𝑛𝑖=1 ln ℙ𝜃 (𝑋𝑖 = 𝑥𝑖 ) = ln ℙ𝜃 (𝑋1 = 𝑥1 ) +
ln ℙ𝜃 (𝑋2 = 𝑥2 )+……+ln ℙ𝜃 (𝑋𝑛 = 𝑥𝑛 )
Si 𝑋 est continue, la fonction de log vraisemblance est donnée par: ln 𝐿(𝑥1 , … , 𝑥𝑛 ; 𝜃) = ∑𝑛𝑖=1 ln 𝑓𝜃 (𝑥𝑖 ) = ln 𝑓𝜃 (𝑥1 ) + ln 𝑓𝜃 (𝑥2 ) + ⋯ + ln 𝑓𝜃 (𝑥𝑛 )
Etape 3: Maximiser la fonction log vraisemblance de 𝜽 en annulant la dérivée première et en s’assurant que la dérivée seconde est négative
On appelle estimateur du maximum de vraisemblance (EMV) de 𝜃 la variable aléatoire correspondante à la valeur 𝜃̂𝑛 pour laquelle la fonction de vraisemblance
atteint son maximum.
𝜕𝐿 𝜕𝑙𝑛𝐿
=0 =0
𝜕𝜃 𝜕𝜃
↔
𝜕²𝐿 𝜕 2 𝑙𝑛𝐿
{𝜕𝜃² < 0 𝜕𝜃²
<0
7
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Propriétés des estimateurs
2
avant de voir les propriétés des estimateurs il faut connaitre les résultats suivants: Si 𝑋 est une va d'espérance 𝐸(𝑋) = 𝑚 et de variance 𝜎𝑝𝑜𝑝 .
(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) un échantillon de taille n de la variable 𝑋, iid (identiquement et indépendamment distribué)
𝑛 𝑛
∑𝑛𝑖=1 𝑋𝑖 1 1
𝐸(𝑋̅) = 𝐸 ( ) = ∑ 𝐸(𝑋𝑖 ) = ∑ 𝐸(𝑋) = 𝑚
𝑛 𝑛 𝑛
𝑖=1 𝑖=1
𝑛
∑𝑛𝑖=1 𝑋𝑖 1 1 2
𝜎𝑝𝑜𝑝
̅ )
𝑉(𝑋 = 𝑉 ( ) 2
) = 2 ∑ 𝑉(𝑋𝑖 = 2 𝑛𝜎𝑝𝑜𝑝 =
𝑛 𝑛 𝑛 𝑛
𝑖=1
Exemples
Si 𝜃 = 𝑚 = 𝐸(𝑋). Alors 𝑋̅ est un estimateur sans biais de la moyenne 𝑚 car: 𝐸(𝑋̅) = 𝑚
𝑛 2 𝑛 2 𝑛 2
∑ 𝑋 ∑ 𝑋𝑖 ∑ 𝑋 1
2
Si 𝜃 = 𝜎𝑝𝑜𝑝 . Si on l'estime par 𝜃̂ = 𝜎é𝑐ℎ
2
= 𝑖=1𝑛 𝑖 − ( 𝑖=1
𝑛
2
) . Calculons 𝐸(𝜎é𝑐ℎ ) = 𝐸 ( 𝑖=1𝑛 𝑖 − (𝑋̅)2 ) = 𝑛 ∑𝑛𝑖=1 𝐸(𝑋𝑖2 ) − 𝐸(𝑋̅ 2 )
2
𝜎𝑝𝑜𝑝
Or 𝐸(𝑋𝑖2 ) = 𝑉(𝑋𝑖 ) + (𝐸(𝑋𝑖 ))2 = 𝜎𝑝𝑜𝑝
2
+ 𝑚2, et 𝐸(𝑋̅ 2 ) = 𝑉(𝑋̅) + (𝐸(𝑋̅))2 = 𝑛
+ 𝑚2 ,
∑𝑛 2
𝑖=1 𝑋𝑖 1 2
𝜎𝑝𝑜𝑝 𝑛−1
2
d'où: 𝐸(𝜎é𝑐ℎ ) = 𝐸( 𝑛
− (𝑋̅)2 ) = 𝑛 ∗ 𝑛(𝜎𝑝𝑜𝑝
2
+ 𝑚2 ) − 𝑛
+ 𝑚2 = 𝜎𝑝𝑜𝑝
2
( 𝑛
) 2
≠ 𝜎𝑝𝑜𝑝
2 2
donc 𝜎é𝑐ℎ n'est pas un estimateur sans biais de 𝜎𝑝𝑜𝑝 .
2 𝑛
2 ∑𝑛 ̅ 2
𝑖=1(𝑋𝑖 −𝑋)
Un estimateur sans biais de 𝜎𝑝𝑜𝑝 sera 𝑛−1 𝜎é𝑐ℎ = 𝑛−1
= 𝑆2
8
Résumé TEI 20-21 : 3A31&28 RASSAA. E
2. Estimateur asymptotiquement sans biais
Un estimateur 𝜃̂ de 𝜃 est dit asymptotiquement sans biais si: lim (𝐸(𝜃̂) − 𝜃) = 0
𝑛→∞
Exemple:
2 2 2
𝜎é𝑐ℎ n'est pas un estimateur sans biais de 𝜎𝑝𝑜𝑝 ., mais c'est un estimateur asymptotiquement sans biais c'est-à-dire: lim (𝐸(𝜎é𝑐ℎ )=
𝑛→∞
2 𝑛−1 2
lim 𝜎𝑝𝑜𝑝 ( ) = 𝜎𝑝𝑜𝑝
𝑛→∞ 𝑛
3. Estimateur convergent
𝜃̂ un estimateur de 𝜃 est dit convergent si 𝐥𝐢𝐦 𝑽(𝜽
̂) = 𝟎
𝒏→∞
Exemple:
𝜎 2
𝑋̅ est un estimateur convergent car 𝐥𝐢𝐦 𝑉(𝑋̅) = 𝐥𝐢𝐦 𝑝𝑜𝑝
𝑛
=0
𝒏→∞ 𝒏→∞
9
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Estimation par intervalle de confiance
Intervalles de confiance de la moyenne :
Loi réduite Intervalle de confiance
Loi de 𝑿
𝝈 connu 𝝈 inconnu 𝝈 connu 𝝈 inconnu
𝒏 < 𝟑𝟎 𝑋~𝑁(𝜇, 𝜎) ̅
𝑋−𝜇 ̅
𝑋−𝜇 𝜎 𝜎 𝑆 𝜎
𝑍= ~𝑁(0,1) 𝑍 = ~𝑇(𝑛 − 1) 𝐼𝐶(𝜇) = [𝑋̅ − 𝑧𝛼 , 𝑋̅ + 𝑧𝛼 ] 𝐼𝐶(𝜇) = [𝑋̅ − 𝑡𝛼 , 𝑋̅ + 𝑡𝛼 ]
2 √𝑛 2 √𝑛 ,𝑛−1 ,𝑛−1
𝜎/√𝑛 𝑆/√𝑛 2 √𝑛 2 √𝑛
𝒏 ≥ 𝟑𝟎 𝑋 est de loi 𝑋̅ − 𝜇 𝑋̅ − 𝜇 𝜎 𝜎 𝑆 𝑆
𝑍= ~𝑁(0,1) 𝑍= ~𝑁(0,1) 𝐼𝐶(𝜇) = [𝑋̅ − 𝑧𝛼 , 𝑋̅ + 𝑧𝛼 ] 𝐼𝐶(𝜇) = [𝑋̅ − 𝑧𝛼 , 𝑋̅ + 𝑧𝛼 ]
quelconque 𝜎/√𝑛 𝑆/√𝑛 2 √𝑛 2 √𝑛 2 √𝑛 2 √𝑛
Intervalles de la proportion :
𝒏 ≥ 𝟑𝟎, 𝒏𝒑 ≥ 𝟓 𝒆𝒕 𝒏(𝟏 − 𝒑) ≥ 𝟓
̂
Loi de 𝒑 Loi réduite Intervalle de confiance
𝑝̂ − 𝑝
𝑝(1 − 𝑝) 𝑍= ~𝑁(0,1) 𝑝̂ (1 − 𝑝̂ ) 𝑝̂ (1 − 𝑝̂ )
𝑝̂ ~𝑁(𝑝, √ ) 𝐼𝐶(𝑝) = [𝑝̂ − 𝑧𝛼 √ , 𝑝̂ + 𝑧𝛼 √ ]
𝑛 √𝑝(1 − 𝑝) 2 𝑛 2 𝑛
𝑛
10
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Tests d’hypothèses
Tests d’hypothèses sur la moyenne
Etapes d’un test Test Bilatéral Test unilatéral à droite Test unilatéral à gauche
d’hypothèse
Etape1 : Construction du 𝐻0 : 𝜇 = 𝜇0 𝐻0 : 𝜇 = 𝜇0 𝐻0 : 𝜇 = 𝜇0
{ { {
test 𝐻1 : 𝜇 ≠ 𝜇0 𝐻1 : 𝜇 > 𝜇0 𝐻1 : 𝜇 < 𝜇0
Etape2 : Détermination 𝒏 < 𝟑𝟎, 𝝈 connu : 𝑿~𝑵(𝝁, 𝝈)
de l’écart réduit et sa 𝑋̅ − 𝜇
distribution 𝑍= ~𝑁(0,1)
𝜎/√𝑛
𝒏 < 𝟑𝟎, 𝝈 inconnu : 𝑿~𝑵(𝝁, 𝝈)
𝑋̅ − 𝜇
𝑇= ~𝑇(𝑛 − 1)
𝑆/√𝑛
𝒏 ≥ 𝟑𝟎, 𝝈 connu :𝑿 est de loi quelconque
𝑋̅ − 𝜇
𝑍= ~𝑁(0,1)
𝜎/√𝑛
𝒏 ≥ 𝟑𝟎, 𝝈 inconnu :𝑿 est de loi quelconque
𝑋̅ − 𝜇
𝑍= ~𝑁(0,1)
𝑆/√𝑛
Etape3: Détermination
des régions critiques
11
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Etape 4 : Prise de décision On compare la valeur calculée de l’écart On compare la valeur calculée de On compare la valeur calculée de
réduit et la valeur tabulée l’écart réduit et la valeur tabulée l’écart réduit et la valeur tabulée
On accepte 𝐻0 , si −𝑧𝛼 ≤ 𝑍0 ≤ 𝑧𝛼 On accepte 𝐻0 , si 𝑍0 ≤ 𝑧𝛼 On accepte 𝐻0 , si 𝑍0 ≥ −𝑧𝛼
2 2
(ou −𝑡𝛼 (𝑛 − 1) ≤ 𝑇0 ≤ 𝑡𝛼 (𝑛 − 1)) (ou 𝑡𝛼 (𝑛 − 1) ≥ 𝑇0 )) (ou -𝑡𝛼 (𝑛 − 1) ≤ 𝑇0 ))
2 2 On rejette 𝐻0 si 𝑍0 > 𝑧𝛼 On rejette 𝐻0 si 𝑍0 < −𝑧𝛼
On rejette 𝐻0 si 𝑍0 > 𝑧𝛼 ou si −𝑧𝛼 > (ou 𝑇0 ≥ 𝑡𝛼 (𝑛 − 1)) (ou −𝑡𝛼 (𝑛 − 1) > 𝑇0 )
2 2
𝑍0
(ou −𝑡𝛼 (𝑛 − 1) > 𝑇0 𝑜𝑢 𝑇0 > 𝑡𝛼 (𝑛 − 1))
2 2
12
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Tests d’hypothèses sur la variance 𝑿~𝑵(𝝁, 𝝈)
Etapes d’un test Test Bilatéral Test unilatéral à droite Test unilatéral à gauche
d’hypothèse
Etape1 : Construction du 𝐻0 : 𝜎 2 = 𝜎02 𝐻0 : 𝜎 2 = 𝜎02 𝐻 : 𝜎 2 = 𝜎02
test { { { 0 2
𝐻1 : 𝜎 2 ≠ 𝜎02 𝐻1 : 𝜎 2 > 𝜎02 𝐻1 : 𝜎 < 𝜎02
Etape2 : Détermination ∑𝑛
𝑖=1(𝑋𝑖 −𝜇)
2
𝝁 connu , 𝑆𝑛2 = 𝑛
de l’écart réduit et sa
𝑆𝑛2
distribution 𝑌 = (𝑛) ~𝜒 2 (𝑛)
𝜎2
2 ∑𝑛 ̅ 2
𝑖=1(𝑋𝑖 −𝑋)
𝝁 inconnu , 𝑆𝑛−1 = 𝑛−1
2
𝑆𝑛−1
𝑌 = (𝑛 − 1) 2 ~𝜒 2 (𝑛 − 1)
𝜎
Etape3: Détermination
des régions critiques
13
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Etape 4 : Prise de On compare la valeur calculée de l’écart On compare la valeur calculée de On compare la valeur calculée de
décision réduit et la valeur tabulée l’écart réduit et la valeur tabulée l’écart réduit et la valeur tabulée
On accepte 𝐻0 , si 𝜒1−
2
𝛼 (𝑛 − 1) ≤ 𝑌0 ≤ On accepte 𝐻0 , si 𝑌0 ≤ 𝜒𝛼2 (𝑛 − 1) On accepte 𝐻0 , si 𝑌0 ≥ 𝜒1−𝛼2
(𝑛 −
2
(pour 𝜇 inconnue) 1) (Pour 𝜇 inconnue)
𝜒𝛼2 (𝑛 − 1) (pour 𝜇 inconnue)
2 On accepte 𝐻0 , si 𝑌0 ≤ 𝜒𝛼2 (𝑛) On accepte 𝐻0 , si 𝑌0 ≥ 𝜒1−𝛼2
(𝑛)
On accepte 𝐻0 , si 𝜒1−
2 2
𝛼 (𝑛) ≤ 𝑌0 ≤ 𝜒𝛼 (𝑛) (pour 𝜇 connue) (Pour 𝜇 connue)
2 2
(pour 𝜇 connue)
14
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Tests d’hypothèses sur la proportion
Etapes d’un test Test Bilatéral Test unilatéral à droite Test unilatéral à gauche
d’hypothèse
Etape1 : Construction du 𝐻0 : 𝑝 = 𝑝0 𝐻0 : 𝑝 = 𝑝0 𝐻 : 𝑝 = 𝑝0
{ { { 0
test 𝐻1 : 𝑝 ≠ 𝑝0 𝐻1 : 𝑝 > 𝑝0 𝐻1 : 𝑝 < 𝑝0
Etape2 : Détermination Pour 𝑛 ≥ 30, 𝑛𝑝0 ≥ 5, 𝑛(1 − 𝑝0 )
de l’écart réduit et sa 𝑝̂ − 𝑝0
𝑍= ~𝑁(0,1)
distribution 𝑝 (1 − 𝑝 )
√ 0 0
𝑛
Etape3: Détermination
des régions critiques
Etape 4 : Prise de On compare la valeur calculée de l’écart On compare la valeur calculée de On compare la valeur calculée de
décision réduit et la valeur tabulée l’écart réduit et la valeur tabulée l’écart réduit et la valeur tabulée
On accepte 𝐻0 , si −𝑧𝛼 ≤ 𝑍0 ≤ 𝑧𝛼 On accepte 𝐻0 , si 𝑍0 ≤ 𝑧𝛼 On accepte 𝐻0 , si 𝑍0 ≥ −𝑧𝛼
On rejette 𝐻0 si 𝑍0 > 𝑧𝛼 On rejette 𝐻0 si 𝑍0 < −𝑧𝛼
2 2
On rejette 𝐻0 si 𝑍0 > 𝑧𝛼 ou si −𝑧𝛼 >
2 2
𝑍0
15
Résumé TEI 20-21 : 3A31&28 RASSAA. E
16
Résumé TEI 20-21 : 3A31&28 RASSAA. E