Résumé TEI

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 16

Variables aléatoires continues

Densité de probabilité Fonction de répartition Espérance mathématique Variance


 On dit qu'une fonction 𝑓 est  La fonction de répartition +∞
 𝐸(𝑋) = ∫−∞ 𝑥 𝑓(𝑥) 𝑑𝑥
+∞
 𝑉(𝑋) = ∫−∞ (𝑥 −
une densité de probabilité si d'une va continue 𝑋 est 𝐸(𝑋))2 𝑓(𝑥) 𝑑𝑥 = 𝐸(𝑋 2 ) −
et seulement si: définie par: +∞
𝐸(𝑋)2 = ∫−∞ 𝑥 2 𝑓(𝑥)𝑑𝑥 −
 𝑓 est positive ou 𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥)
𝑥 𝐸(𝑋)2
nulle sur ℝ
+∞ = ∫ 𝑓𝑋 (𝑡) 𝑑𝑡 
 ∫−∞ 𝑓(𝑥) 𝑑𝑥 = 1 −∞

Les propriétés d'une fonction de Les propriétés de l'espérance sont : Les propriétés de la variance sont :
répartition :  𝐸(𝑎) = 𝑎  𝑉(𝑎) =
 𝐹 est définie sur ℝ, et à valeurs 𝑜ù 𝑎 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 ∈ ℝ 0 𝑜ù 𝑎 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 ∈
dans [0,1]  𝐸(𝑎𝑋) = 𝑎𝐸(𝑋) ℝ
 𝐹 est continue sur ℝ et 𝑜ù 𝑎 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 ∈ ℝ  𝑉(𝑎𝑋) = 𝑎2 𝑉(𝑋)
croissante  𝐸(𝑋 + 𝑌) = 𝐸(𝑋) + 𝐸(𝑌) 𝑜ù 𝑎 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 ∈ ℝ
 lim 𝐹(𝑥) = 0 et  on a ainsi 𝐸(𝑎𝑋 + 𝑏) =  𝑉(𝑋 + 𝑌) = 𝑉(𝑋) + 𝑉(𝑌) si
𝑥→−∞ 𝑎𝐸(𝑋) + 𝑏, où 𝑋 et 𝑌 sont indépendantes
lim 𝐹(𝑥) = 1
𝑥→−∞ 𝑎 𝑒𝑡 𝑏 𝑑𝑒𝑢𝑥 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒𝑠 ∈ ℝ  on a ainsi 𝑉(𝑎𝑋 + 𝑏) =
 𝑃(𝑋 > 𝑥) = 1 − 𝑃(𝑋 ≤ 𝑥) = 𝑎2 𝑉(𝑋), où
1 − 𝐹(𝑥) 𝑎 𝑒𝑡 𝑏 𝑑𝑒𝑢𝑥 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒𝑠 ∈
 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝐹(𝑏) − 𝐹(𝑎) ℝ
Remarque: Pour une variable
aléatoire continue 𝑃(𝑋 = 𝑥) = 0

1
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Lois usuelles continues
Loi uniforme Loi exponentielle Loi normale Généralisée Loi normale centrée réduite

On dit qu'une va 𝑋 suit la loi uniforme On dit qu'une va 𝑋 suit la loi Une variable aléatoire 𝑋 à Une variable aléatoire 𝑋 à valeurs
sur l'intervalle [𝑎, 𝑏], si elle a pour exponentielle de paramètre 𝜆 > 0 si elle valeurs dans ℝ est dite normale dans ℝ est dite normale centrée
densité: a pour densité: de paramètres 𝑚 ∈ ℝ et 𝜎 ∈ réduite, si elle a pour densité la
1 𝑓𝑋 (𝑥) = {𝜆𝑒
−𝜆𝑥
𝑠𝑖 𝑥 ≥ 0 ℝ∗+ si elle a pour densité la fonction réelle 𝑓 définie par:
𝑓𝑋 (𝑥) = {𝑏 − 𝑎 𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏 0 𝑠𝑖𝑛𝑜𝑛 fonction réelle 𝑓 définie 1 −𝑥 2
0 𝑠𝑖𝑛𝑜𝑛 (𝑥−𝑚)2 𝑓𝑋 (𝑥) = 𝑒 2 ∀ 𝑥∈ℝ
1 − √2𝜋
par:𝑓𝑋 (𝑥) = 𝜎 𝑒 2𝜎2
√2𝜋
∀ 𝑥∈ℝ

𝑓 est une d.d.p car:


𝑓 est une d.d.p car: 𝑓 𝑒𝑠𝑡 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑒 𝑜𝑢 𝑛𝑢𝑙𝑙𝑒 𝑠𝑢𝑟 ℝ
+∞ +∞
𝑓 𝑒𝑠𝑡 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑒 𝑜𝑢 𝑛𝑢𝑙𝑙𝑒 𝑠𝑢𝑟 ℝ ∫−∞ 𝑓𝑋 (𝑥)𝑑𝑥 = ∫0 𝜆𝑒 −𝜆𝑥 𝑑𝑥 =
+∞
∫−∞ 𝑓𝑋 (𝑥)𝑑𝑥 = 1 +∞  La courbe admet comme
𝑏 1 1 𝑏−𝑎
𝜆 [− 𝑒 −𝜆𝑥 ] = − lim e−λx + 𝑒 0 = 0 + axe de symétrie la droite
𝜆
∫𝑎 𝑏−𝑎 𝑑𝑥 = [𝑥]𝑏𝑎 = =1 0 +∞
𝑏−𝑎 𝑏−𝑎 1=1 d'équation 𝑥 = 0
 Le maximum de la courbe
 La courbe admet est atteint en 0, espérance
comme axe de symétrie de la variable 𝑋, ce
la droite d'équation 𝑥 = 1
maximum vaut
√2Π
𝑚
 Si 𝑋~𝑁(0,1) alors 𝐸(𝑋) =
 Le maximum de la
0, et 𝑉(𝑋) = 1
courbe est atteint en 𝑚,
 Si 𝑋~𝑁(𝑚, 𝜎), (𝑋 suit la loi
espérance de la variable
normale d'espérance 𝑚 et
𝑋, ce maximum vaut
1 d'écart type 𝜎), alors la
𝜎√2Π variable définie par 𝑍 =

2
Résumé TEI 20-21 : 3A31&28 RASSAA. E
 Plus 𝜎 est grand, plus la 𝑋−𝑚
suit la loi normale
𝜎
courbe s'étale autour centrée réduite 𝑁(0,1)
de la moyenne.

 Si 𝑋~𝑁(𝑚, 𝜎), (𝑋 suit la


loi normale d'espérance
𝑚 et d'écart type 𝜎),
alors la variable définie
𝑋−𝑚
par 𝑍 = 𝜎 suit la loi
normale centrée réduite
𝑁(0,1)
 Si 𝑋~𝑁(𝑚, 𝜎) alors
𝐸(𝑋) = 𝑚, et 𝑉(𝑋) =
𝜎2

La fonction de répartition de 𝑋 est La fonction de répartition de 𝑋 est Si 𝑋~𝑁(𝑚, 𝜎),  𝐹𝑍 (−𝑧) = 1 − 𝐹𝑍 (𝑧)
donnée par donnée par 𝑎−𝑚  𝑃(𝑍 > 𝑧) = 1−𝑃(𝑍 ≤ 𝑧) =
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃 (
0 𝑠𝑖 𝑥 ≤ 𝑎 0 𝑠𝑖 𝑥 ≤ 0 𝜎 1 − 𝐹𝑍 (𝑧)
𝑥−𝑎 𝐹𝑋 (𝑥) {1 − 𝑒 −𝜆𝑥 𝑋−𝑚
𝐹𝑋 (𝑥) = { 𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏 𝑠𝑖 𝑥 ≥ 0 ≤  𝑃𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑎, 𝑏 ∈ ℝ, 𝑃(𝑎 ≤
𝑏−𝑎 𝜎 𝑋 ≤ 𝑏) = 𝐹𝑍 (𝑏) − 𝐹𝑍 (𝑎) =
1 𝑠𝑖 𝑥 ≥ 𝑏 𝑏−𝑚
≤ ) 𝑃(𝑋 > 𝑎) − 𝑃(𝑋 > 𝑏)
𝜎  𝑃𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑧 ≥ 0, 𝑃(−𝑧 ≤
𝑏−𝑚
= 𝐹𝑍 ( ) 𝑍 ≤ 𝑧) = 𝐹𝑍 (𝑧) −
𝜎 𝐹𝑍 (−𝑧) = 2𝐹𝑍 (𝑧) − 1 =
𝑎−𝑚
− 𝐹𝑍 ( ) 1 − 2𝑃(𝑍 ≥ 𝑧)
𝜎
 𝑃(𝑍 < −𝑎) = 𝑃(𝑍 > 𝑎)
 Si on cherche 𝑧 tel que
𝑥
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∫−∞ 𝑓(𝑡)𝑑𝑡 𝑃(𝑍 > 𝑧) = 𝑏 <0,5 ; on doit
𝑥 regarder sur la table une
𝑠𝑖 𝑥 ≤ 𝑎 𝐹(𝑥) = ∫−∞ 𝑓(𝑡)𝑑𝑡 =
𝑥 𝑥 probabilité de valeur
∫−∞ 0𝑑𝑡 = 0 𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∫−∞ 𝑓(𝑡)𝑑𝑡 s'approchant le plus de 𝑏,

3
Résumé TEI 20-21 : 3A31&28 RASSAA. E
𝑥
𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏 𝐹(𝑥) = 𝑠𝑖 𝑥 ≤ 0 𝐹(𝑥) = ∫−∞ 𝑓(𝑡)𝑑𝑡 = puis projeter sur les lignes et
𝑥 𝑎 𝑥 1
∫−∞ 𝑓(𝑡)𝑑𝑡 = ∫−∞ 0𝑑𝑡 + ∫𝑎 𝑏−𝑎 𝑑𝑡 = 𝑥 les colonnes pour trouver 𝑧
∫−∞ 0𝑑𝑡 =0
1 𝑥−𝑎 𝑥  Si on cherche 𝑧 tel que
0 + 𝑏−𝑎 [𝑡]𝑎𝑥 = 𝑏−𝑎 𝑠𝑖 0 ≤ 𝑥 𝐹(𝑥) = ∫−∞ 𝑓(𝑡)𝑑𝑡 =
𝑥
𝑃(𝑍 > 𝑧) = 𝑏 >0,5 ; alors
0 𝑥
𝑠𝑖 𝑏 ≤ 𝑥 𝐹(𝑥) = ∫−∞ 𝑓(𝑡)𝑑𝑡 = ∫−∞ 0𝑑𝑡 + ∫0 𝜆𝑒 −𝜆𝑡 𝑑𝑡 = 0 + on conclut que 𝑧 et négatif
𝑎 𝑏 1 𝑥 𝑥
∫−∞ 0𝑑𝑡 + ∫𝑎 𝑑𝑡 + ∫𝑏 0𝑑𝑡 = 0 + 1
𝜆 [− 𝜆 𝑒 −𝜆𝑡 ] = −𝑒 −𝜆𝑥 + 1 et avant de regarder la
𝑏−𝑎
1 0 valeur sur la table, il faut
[𝑡]𝑏𝑎 +0=1
𝑏−𝑎 effectuer la transformation
suivante 𝑃(𝑍 > 𝑧) = 1 −
𝑃(𝑍 > −𝑧), donc 𝑃(𝑍 >
−𝑧)=1-𝑏 < 0,5; on n'aura
ainsi qu'à lire 1 − 𝑏 sur la
table et projeter sur les
lignes et les colonnes pour
trouver la valeur de −𝑧

𝑏+𝑎 1 𝐸(𝑋) = 𝑚 𝐸(𝑋) = 0


L'espérance de 𝑋 est 𝐸(𝑋) = L'espérance de 𝑋 est 𝐸(𝑋) = 𝜆
2
+∞ +∞
𝐸(𝑋) = ∫−∞ 𝑥 𝑓𝑋 (𝑥)𝑑𝑥 = 𝐸(𝑋) = ∫−∞ 𝑥 𝑓𝑋 (𝑥)𝑑𝑥 =
𝑏 +∞ +∞
𝑏 1 1 𝑥2 𝑏2 −𝑎 2 ∫0 𝑥𝜆𝑒 −𝜆𝑥 𝑑𝑥 = 𝜆 ∫0 𝑥𝑒 −𝜆𝑥 𝑑𝑥 =
∫𝑎 𝑥 𝑏−𝑎 𝑑𝑥 = 𝑏−𝑎 [ 2 ] = 2 (𝑏−𝑎) = +∞
𝑎 1 1 +∞ −𝜆𝑥
𝑏+𝑎 𝜆 [[− 𝜆 𝑥𝑒 −𝜆𝑥 ] + 𝜆 ∫0 𝑒 𝑑𝑥] =
2 0
1 +∞ 1 1 1
[− 𝜆 𝑒 −𝜆𝑥 ] = − 𝜆 lim 𝑒 −𝜆𝑥 + 𝜆 𝑒 0 = 𝜆
0 +∞
(en utilisant l'intégration par parties)

(𝑏−𝑎)2 1
La variance de 𝑋 est 𝑉(𝑋) = La variance de 𝑋 est 𝑉(𝑋) = 2 𝑉(𝑋) = 𝜎 2 𝑉(𝑋) = 1
12 𝜆
𝑉(𝑋) = 𝐸(𝑋 2 ) − (𝐸(𝑋))2
𝑉(𝑋) = 𝐸(𝑋 2 ) − (𝐸(𝑋))2 où

4
Résumé TEI 20-21 : 3A31&28 RASSAA. E
+∞ +∞
𝐸(𝑋 2 ) = ∫−∞ 𝑥 2 𝑓𝑋 (𝑥)𝑑𝑥 = 𝐸(𝑋 2 ) = ∫−∞ 𝑥 2 𝑓𝑋 (𝑥)𝑑𝑥 =
𝑏 +∞ 1 +∞
𝑏 1 1 𝑥3 𝑏3 −𝑎3
∫𝑎 𝑥 2 𝑏−𝑎 𝑑𝑥 = 𝑏−𝑎 [ 3 ] = 3 (𝑏−𝑎) = ∫0 𝑥 2 𝜆𝑒 −𝜆𝑥 𝑑𝑥 = 𝜆 ([− 𝜆 𝑥 2 𝑒 −𝜆𝑥 ] +
𝑎 0
𝑏2 +𝑎𝑏+𝑏2 2 +∞ 2 1 2
∫ 𝑥𝑒 −𝜆𝑥 𝑑𝑥)
𝜆 0
= 𝜆 (0 + 𝜆 𝜆2 ) = 𝜆2
3
𝑏2 +𝑎𝑏+𝑏2 (𝑏+𝑎)2 (on a effectué une intégration par partie
d'où 𝑉(𝑋) = 3
− 4
=
(𝑏−𝑎)2 et on a utilisé le fait que
+∞ 1
12 ∫0 𝑥𝜆𝑒 −𝜆𝑥 𝑑𝑥 = ) 𝜆
2 1 1
d'où 𝑉(𝑋) = 𝜆2 − 𝜆2 = 𝜆2

5
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Estimation ponctuelle : Méthode des moments
Soient les moments théoriques et empiriques non centrés suivants :

Moments théoriques Moments empiriques


𝐸(𝑋) ∑𝑛𝑖=1 𝑋𝑖
𝑋̅ =
𝑛
𝐸(𝑋 2 ) ∑𝑛𝑖=1 𝑋𝑖2
𝑛
… ….
𝐸(𝑋 𝑘 ) ∑𝑛𝑖=1 𝑋𝑖𝑘
𝑛
On définit l'estimateur par la méthode des moments du paramètre 𝜃 la valeur 𝜃̂ 𝐸𝑀𝑀 qui est solution de l'équation 𝐸(𝑋) = 𝑋̅,

∑𝑛 2
𝑖=1 𝑋𝑖
Si cette équation ne permet pas de trouver 𝜃, on passe à l'équation suivante: 𝐸(𝑋 2 ) = 𝑛
, et ainsi de suite jusqu'à trouver 𝜃̂ 𝐸𝑀𝑀

𝑛
∑ 𝑋
En d'autres termes: on estime une espérance mathématique 𝐸(𝑋) (qui est une fonction de 𝜃)par la moyenne empirique 𝑋̅ = 𝑖=1 𝑖,
𝑛

2
∑𝑛 2
𝑖=1 𝑋𝑖 ∑𝑛 2
𝑖=1 𝑋𝑖 ∑𝑛
𝑖=1 𝑋𝑖
( On estime 𝐸(𝑋 2 ) par 𝑛
2
. ,Ce qui implique que la variance théorique qui est égale à 𝜎𝑝𝑜𝑝 = 𝐸(𝑋 2 ) − (𝐸(𝑋))2 est estimée par: 𝑛
−( 𝑛
) =
2
𝜎é𝑐ℎ )

Ce qui entraine :

 si 𝐸(𝑋) = 𝜃 alors 𝜃̂ 𝐸𝑀𝑀 = 𝑋̅


 si 𝐸(𝑋) = 𝜌(𝜃) alors 𝜃̂ 𝐸𝑀𝑀 = 𝜌−1 (𝑋̅), avec 𝜌, une fonction bijective

Exemples :

6
Résumé TEI 20-21 : 3A31&28 RASSAA. E
1 1
1. Prenons la loi exponentielle de paramètre 𝜃 > 0, comme 𝐸(𝑋) = 1/𝜃 = 𝜃 alors la résolution de l'équation 𝐸(𝑋) = 𝑋̅ nous donne 𝜃̂ 𝐸𝑀𝑀 = 𝑋̅
1 1 1
2. Prenons la loi exponentielle de paramètre 𝜃 > 0, comme 𝐸(𝑋) = 𝜃 alors la résolution de l'équation 𝜃 = 𝑋̅ nous donne 𝜃̂ 𝐸𝑀𝑀 = 𝑋̅

Estimation ponctuelle : Méthode de maximum de vraisemblance


Soit (X1 , … , X n ) un échantillon aléatoire de taille n d’une variable aléatoire X de loi ℙ𝜃 (discrète ou continue), avec 𝜃 ∈ ℝ un paramètre inconnu qu’on
cherche à estimer.

La méthode de maximum de vraisemblance se résume en ces trois étapes :

 Etape1 : écrire la fonction de vraisemblance de 𝜽 (le paramètre à estimer) pour une réalisation (𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 )
 Si 𝑋 est discrète, la fonction de vraisemblance est donnée par: 𝐿(𝑥1 , … , 𝑥𝑛 ; 𝜃) = ∏𝑛𝑖=1 ℙ𝜃 (𝑋𝑖 = 𝑥𝑖 ) = ℙ𝜃 (𝑋1 = 𝑥1 ). ℙ𝜃 (𝑋2 = 𝑥2 )……ℙ𝜃 (𝑋𝑛 = 𝑥𝑛 )
 Si 𝑋 est continue, la fonction de vraisemblance est donnée par: 𝐿(𝑥1 , … , 𝑥𝑛 ; 𝜃) = ∏𝑛𝑖=1 𝑓𝜃 (𝑥𝑖 ) = 𝑓𝜃 (𝑥1 ). 𝑓𝜃 (𝑥2 )……𝑓𝜃 (𝑥𝑛 )
 Etape2 : écrire le log de la fonction de vraisemblance de 𝜽 afin de transformer le produit en somme (puisque la dérivation d’une somme est plus
simple que celle d’un produit
 Si 𝑋 est discrète, la fonction de log vraisemblance est donnée par: ln𝐿(𝑥1 , … , 𝑥𝑛 ; 𝜃) = ∑𝑛𝑖=1 ln ℙ𝜃 (𝑋𝑖 = 𝑥𝑖 ) = ln ℙ𝜃 (𝑋1 = 𝑥1 ) +
ln ℙ𝜃 (𝑋2 = 𝑥2 )+……+ln ℙ𝜃 (𝑋𝑛 = 𝑥𝑛 )
 Si 𝑋 est continue, la fonction de log vraisemblance est donnée par: ln 𝐿(𝑥1 , … , 𝑥𝑛 ; 𝜃) = ∑𝑛𝑖=1 ln 𝑓𝜃 (𝑥𝑖 ) = ln 𝑓𝜃 (𝑥1 ) + ln 𝑓𝜃 (𝑥2 ) + ⋯ + ln 𝑓𝜃 (𝑥𝑛 )
 Etape 3: Maximiser la fonction log vraisemblance de 𝜽 en annulant la dérivée première et en s’assurant que la dérivée seconde est négative

On appelle estimateur du maximum de vraisemblance (EMV) de 𝜃 la variable aléatoire correspondante à la valeur 𝜃̂𝑛 pour laquelle la fonction de vraisemblance
atteint son maximum.

Ce qui donne que 𝜃̂𝑛 est solution du système:

𝜕𝐿 𝜕𝑙𝑛𝐿
=0 =0
𝜕𝜃 𝜕𝜃

𝜕²𝐿 𝜕 2 𝑙𝑛𝐿
{𝜕𝜃² < 0 𝜕𝜃²
<0

7
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Propriétés des estimateurs
2
avant de voir les propriétés des estimateurs il faut connaitre les résultats suivants: Si 𝑋 est une va d'espérance 𝐸(𝑋) = 𝑚 et de variance 𝜎𝑝𝑜𝑝 .
(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) un échantillon de taille n de la variable 𝑋, iid (identiquement et indépendamment distribué)
𝑛 𝑛
∑𝑛𝑖=1 𝑋𝑖 1 1
𝐸(𝑋̅) = 𝐸 ( ) = ∑ 𝐸(𝑋𝑖 ) = ∑ 𝐸(𝑋) = 𝑚
𝑛 𝑛 𝑛
𝑖=1 𝑖=1
𝑛
∑𝑛𝑖=1 𝑋𝑖 1 1 2
𝜎𝑝𝑜𝑝
̅ )
𝑉(𝑋 = 𝑉 ( ) 2
) = 2 ∑ 𝑉(𝑋𝑖 = 2 𝑛𝜎𝑝𝑜𝑝 =
𝑛 𝑛 𝑛 𝑛
𝑖=1

1. Estimateur sans biais


Le biais d'un estimateur 𝜃̂ de 𝜃 est mesuré par 𝑏𝑖𝑎𝑖𝑠 = 𝐸(𝜃̂) − 𝜃
̂ ) = 𝜽 (en moyenne le décalage entre les valeurs prises par l'estimateur et la vraie valeur du paramètre
Un estimateur est donc dit sans biais si 𝑬(𝜽
est nulle)

Exemples
 Si 𝜃 = 𝑚 = 𝐸(𝑋). Alors 𝑋̅ est un estimateur sans biais de la moyenne 𝑚 car: 𝐸(𝑋̅) = 𝑚
𝑛 2 𝑛 2 𝑛 2
∑ 𝑋 ∑ 𝑋𝑖 ∑ 𝑋 1
 2
Si 𝜃 = 𝜎𝑝𝑜𝑝 . Si on l'estime par 𝜃̂ = 𝜎é𝑐ℎ
2
= 𝑖=1𝑛 𝑖 − ( 𝑖=1
𝑛
2
) . Calculons 𝐸(𝜎é𝑐ℎ ) = 𝐸 ( 𝑖=1𝑛 𝑖 − (𝑋̅)2 ) = 𝑛 ∑𝑛𝑖=1 𝐸(𝑋𝑖2 ) − 𝐸(𝑋̅ 2 )

2
𝜎𝑝𝑜𝑝
Or 𝐸(𝑋𝑖2 ) = 𝑉(𝑋𝑖 ) + (𝐸(𝑋𝑖 ))2 = 𝜎𝑝𝑜𝑝
2
+ 𝑚2, et 𝐸(𝑋̅ 2 ) = 𝑉(𝑋̅) + (𝐸(𝑋̅))2 = 𝑛
+ 𝑚2 ,

∑𝑛 2
𝑖=1 𝑋𝑖 1 2
𝜎𝑝𝑜𝑝 𝑛−1
 2
d'où: 𝐸(𝜎é𝑐ℎ ) = 𝐸( 𝑛
− (𝑋̅)2 ) = 𝑛 ∗ 𝑛(𝜎𝑝𝑜𝑝
2
+ 𝑚2 ) − 𝑛
+ 𝑚2 = 𝜎𝑝𝑜𝑝
2
( 𝑛
) 2
≠ 𝜎𝑝𝑜𝑝
2 2
donc 𝜎é𝑐ℎ n'est pas un estimateur sans biais de 𝜎𝑝𝑜𝑝 .
2 𝑛
2 ∑𝑛 ̅ 2
𝑖=1(𝑋𝑖 −𝑋)
Un estimateur sans biais de 𝜎𝑝𝑜𝑝 sera 𝑛−1 𝜎é𝑐ℎ = 𝑛−1
= 𝑆2

8
Résumé TEI 20-21 : 3A31&28 RASSAA. E
2. Estimateur asymptotiquement sans biais
Un estimateur 𝜃̂ de 𝜃 est dit asymptotiquement sans biais si: lim (𝐸(𝜃̂) − 𝜃) = 0
𝑛→∞
Exemple:
2 2 2
𝜎é𝑐ℎ n'est pas un estimateur sans biais de 𝜎𝑝𝑜𝑝 ., mais c'est un estimateur asymptotiquement sans biais c'est-à-dire: lim (𝐸(𝜎é𝑐ℎ )=
𝑛→∞
2 𝑛−1 2
lim 𝜎𝑝𝑜𝑝 ( ) = 𝜎𝑝𝑜𝑝
𝑛→∞ 𝑛
3. Estimateur convergent
𝜃̂ un estimateur de 𝜃 est dit convergent si 𝐥𝐢𝐦 𝑽(𝜽
̂) = 𝟎
𝒏→∞
Exemple:

𝜎 2
𝑋̅ est un estimateur convergent car 𝐥𝐢𝐦 𝑉(𝑋̅) = 𝐥𝐢𝐦 𝑝𝑜𝑝
𝑛
=0
𝒏→∞ 𝒏→∞

4. Risque quadratique d'un estimateur


On appelle risque quadratique d'un estimateur 𝜃̂ de 𝜃 (s'il admet un moment d'ordre2): 𝑅𝜃̂ (𝜃) = 𝐸((𝜃̂ − 𝜃)2 )
Un estimateur est meilleur qu'un autre s'il a l'erreur quadratique la plus faible.
5. Estimateur de variance minimale
Si 𝜃̂1 et 𝜃̂2 sont deux estimateurs sans biais et convergents de 𝜃. 𝜃̂1 est meilleur que 𝜃̂2 si il a la variance la plus faible, c'est-à-dire
𝑉(𝜃̂1 ) < 𝑉(𝜃̂2 )

9
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Estimation par intervalle de confiance
 Intervalles de confiance de la moyenne :
Loi réduite Intervalle de confiance
Loi de 𝑿
𝝈 connu 𝝈 inconnu 𝝈 connu 𝝈 inconnu
𝒏 < 𝟑𝟎 𝑋~𝑁(𝜇, 𝜎) ̅
𝑋−𝜇 ̅
𝑋−𝜇 𝜎 𝜎 𝑆 𝜎
𝑍= ~𝑁(0,1) 𝑍 = ~𝑇(𝑛 − 1) 𝐼𝐶(𝜇) = [𝑋̅ − 𝑧𝛼 , 𝑋̅ + 𝑧𝛼 ] 𝐼𝐶(𝜇) = [𝑋̅ − 𝑡𝛼 , 𝑋̅ + 𝑡𝛼 ]
2 √𝑛 2 √𝑛 ,𝑛−1 ,𝑛−1
𝜎/√𝑛 𝑆/√𝑛 2 √𝑛 2 √𝑛
𝒏 ≥ 𝟑𝟎 𝑋 est de loi 𝑋̅ − 𝜇 𝑋̅ − 𝜇 𝜎 𝜎 𝑆 𝑆
𝑍= ~𝑁(0,1) 𝑍= ~𝑁(0,1) 𝐼𝐶(𝜇) = [𝑋̅ − 𝑧𝛼 , 𝑋̅ + 𝑧𝛼 ] 𝐼𝐶(𝜇) = [𝑋̅ − 𝑧𝛼 , 𝑋̅ + 𝑧𝛼 ]
quelconque 𝜎/√𝑛 𝑆/√𝑛 2 √𝑛 2 √𝑛 2 √𝑛 2 √𝑛

 Intervalles de confiance de la variance :


𝑺𝟐 Loi de 𝑺𝟐 Intervalle de confiance
Loi de 𝑿

𝝁:connu ∑𝑛𝑖=1(𝑋𝑖 − 𝜇)2 𝑆𝑛2


𝑆𝑛2 = (𝑛) ~𝜒 2 (𝑛) 𝑆𝑛2 𝑆𝑛2
𝑛 𝜎2 𝐼𝐶(𝜇) = [𝑛 ,𝑛 ]
𝜒𝛼2 𝜒2 𝛼
,𝑛 1− ,𝑛
2 2
𝑋~𝑁(𝜇, 𝜎)
𝝁 inconnu ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2 2
𝑆𝑛−1 2 2
2
𝑆𝑛−1 = (𝑛 − 1) 2 ~𝜒 2 (𝑛 − 1) 𝑆𝑛−1 𝑆𝑛−1
𝑛−1 𝜎 𝐼𝐶(𝜇) = [(𝑛 − 1) , (𝑛 − 1) ]
𝜒𝛼2 𝜒2 𝛼
,𝑛−1 1− ,𝑛−1
2 2

 Intervalles de la proportion :

𝒏 ≥ 𝟑𝟎, 𝒏𝒑 ≥ 𝟓 𝒆𝒕 𝒏(𝟏 − 𝒑) ≥ 𝟓
̂
Loi de 𝒑 Loi réduite Intervalle de confiance
𝑝̂ − 𝑝
𝑝(1 − 𝑝) 𝑍= ~𝑁(0,1) 𝑝̂ (1 − 𝑝̂ ) 𝑝̂ (1 − 𝑝̂ )
𝑝̂ ~𝑁(𝑝, √ ) 𝐼𝐶(𝑝) = [𝑝̂ − 𝑧𝛼 √ , 𝑝̂ + 𝑧𝛼 √ ]
𝑛 √𝑝(1 − 𝑝) 2 𝑛 2 𝑛
𝑛

10
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Tests d’hypothèses
 Tests d’hypothèses sur la moyenne
Etapes d’un test Test Bilatéral Test unilatéral à droite Test unilatéral à gauche
d’hypothèse
Etape1 : Construction du 𝐻0 : 𝜇 = 𝜇0 𝐻0 : 𝜇 = 𝜇0 𝐻0 : 𝜇 = 𝜇0
{ { {
test 𝐻1 : 𝜇 ≠ 𝜇0 𝐻1 : 𝜇 > 𝜇0 𝐻1 : 𝜇 < 𝜇0
Etape2 : Détermination 𝒏 < 𝟑𝟎, 𝝈 connu : 𝑿~𝑵(𝝁, 𝝈)
de l’écart réduit et sa 𝑋̅ − 𝜇
distribution 𝑍= ~𝑁(0,1)
𝜎/√𝑛
𝒏 < 𝟑𝟎, 𝝈 inconnu : 𝑿~𝑵(𝝁, 𝝈)
𝑋̅ − 𝜇
𝑇= ~𝑇(𝑛 − 1)
𝑆/√𝑛
𝒏 ≥ 𝟑𝟎, 𝝈 connu :𝑿 est de loi quelconque
𝑋̅ − 𝜇
𝑍= ~𝑁(0,1)
𝜎/√𝑛
𝒏 ≥ 𝟑𝟎, 𝝈 inconnu :𝑿 est de loi quelconque
𝑋̅ − 𝜇
𝑍= ~𝑁(0,1)
𝑆/√𝑛
Etape3: Détermination
des régions critiques

On accepte 𝐻0 , si −𝑧𝛼 ≤ 𝑍 ≤ 𝑧𝛼 On accepte 𝐻0 , si 𝑍 ≤ 𝑧𝛼 On accepte 𝐻0 , si −𝑧𝛼 ≤ 𝑍


2 2
(ou 𝑇 ≤ 𝑡𝛼 (𝑛 − 1)) (ou −𝑡𝛼 (𝑛 − 1) ≤ 𝑇)
(ou −𝑡𝛼 (𝑛 − 1) ≤ 𝑇 ≤ 𝑡𝛼 (𝑛 − 1)
2 2

11
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Etape 4 : Prise de décision On compare la valeur calculée de l’écart On compare la valeur calculée de On compare la valeur calculée de
réduit et la valeur tabulée l’écart réduit et la valeur tabulée l’écart réduit et la valeur tabulée
 On accepte 𝐻0 , si −𝑧𝛼 ≤ 𝑍0 ≤ 𝑧𝛼  On accepte 𝐻0 , si 𝑍0 ≤ 𝑧𝛼  On accepte 𝐻0 , si 𝑍0 ≥ −𝑧𝛼
2 2
(ou −𝑡𝛼 (𝑛 − 1) ≤ 𝑇0 ≤ 𝑡𝛼 (𝑛 − 1)) (ou 𝑡𝛼 (𝑛 − 1) ≥ 𝑇0 )) (ou -𝑡𝛼 (𝑛 − 1) ≤ 𝑇0 ))
2 2  On rejette 𝐻0 si 𝑍0 > 𝑧𝛼  On rejette 𝐻0 si 𝑍0 < −𝑧𝛼
 On rejette 𝐻0 si 𝑍0 > 𝑧𝛼 ou si −𝑧𝛼 > (ou 𝑇0 ≥ 𝑡𝛼 (𝑛 − 1)) (ou −𝑡𝛼 (𝑛 − 1) > 𝑇0 )
2 2
𝑍0
(ou −𝑡𝛼 (𝑛 − 1) > 𝑇0 𝑜𝑢 𝑇0 > 𝑡𝛼 (𝑛 − 1))
2 2

12
Résumé TEI 20-21 : 3A31&28 RASSAA. E
 Tests d’hypothèses sur la variance 𝑿~𝑵(𝝁, 𝝈)
Etapes d’un test Test Bilatéral Test unilatéral à droite Test unilatéral à gauche
d’hypothèse
Etape1 : Construction du 𝐻0 : 𝜎 2 = 𝜎02 𝐻0 : 𝜎 2 = 𝜎02 𝐻 : 𝜎 2 = 𝜎02
test { { { 0 2
𝐻1 : 𝜎 2 ≠ 𝜎02 𝐻1 : 𝜎 2 > 𝜎02 𝐻1 : 𝜎 < 𝜎02
Etape2 : Détermination ∑𝑛
𝑖=1(𝑋𝑖 −𝜇)
2
𝝁 connu , 𝑆𝑛2 = 𝑛
de l’écart réduit et sa
𝑆𝑛2
distribution 𝑌 = (𝑛) ~𝜒 2 (𝑛)
𝜎2

2 ∑𝑛 ̅ 2
𝑖=1(𝑋𝑖 −𝑋)
𝝁 inconnu , 𝑆𝑛−1 = 𝑛−1
2
𝑆𝑛−1
𝑌 = (𝑛 − 1) 2 ~𝜒 2 (𝑛 − 1)
𝜎

Etape3: Détermination
des régions critiques

 Pour 𝜇 inconnue on accepte 𝐻0 ,  Pour 𝜇 inconnue on accepte 𝐻0 , si


 Pour 𝜇 inconnue on accepte 𝐻0 , si
2 2 si 𝑌 ≤ 𝜒𝛼2 (𝑛 − 1) 2
𝑌 ≤ 𝜒1−𝛼 (𝑛 − 1)
𝜒1− 𝛼 (𝑛 − 1) ≤ 𝑌 ≤ 𝜒𝛼 (𝑛 − 1)
 Pour 𝜇 connue on accepte 𝐻0 , si
2 2  Pour 𝜇 connue on accepte 𝐻0 , si
 Pour 𝜇 connue on accepte 𝐻0 , si 𝑌 ≤ 𝜒𝛼2 (𝑛) 2
𝑌 ≤ 𝜒1−𝛼 (𝑛)
2 2
𝜒1− 𝛼 (𝑛) ≤ 𝑌 ≤ 𝜒𝛼 (𝑛)
2 2

13
Résumé TEI 20-21 : 3A31&28 RASSAA. E
Etape 4 : Prise de On compare la valeur calculée de l’écart On compare la valeur calculée de On compare la valeur calculée de
décision réduit et la valeur tabulée l’écart réduit et la valeur tabulée l’écart réduit et la valeur tabulée
 On accepte 𝐻0 , si 𝜒1−
2
𝛼 (𝑛 − 1) ≤ 𝑌0 ≤  On accepte 𝐻0 , si 𝑌0 ≤ 𝜒𝛼2 (𝑛 − 1)  On accepte 𝐻0 , si 𝑌0 ≥ 𝜒1−𝛼2
(𝑛 −
2
(pour 𝜇 inconnue) 1) (Pour 𝜇 inconnue)
𝜒𝛼2 (𝑛 − 1) (pour 𝜇 inconnue)
2  On accepte 𝐻0 , si 𝑌0 ≤ 𝜒𝛼2 (𝑛)  On accepte 𝐻0 , si 𝑌0 ≥ 𝜒1−𝛼2
(𝑛)
 On accepte 𝐻0 , si 𝜒1−
2 2
𝛼 (𝑛) ≤ 𝑌0 ≤ 𝜒𝛼 (𝑛) (pour 𝜇 connue) (Pour 𝜇 connue)
2 2
(pour 𝜇 connue)

14
Résumé TEI 20-21 : 3A31&28 RASSAA. E
 Tests d’hypothèses sur la proportion
Etapes d’un test Test Bilatéral Test unilatéral à droite Test unilatéral à gauche
d’hypothèse
Etape1 : Construction du 𝐻0 : 𝑝 = 𝑝0 𝐻0 : 𝑝 = 𝑝0 𝐻 : 𝑝 = 𝑝0
{ { { 0
test 𝐻1 : 𝑝 ≠ 𝑝0 𝐻1 : 𝑝 > 𝑝0 𝐻1 : 𝑝 < 𝑝0
Etape2 : Détermination Pour 𝑛 ≥ 30, 𝑛𝑝0 ≥ 5, 𝑛(1 − 𝑝0 )
de l’écart réduit et sa 𝑝̂ − 𝑝0
𝑍= ~𝑁(0,1)
distribution 𝑝 (1 − 𝑝 )
√ 0 0
𝑛
Etape3: Détermination
des régions critiques

On accepte 𝐻0 , si −𝑧𝛼 ≤ 𝑍 ≤ 𝑧𝛼 On accepte 𝐻0 , si 𝑍 ≤ 𝑧𝛼 On accepte 𝐻0 , si −𝑧𝛼 ≤ 𝑍


2 2

Etape 4 : Prise de On compare la valeur calculée de l’écart On compare la valeur calculée de On compare la valeur calculée de
décision réduit et la valeur tabulée l’écart réduit et la valeur tabulée l’écart réduit et la valeur tabulée
 On accepte 𝐻0 , si −𝑧𝛼 ≤ 𝑍0 ≤ 𝑧𝛼  On accepte 𝐻0 , si 𝑍0 ≤ 𝑧𝛼  On accepte 𝐻0 , si 𝑍0 ≥ −𝑧𝛼
 On rejette 𝐻0 si 𝑍0 > 𝑧𝛼  On rejette 𝐻0 si 𝑍0 < −𝑧𝛼
2 2
 On rejette 𝐻0 si 𝑍0 > 𝑧𝛼 ou si −𝑧𝛼 >
2 2
𝑍0

15
Résumé TEI 20-21 : 3A31&28 RASSAA. E
16
Résumé TEI 20-21 : 3A31&28 RASSAA. E

Vous aimerez peut-être aussi