Cours Inf2
Cours Inf2
Cours Inf2
Inférence Statistique
M. Fihri
[email protected]
2020 ∼ 2021
Estimation
Plan
Plan
On considère ici une suite infinie de v.a. X1 , X2 , ..., Xn , ... notée en bref {Xn }.
On peut définir plusieurs modes de convergence pour une telle suite : convergence
en loi, en probabilité, en moyenne quadratique ou presque surement. On
notera FXn (ou Fn ) la fonction de répartition de Xn .
Définition 1 (Convergence en probabilité)
P
La suite {Xn } converge en probabilité vers la constante a ∈ R (noté {Xn } −
→ a)
si et seulement si
∀ε > 0, lim P(|Xn − a| > ε) = 0.
n→∞
Théorème 1
Si les v.a. Xn (n = 1, ..., ∞) ont pour espérance a et si leur variance tend vers 0
P
quand n → ∞, alors {Xn } − → a.
Théorème 2
P P
Si {Xn } −
→ a et si g est une fonction continue de R dans R, alors g(Xn ) −
→ g(a).
M. Fihri Inférence Statistique 7
Notions de convergence stochastique
Plan
Introduction
Soit à estimer certaine caractéristique d’une variable aléatoire X (moyenne,
variance, proportion, la fonction de répartition, la fonction de densité, etc.) sur la
base d’une réalisation (x1 , x2 , ..., xn ) d’un n−échantillon (X1 , X2 , ..., Xn ).
La théorie de l’estimation étudie les propriétés des estimations et des méthodes
générales d’estimation comme celle dite du ”maximum de vraisemblance”.
L’objectif est de comparer les lois d’échantillonnage des ’estimateurs’ pour établir
des préférences lorsque plusieurs choix se présentent.
Définition 3
– On appelle estimateur de θ (noté θ̂) toute statistique (donc toute fonction de
X1 , X2 , ..., Xn ) à valeurs dans Θ.
– On appelle estimateur de g(θ) toute statistique à valeur dans g(Θ).
Soit X une v.a. dont la densité de probabilité f (x; θ) dépend d’un paramètre θ. A
l’aide d’un échantillon issu de X, il s’agit de déterminer au mieux la vraie valeur
de θ. On pourra utiliser plusieurs méthodes : estimateur ponctuel, par intervalle,
méthode des moments, maximum du vraisemblance, ...
Il existe plusieurs estimateurs... comment faire la différence entre un bon et moins
bon estimateur ? Quelles sont les propriétés d’un estimateur ?
Les propriétés d’un estimateur sont, en fait, les propriétés de sa loi échantillonnée.
M. Fihri Inférence Statistique 10
Estimateur ponctuel, définition et propriétés
Estimateur Biaisé
Définition 4 (Biais)
Soit X une v.a. de densité f (x; θ). Soit X1 , X2 , ..., Xn un n−échantillon issu de
cette loi et θ̂ un estimateur de θ. On appelle biais de θ̂ pour θ la quantité :
B(θ) = E(θ̂) − θ.
Estimateur convergent
en liaison avec la loi des Grands Nombres, il peut paraître désirable que, lorsque
le nombre n d’observations tend vers l’infini, un estimateur converge vers le
paramètre à estimer.
La propriété de convergence se conserve par transformation continue.
Exemple : θ̂(n) = X est un estimateur non biaisé et convergent de θ = µ.
Précision
Définition 7
On appelle risque quadratique d’un estimateur θ̂ de θ la fonction
Définition 8
On dit qu’un estimateur θ̂1 est plus précis qu’un estimateur θ̂2 si
Si θ̂1 et θ̂2 sont tous deux sans biais, le plus précis est donc celui qui a la plus
petite variance. Mais un estimateur biaisé peut être plus précis qu’un estimateur
non biaisé.
M. Fihri Inférence Statistique 13
Estimateur ponctuel, définition et propriétés
Estimateur exhaustif
Un estimateur θ̂ (de façon plus générale, une statistique T ) est exhaustif (en
anglais, sufficient) s’il contient toute l’information concernant θ qui se trouve
contenue dans X.
L’exhaustivité est délicate à formaliser de façon rigoureuse c’est pourquoi dans le
cadre de ce cours, on adoptera comme définition la condition nécessaire et
suffisante fournie par le résultat suivant.
Théorème 5 (Critère de factorisation Neyman-Fisher)
Une estimation (une statistique) T (X) est exhaustive si, pour toute valeur x de
X, la vraisemblance se factorise en
L(x; θ) = gθ (T (x))h(x);
où h dépend de x mais pas de θ et g ne dépend de x qu’à travers T (x).
Si T est exhaustive, alors toute fonction bijective T1 de T est aussi exhaustive.
On définit la vraisemblance, pour une suite de v.a. {Xn } continue de densité
f (x; θ) (ou de loi de probabilité p(θ, xi ) = Pθ (X = xi ) dans le cas discret), par
Qn
Qi=1 f (xi , θ), dans le cas continu
L(x1 , ..., xn , θ) = n .
i=1 p(θ, xi ), dans le cas discret
M. Fihri Inférence Statistique 14
Estimateur ponctuel, définition et propriétés
Définition 9
On dit qu’une statistique T 0 est exhaustive minimale si elle est exhaustive et si
on peut trouver une fonction u telle que T 0 = u(T ), pour toute statistique T .
Définition 11
On suppose que (H2 ) est vraie, on appelle quantité d’information de Fisher pour θ
la quantité notée I(θ) et définie par :
" 2 #
∂
I(θ) = E log f (X; θ) .
∂θ
M. Fihri Inférence Statistique 16
Estimateur ponctuel, définition et propriétés
Plan
σ 2 n→∞
E(X) = µ et Var(X) = −−−−→ 0.
n
2
S
Bien que
2 2 n→∞
E(S 0 ) = σ 2 et Var(S 0 ) −−−−→ 0.
Propriété de (X, S 2 )
Plan
Exemple :
Sur un n−echantillon X1 , X2 , ..., Xn issu d’une population normale de moyenne µ
et de variance σ 2 . Estimer par la méthode des moment (µ, σ 2 )0 .
Corrigé :
Ici k = 2, le système est donc
µ1 (θ) = m1 µ=X
⇔ 1
Pn
µ2 (θ) = m2 E(X 2 ) = σ 2 + µ2 = n i=1 Xi2
M 2
sa solution est donc µ̂M = X et σˆ2 = 1
Pn
n i=1 Xi2 − X = S 2
∂2 n
2
log L(x1 , x2 , ..., xn ; θ) = − 2 < 0
∂θ θ
Donc θ∗ est bien maximum ; c-à-d. θ̂M V = Pn n Xi est un EMV et on a :
i=1
√ MV
L 1 1
n(θ̂ − θ) −
→ N 0, , avec I(θ) = 2
I(θ) θ
M. Fihri Inférence Statistique 28
Estimation par intervalle de confiance
Plan
Définition
L’estimation ponctuelle de θ associe une estimation θ̂x (un nombre) à chaque
valeur x de l’observation X. L’information fournie est relativement maigre : un
seul nombre.
Dans le problème de l’estimation par intervalle, on associe un intervalle
[L− (x); L+ (x)] à chaque valeur x de l’observation X.
Définition 13
Un intervalle de confiance au niveau de confiance 1 − α (α choisi à l’avance) pour
θ est un intervalle [L− (x); L+ (x)] tel que
(a) L− (X) et L+ (X) sont des statistiques,
(b) P(θ ∈ [L− (x); L+ (x)]) ' 1 − α.
– L’intervalle de confiance (noté IC1−α (θ) ou ICα (θ)) est donc déterminé par la
connaissance de (la probabilité) la loi de l’estimateur de θ : par exemple dans le
cas d’une proportion
P
(dans une expérience de Bernoulli) on a démonter que pour
Xi
n grand, p̂ = n ∼ N (p, pq n ) : √ √
p̂q̂ p̂q̂
ICα (p) = p̂ − z1−α/2 √ ; p̂ + z1−α/2 √ .
n n
– Lorsque la taille de l’échantillon est grande et grâce au TCL, on pourra
facilement trouver l’IC (via la loi normale).
M. Fihri Inférence Statistique 30
Estimation par intervalle de confiance
Rappel
—————————————————————————————————–
Rappelons le lemme de Fisher :
Pour un échantillon X1 , X2 , ..., Xn i.i.d. N (µ, σ 2 ), on a
2
(i) X ∼ N (µ, σn ),
nS 2 (n−1)S 02
(ii) σ2 = σ2 ∼ χ2 (n − 1),
2
(iii) X et S sont indépendants.
et que du lemme de Fisher, on constate que
√ X −µ
n ∼ t(n − 1).
S0
On sait que, pour Z ∼ N (0, 1) : P(−z1−α/2 < Z < z1−α/2 ) = 1 − α ;
P(Z < zα ) = α, ...
Et de même pour T ∼ t(ν) : P(−tν,1−α/2 < T < tν,1−α/2 ) = 1 − α, ...
—————————————————————————————————–
nS 2
P χ2n−1,α/2 < 2 < χ2n−1,1−α/2 = 1 − α,
σ
C-à-d. 2
!
nS 2 nS 2
P <σ < 2 =1−α
χ2n−1,1−α/2 χn−1,α/2
" #
2 2
nS nS
ICα (σ 2 ) = ; .
χ2n−1,1−α/2 χ2n−1,α/2
2) Cas où µ connu :
2 2 Pn
On admet le résultat nS” 2
σ 2 ∼ χ (n); avec S” = n
1 2
i=1 (Xi − µ) .
De même on trouve que :
" #
2 2
nS” nS”
ICα (σ 2 ) = ; .
χ2n,1−α/2 χ2n,α/2
M. Fihri Inférence Statistique 33