Tout - Enonce Et Corrige - Ensae.net - Simple
Tout - Enonce Et Corrige - Ensae.net - Simple
Tout - Enonce Et Corrige - Ensae.net - Simple
ensae.net
Corrigé de l’exercice 1
☞ Q1 – On a
et de même
� 2�
E Xi =
=
� ��
k∈N∗
�
��
E (Xi ) =
k∈N∗
�
e −λ λ
k!
λ
k!
k
k
= 0+λ
� �
k2
e−λ k(k − 1)
� ��
k∈N
k∈N∗
� P ��
�� � � �
k−2
+
k∈N∗
�
e−λ
λ
�
e−λ k
k!
k
λ
e
��
�
k−1
k−1
−λ λ
(k − 1)!
k!
�
�
l∈N
k
� �
k
P(X1 =l)
λ 2 λ
= e−λ λ + λ
(k − 2)! (k − 1)!
�k≥2 �� � k≥1
�P �� �
P
l∈N P(X1 =l) l∈N P(X1 =l)
2
= λ +λ
ce dont on tire
V (Xi ) = λ
� +∗
�
R → �R tX �
– Soit φ : ; φ est appelée la fonction génératrice de la variable aléatoire
t �→ E e i
Xi .
Alors pour t ∈ R
+∞
�
φ(t) = P (Xi = k) etk
k=0
+∞
� λk tk
= e−λ e
k=0
k!
+∞
� k
(λet )
= e−λ
k=0
k!
λ(et −1)
= e
ensae.net
En particulier, φ est de classe C +∞ .
= e−λ
= e −λ
k∈N
k∈N
= e−λ
=
�
�
t
∂t
k∈N
�
t �→
t �→ k
= E (Xi n )
�
k∈N
] − ρ, +ρ[ →
�→
convergente ; donc sur tout voisinage de 0 on peut intervertir ∂t
φ(n) (0) =
� �
∂
∂t
� ∂
t �→ e−λ
�
� (λet )k
k∈N
kn
k!
k!
k!
�
(λet )
t k
n (λe )
λ
k!
k
k n P (Xi = k)
k
��
�
R+∗
k∈N �
∂
�
(0)
(λet )
k!
k
�
est normalement
et N , de sorte que
(0)
(0)
Ce résultat est en fait vrai plus généralement pour toute densité suffisamment régulière (i.e.
telle que φ soit développable en séries entières et somme de sa série) : en effet on a alors
+∞ (n)
� φ (0)
φ(t) = tn
n=0
n!
ensae.net
– Par ailleurs, on a successivement :
�
φ (t) = φ(t)λet
��
���
����
�
�
t
φ (t) = λe + 2 λe
�
φ (t) = φ(t)λet + φ (t)λet
�
� �2
= (λet + λet )φ(t)
� t �2 �
� �2 � �3
= λet + 3 λet + λet
� �2
φ (t) = λet + 6 λet + 3 λet
� � �2
� �3
�
φ(t)
� t �2 � t �
φ(t)
� �2 � �3 � �
φ(t) + λet + 3 λet + λet
� �3 � �4 �
φ (t)
Plus généralement, on montre qu’il existe une suite de polynômes (P n )n∈N ∈ R[X]N telle que
� � �
φ(n+1) (t) = Pn λet λet φ(t) + Pn λet φ (t)
� �� � � � ��
= Pn λet λet φ(t) + Pn λet λet φ(t)
= (XPn� (X) + XPn (X))(λet ) φ(t)
�
Par suite � �
�
∀n ∈ N, Pn+1 (X) = X Pn (X) + Pn (X)
�
de sorte que, en notant Pn (X) = nk=0 akn Xk
ce qui permet de calculer les (akn )n,k et d’en déduire E (Xi n ) = φ(n) (0). Puisque φ(0) = 1, on
peut donc facilement calculer pour tout n ∈ N ∗ le moment d’ordre n
� �
E Ti k = Pn (λ)
☞ Q2 (a) On constate que λ�1 et λ�2 ont été obtenus par la méthode des moments, qui consiste pour
estimer λ à inverser l’expression du moment théorique d’une variable X en fonction de λ,
et de l’appliquer au moment empirique.
ensae.net
En l’occurence λ�1 (x) = x̄ est le premier moment empirique, qui converge p.s. vers le premier
moment théorique E (X1 ) = λ. Donc λ�1 est l’estimateur fondé sur le premier moment de X.
puis
�
�
�
De même λ�2 (x) = n1 ni=1 (xi − x̄)2 est le moment centré d’ordre 2 empirique, qui converge
vers le moment centré théorique d’ordre 2 V (X 1 ) = λ. Donc λ�2 est l’estimateur fondé sur
le second moment centré de X.
Les questions suivantes s’assurent que λ�1 et λ�2 sont bien des estimateurs de λ et étudient
leurs propriétés à distance (in-)finie.
(b) On a
�
E λ2 (X) =
�
1 � ��
n
n i=1
�
E Xi − X̄
� �
E λ�1 (X) = E X̄
�2 �
=
=
1�
n i=1
n
E (Xi )
n
1� � 2 �
= E Xi − 2Xi X̄ + X̄ 2
n i=1
n
1 � � 2� � � � �
= E Xi − 2E X̄ 2 + E X̄ 2
n i=1
� � � �
= E X1 2 − E X̄ 2
� � � � � � �2 �
= E X1 2 − V X̄ + E X̄
� �
� 2� 1 2
= E X1 − V (X1 ) + E (X1 )
n
� �
� 2 � 1 2
= λ +λ − λ+λ
n
n−1
= n
λ
�n � �2
Ainsi, λ�1 n’est pas biaisé mais λ�2 l’est, et on peut proposer λ�3 = n−1
1
i=1 X i − X̄
�n
(c) Première méthode : Cherchons la loi de i=1 Xi .
Une façon naturelle serait de montrer qu’une somme de variables indépendantes qui suivent
chacune un loi de Poisson de paramètre λ i suit elle-même un loi de Poisson de paramètre
ensae.net
�n
i=1 λi ; ceci se montre par récurrence soit en calculant explicitement
P (X1 + · · · + Xn = k) =
Pn
φ i=1 Xi (t) = E e
= E Πni=1 etXi
�
= Πni=1 E etXi
= Πni=1 φXi (t)
= enλ(e −1)
�n
t
�
�
= φP(nλ) (t)
i=1
k
�
s=0
P (X1 + · · · + Xn−1 = s) · P (Xn = k − s)
�
�n
�
i=1 Xi , et de re-
Xi � P(nλ).
En définitive la loi de λ�1 est caractérisée par
� n �
� � � (nλ)nk
∀k ∈ Q, P λ�1 = k = P Xi = nk = e−nλ
�
nk∈N
i=1
(nk)!
(on notera que la statistique λ�1 n’est pas entière a priori, ce qui justifie l’indicatrice).
ensae.net
Autre Méthode : On peut aussi directement calculer pour t ∈ N
P
�� n
1 �
n i=1
�
Xi =
t
n
�
= P (X1 + · · · + Xn = t)
=
�
P (X1 = x1 ∧ · · · ∧ Xn = xn )
x1 +···+xn =t
�
x1 +···+xn =t i=1
� � n
x1 +···+xn =t i=1
e
�
x1 +···+xn =t
e−nλ t
t!
−nλ t
t!
λ
e−nλ (nλ)t
t!
n
�
�
P (Xi = xi )
e−λ λxi
x1 +···+xn
xi !
−nλ x1 +···+xn
e λ
x1 ! · · · x n !
t!
x ! · · · xn !
=t 1
(1 + · · · + 1)t
car les (Xi )i sont indépendants
� �
λ�1
(d) Pour déterminer la loi limite jointe de , on serait tenté de poser Zi =
λ�2
� �
Xi
� �2 et d’appliquer le Théorème Central Limite à Z i ; la difficulté est que
Xi − X̄ � �
Xi
les Zi ne sont plus i.i.d dans ce cas, du fait de X̄. C’est pourquoi on pose Yi = ,
Xi 2
et on constate que
�� � �
√ L 0
n (Yi − E (Yi )) −−−−→ N , V (Yi )
n→+∞ 0
ce qui s’écrit
�� � � �� �� � � � � ��
√ X̄ λ L 0 V� (Xi ) � Cov �Xi , X 2
n − −−−−→ N , � i
X̄ 2 λ(1 + λ) n→+∞ 0 Cov Xi , Xi 2 V Xi 2
ensae.net
Par ailleurs on calcule successivement
Enfin, posons g :
1
n
�n � 1 �n
i=1 Zi = g n
�
R
u
v
2
�
�
i=1 Yi , car n
→
�→
�
1
V (Xi ) = λ
� �
�n �
L
−−−−→ N
n→+∞
√
� � 1 �n
n g 1 �n
�� � �
0
0
n
n
,
i=1
i=1 Xi
1
X
−2λ 1
i
2
�
0
−g
R
u
v−u
� �
×
�
2
i=1 Xi �
2
�
u
� �
V Xi 2 = E Xi 4 − E Xi 2
� � �
λ
λ(1 + λ)
λ
=
��
� �
= λ(1 + 6λ + 4λ2 )
1
−2u 1
� �
Cov Xi , Xi 2 = E Xi 3 − E (Xi )E Xi 2
= λ(1 + 2λ)
, de sorte que
�2 1 �n
− X̄ � = n� 2
λ(1 + 2λ)
λ(1 + 2λ) λ(1 + λ)
� �2
i=1 Xi −� X̄ .
� �
×
1 −2λ
0 1
��
soit �� � � �� �� � � ��
√ λ�1 λ L 0 λ λ
n − −−−−→ N ,
λ�2 λ n→+∞ 0 λ λ(1 + 2λ)
il vient
�� � � �� �� � � ��
√ λ�1 λ L 0 λ λ
n − n −−−−→ N ,
λ�3 n−1
λ n→+∞ 0 λ λ(1 + 2λ)
n L
et comme par ailleurs n−1
λ −−−−→ λ on conclut que
n→+∞
�� � � �� �� � � ��
√ λ�1 λ L 0 λ λ
n − −−−−→ N ,
λ�3 λ n→+∞ 0 λ λ(1 + 2λ)
� � � � � �
� � �
(e) On a E λ∞ (X) = αE λ1 (X) + βE λ3 (X) = (α + β)λ,
donc λ�
∞ est sans biais ssi α + β = 1.
ensae.net
Par ailleurs, λ�
pour n → +∞
�
�
V λ�
�
∞ (X)
�
�
∞ est le meilleur estimateur sans biais de λ s’il est de variance minimale ; or
�
α
2
V
� �
�
�
λ 1 (X)
�
+
�
2α(1
�
− α)Cov
�
�
λ�1 (X),
�
λ�3 (X)
�
+
� � � �
� � �
(1
�
�
�
2
V
Ce polynôme de degré 2 en α a un cœfficient V λ�1 (X)+V λ�3 (X)−2Cov λ�1 (X), λ�3 (X) =
V λ1 (X) − λ3 (X) ≥ 0 en α2 , donc est maximal aux bornes et minimal au milieu des
racines, soit en
α∗ = −
= −
= −
� �
�
�
�
� �
� �
2 Cov λ�1 (X), λ�3 (X) − V λ�3 (X)
�
��
= 1
∗
Ainsi, λ� � � �
∞ = λ1 , de sorte que λ1 = (x �→ x̄) = λemv est le meilleur estimateur asymptoti-
quement sans biais de λ.
�� �2 �
�
☞ Q3 (a) Rappel : l’erreur quadratique moyenne de l’estimateur θ de θ est définie comme E �
θ−θ .
ensae.net
– De façon similaire
λ�2 =
� �
1
2
1
2
��
1� 2
4
de sorte que
X1 −
2
X 1 +
2
X 2
�2 �
X1 + X2 2 − 2X1 X2
E
��
Or E λ�2 = λ2 , et en outre
� 2�
E λ�2 =
=
1 �� 2
16
1 �
16
+ X2 −
X1 − X1 (X1 + X2 ) +
�
λ�2 − λ
�2 �
2
E X1 + X2 − 2X1 X2
4
X 1 +
2
(X1 + X2 )2
� 2�
X
�2 �
2
�2 �
2
+ X2 − X2 (X1 + X2 ) +
� �
= E λ�2 − 2λE λ�2 + λ2
(X1 + X2 )2
�
�
�
= E X1 + 2X1 2 X2 2 + X2 4 + −X1 3 X2 − X1 X2 3 + 4X1 2 X2 2
16
1 � � 4� � � � � � � �
= E X1 + 3E X1 2 E X2 2 − 4E X1 3 E (X2 ) par indépendance
8
1� �
= λ + 6λ2
8
et donc
�� �2 � � �
1 � � λ
E λ�2 − λ = 2
λ + 6λ − 2λ + λ2
8 2
3 2 1
= λ + λ
4 8
ensae.net
(b) Au sens de l’erreur quadratique moyenne, λ�1 est toujours préférable à λ�3 .
De plus,
et de façon analogue
�
�
λ2 est préférable à λ3 ⇔ E
⇔
�
�
��
2−
⇔ λ>−
2
λ2 est préférable à λ1 ⇔ E
⇔
�
λ2 − λ
⇔ λ<
3
4
3
8
��
2
1
2λ + λ −
2
�
�
�2 �
� �
λ2 +
λ2 − λ
� � �
λ
1
2
−
�
<E
�2 �
3 2 1
4
−
2 8
<E
��
3 2 1
4
1 1
�
λ + λ >0
8
��
�
λ3 − λ
λ + λ >0
�
8
�
λ>0
�2 �
�
λ1 − λ
�2 �
k ∂ 2 ln L
(c) On a L(k, λ) = e−λ λk! , donc ∂ ln L
∂λ
= −1 + λk et par suite
(k, λ) ∂λ
(k, λ) = − λk2 . donc
� 2 �
∂ ln L
I1 (λ) = −E (k, λ)
∂λ
+∞
� k −λ λk
= 2
e
k=0
λ k!
+∞
e−λ � λk−1
=
λ k=1 (k − 1)!
1
=
λ
�
� �