DS Corr
DS Corr
DS Corr
cx2 y si x2 ≤ y ≤ 1
fXY (x, y) =
0 sinon
1. Le support de la fonction de la densité de probabilité jointe est présenté par la partie hachurée
sur la gure suivante:
1
3. L'espérance et la variance de X
Z 1
21 2
E(X) = x (1 − x8 )xdx
−1 8
Z 1
21 3
= x (1 − x4 )dx
−1 8
= 0
Z 1
2 21 2
E(X ) = x (1 − x4 )x2 dx
−1 8
Z 1
21 4
= x (1 − x4 )dx
−1 8
7
=
15
7
donc V ar(X) = E(X 2 ) =
15
4. La densité marginale de Y est notée fY (y)
Z +∞
21 2
fY (y) = x ydx
− 4
√
Z y
21 2
= √
x ydx
− y 4
7 5
= y 2 si 0 ≤ y ≤ 1
2
5. L'espérance et la variance de Y
Z 1
7 5
E(Y ) = y 2 ydy
0 2
Z 1
7 7
= y 2 dy
0 2
7
=
9
Z 1
7 5 2
E(Y 2 ) = y 2 y dy
0 2
Z 1
7 9
= y 2 dy
0 2
7
=
11
7 7 28
donc V ar(Y ) = E(Y 2 ) − E(Y )2 = − ( )2 =
11 9 891
6. La probabilité conditionnelle de Y sachant X = x
fXY (X, y)
fY /X=x (y) =
fX (x)
21 2
4 x y
= 21 2
8 x (1 − x4 )
2y
= si x2 ≤ y ≤ 1
1 − x4
3 1
7. P (Y ≥ x= )
4 2
Z 1
3 1 7
P (Y ≥ x = ) = fY /X= 12 (y)dy =
4 2 3 15
2 4
8. L'espérance conditionnelle de Y sachant X = x
Z 1
2y 2 2(1 − x3 )
E(Y /X = x) = 4
dy = si x2 ≤ 1
x2 1 − x 3(1 − x4 )
COV (X, Y )
9. Le coécient de corrélation entre X et Y est noté par ρ =
σX σY
√
Z 1 Z y
21 2
COV (X, Y ) = √
x yxydxdy
0 − y 4
Z 1 Z √y
21 3 2
= √
x y dxdy
0 − y 4
= 0
donc ρ = 0
10. Les deux variables X et Y sont dépendantes car fXY (x, y) 6= fX (x)× fY (y) pourtant le coécient
de correlation entre X et Y est nul
2 Soit (X, Y ) un vecteur aléatoire gaussien centré et de matrice de covariance l'identité I2 . Soit (Z, Q) le
vecteur aléatoire déni par Z = (X + Y )/2 et Q = (X − Y )/2. On pose
1 1
U= (X − Z)2 + (Y − Z)2
2 2
1. Montrer que (Z, Q) est un vecteur gaussien.
2. Calculer la matrice de covariance Σ du couple (Z, Q).
3. Montrer que Z et Q sont indépendantes.
4. Déterminer la loi de U . On pourra remarquer que U = Q2 .
√
1
5. Déterminer la f.g.m de U . (On rappelle que Γ = π)
2
6. Calculer E(U ) et V (U ).
Solution:
1. (Z, Q) est une transformation linéaire d'un vecteur gaussien, par suite (Z, Q) est un vecteur gaussien.
2. Cov(Z, Q) = 0, V (Z) = (V (X) + V (Y ))/4 = 1/2, V (Q) = 1/2. Ainsi, la matrice de covariance du
couple (Z, Q) s'écrit
1/2 0
Σ=
0 1/2
3. (Z, Q) est un vecteur gaussien. Cov(Z, Q) = 0. Il s'ensuit que Z et Q sont indépendantes.
1
4. On a U = (1/2)(X − (X + Y )/2)2 + (1/2)(Y − (X + Y )/2)2 = Q2 . Q suit N (0, ). Par la technique
2
de fonction de répartition, on obtient
1 −1/2
fU (u) = √ e−u u]0,+∞[
π
.
1
5. Pour t < 1, MU (t) = (1 − t)− 2 .
1 1
6. E(U ) = , V (U ) = .
2 4
3 Utiliser la notion des fonctions génératrices des moments (f.g.m.) pour répondre aux questions suivantes:
Donc, Y ∼ B (n, q)
4 Soient X et Y deux variables aléatoires réelles indépendantes de même loi et de densités de probabilité:
U
3. Détermination de la loi de W =
V
(
Z=V
V =Z
Soit U ⇔
W = U = Z.W
V
u
Domaine de dénition: −v < u < v ⇒ −1 < − w < 1
v
fW,Z (w, z) = |J| fX,Y (u (w, z) , v(w, z))
∂u ∂u
dz ∂w
|J| = ∂v ∂v
∂z ∂w
w z
=
1 0
= |−z|
= z
1
fW,Z (w, z) = z. θ2 e−θz
2
1 2 −θz
(
θ ze Si 0 < w < 1, z > 0
= 2
0 Sinon
Densité margianle de W
Z
f (w) = f (w, z) dz
DZ
Z +∞
1 2 −θz
= θ ze dz
0 2
Z +∞
1 2
= θ ze−θz dz
2 0
u0 = 1
(
u=z
soient ⇒ 1
v 0 = e−θz v = − e−θz
θ
+∞ Z +∞
1 2 1 1
f (w) = θ − ze−θz + θ e−θz dz
2 θ 0 2 0
1 −θz +∞
= − e 0
2
1
(
Si − 1 < w < 1
= 2
0 Sinon
Bonne Chance
6
Université de Manouba Principes et méthodes 2ème année
École Nationale des Sciences statistiques A.U: 2017-2018
de l’Informatique Devoir surveillé Sem: I
A. Alleli, F. Kadhi, O. Oueslati Durée: 2h 17-11-2017
N.B: Aucun document n’est autorisé. Les téléphones portables doivent être rangés dans
les sacs. L’échange du matériel est strictement interdit. Toute tentative de fraude sera
sévèrement sanctionnée.
Exercice 1. (5 points)
Dans un article de la revue ”Biometrica”, le biologiste Latter donne la longueur (en mm)
des œufs de Coucou trouvés dans les nids de deux espèces d’oiseaux:
19.8, 22.1, 21.5, 20.9, 22.0, 21.0, 22.3, 21.0, 20.3, 20.9, 22.0, 22.0, 20.8, 21.2, 21.0
22.0, 23.9, 20.9, 23.8, 25.0, 24.0, 23.8, 21.7, 22.8, 23.1, 23.5, 23.0, 23.1, 23.0
On veut savoir si le coucou adapte la taille de ses œufs à la taille des nids.
3. Écrire le code du logiciel R qui permet d’enregistrer les observations dans un vecteur
v et de calculer la moyenne empirique.
v¡-c(19.8,. . . ,21.0)
mean(v)
Page 1 de 4
5. On définit le coefficient de variation de l’échantillon par
sn
cvn =
x¯n
L’intérêt de cet indicateur est qu’il est sans dimension. Une pratique empirique
courante est de considérer que l’échantillon possède une variabilité significative si
cvn > 0.15. Si cvn ≤ 0.15, les données présentent peu de variabilité et on considère
que la moyenne empirique a elle seule est un bon résumé de tout l’échantillon.
Calculer le coefficient de variation empirique des deux types. Commenter. 0.03
0.045
Comentaire: la moyenne resume bien l ’echantillon dans les dwux cas. Le coucou
adapte ses oeufs a la taille de nid.
Exercice 2. (5 points)
Une entreprise vend des imprimantes de bas de gamme fabriquées en grande série, mais
10% d’entre elles présentent un défaut de fabrication. Un revendeur reçoit un lot de 100
imprimantes.
1. Quelle est la probabilité qu’il trouve dans ce lot:
2. Deux contrôleurs de la qualité s’occupent chacun d’un lot de 100 imprimantes qu’ils
examinent avec soin. Quelle est la probabilité que l’un d’eux trouve dans son lot au
plus 2 imprimantes défectueuses de plus que son collègue dans le sien?
2π(0.47) − 1 = 0.36
Exercice 3. (10 points)
Soit (X1 , . . . , Xn ) un échantillon aléatoire d’une v.a X dont la densité est définie par
x 2
exp(− x2θ ) si x > 0
fθ (x) = θ
0 sinon
1. Analyse probabiliste
(a) Vérifier que fθ satisfait les deux conditions d’une densité de probabilité.
q
(b) Montrer que E(X) = π.θ 2
. On pourra utiliser la technique de l’intégration
par partie et la d.d.p d’un loi normale.
(c) Soit la variable aléatoire Y = 12 X 2 . Montrer que Y suit une loi exponentielle
de paramètre 1θ .
(d) Déteminer la fonction génératrice de Y
(e) En déduire l’espérence de Y et la variance de Y
2. Inférence du paramètre θ
Page 2 de 4
(c) Montrer que θbM V est un estimateur sans biais de θ
(d) Étudier la convergence de θbM V
(e) Calculer la quantité d’information de Fisher en θ.
(f) Étudier l’efficicaité de θbM V
solution
1. Analyse probabiliste
x2 2
(a) E(X) =+∞
0 θ
. exp(− xθ )dx
x2 x2
E(X) =+∞
0 . exp(− )dx
θ θ
+∞
x2 x2
2x 2x θ
= . exp(− ) −+∞
0 − exp(− )dx
θ θ 0 θ 2x θ
√ +∞ 1 x2
= 0 + 2πθ0 √ exp(− )dx
2πθ θ
√
r
1 πθ
= 2πθ. =
2 2
√ √
(b) GY (y) = P (y < y) = P ( 12 X 2 < y) = P (x < 2y) = FX ( 2y)
(c) soit gY (y) la densité de probabilité de Y avec y > 0
√
dGY (y) p 2 −1/2
gY (y) = = fθ ( 2y). y
dy 2
√
2y y 1
= exp(− ). √ y −1/2 .
θ θ 2
1 y
= exp(− )avecy > 0
θ θ
1 y
MY (t) = E(exp(Y t)) =+∞
0 exp(− ). exp(yt)dy
θ θ
(1 − θt) (1 − θt)
=+∞
0 (1 − θt)−1 . exp(− y).dy
θ θ
+∞ (1 − θt) (1 − θt)
= (1 − θt)−1
0 exp(− y).dy
θ θ
= (1 − θt)−1
1
donc MY (t) = (1 − θt)−1 pour t < θ
Page 3 de 4
(e)
0
MY (t) = (1 − θt)−2 θ
00
M (t) = 2(1 − θt)−3 θ2
0
E(Y ) = MY (t) |t=0 = θ
00
E(Y 2 ) = MY (t) t=0 = 2θ2
V ar(Y ) = θ2
2. Inférence du paramètre θ
(c) Nous savons que Y = 21 Xi2 est distribuée selon une loi exponentielle de paramètre 1
θ
son
espérence vaut θ . On en déduit
X2
E(θbM V ) = E( 1 n X 2 ) = 1 n E( i ) = θ
n i=1 i n i=1 2
limV ar(θbM V ) = 0 puisque θbM V est estimateur sans biais de θ donc c’est un estimateur
n→+∞
convergent
(e) Calculons l’information de Fisher
∂ c
∂θ
Log(fθ (x)) = − 1θ + xθ2
∂2 1 c
∂θ2
Log(fθ (x)) = θ2
− 2 xθ3
c
I(θ) = −E( θ12 − 2 xθ3 ) = − θ12 + 2 θ13 E(X c ) = 1
θ2
n
In (θ) = nI(θ) = θ2
(f) La borne de Cramèr-Rao pour un estimateur non biaisé de θ est par conséquent
Page 4 de 4
θ2
BCR= n
= V ar(θbM V )
Bonne chance
Page 5 de 4
122 Chapitre 8 - Annexe B : Lois de probabilité usuelles
u 0.0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
Grandes valeurs de u
u 3.0 3.5 4.0 4.5
φ(u) 0.9987 0.99977 0.999968 0.999997