DS Corr

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 12

Examen de : Université de la Manouba Niveau : 2ième Année

Principes & Méthodes


Statistiques Filière : II2

Date : Nov. 2015 Durée : 2H École Nationale des A.Univ. : 2015-2016


O.Oueslati & A. Alleli & F. Kadhi Sciences de L'Informatique Semestre I

1 La densité jointe de deux variables aléatoires X et Y est de la forme

cx2 y si x2 ≤ y ≤ 1

fXY (x, y) =
0 sinon

1. Représenter graphiquement le support de la densité de probabilté jointe et déterminer la constante


c.
2. Déterminer la densité marginale de X . En déduire l'espérance et la variance de X .
3. Déterminer la densité marginale de Y . Calculer l'espérance et la variance de Y .

3 1
4. Déterminer la probabilité conditionnelle de Y sachant X = x. Calculer la probabilté p(Y ≥ x = ) .
4 2
5. Déterminer l'espérance conditionnelle de Y sachant X = x.
6. Déterminer le coécient de correlation entre X et Y .
7. Etudier la dépendance stochastique de X et Y et commenter.
Solution:

1.  Le support de la fonction de la densité de probabilité jointe est présenté par la partie hachurée
sur la gure suivante:

Figure 1  support de la densité jointe en fonction de x et y


 Z
Détermination de c √
+∞ Z +∞ Z 1 Z y
21
fXY (x, y)dxdy = 1 ce qui nous donne √
cx2 ydxdy = 1 donc c =
−∞ −∞ 0 − y 4
2. La densité marginale de X est notée fX (x)
Z 1
21 2 21 2
fX (x) = x ydy = x (1 − x4 ) si − 1 ≤ x ≤ 1
x2 4 8

1
3. L'espérance et la variance de X
Z 1
21 2
E(X) = x (1 − x8 )xdx
−1 8
Z 1
21 3
= x (1 − x4 )dx
−1 8
= 0
Z 1
2 21 2
E(X ) = x (1 − x4 )x2 dx
−1 8
Z 1
21 4
= x (1 − x4 )dx
−1 8
7
=
15
7
donc V ar(X) = E(X 2 ) =
15
4. La densité marginale de Y est notée fY (y)
Z +∞
21 2
fY (y) = x ydx
− 4

Z y
21 2
= √
x ydx
− y 4
7 5
= y 2 si 0 ≤ y ≤ 1
2

5. L'espérance et la variance de Y
Z 1
7 5
E(Y ) = y 2 ydy
0 2
Z 1
7 7
= y 2 dy
0 2
7
=
9
Z 1
7 5 2
E(Y 2 ) = y 2 y dy
0 2
Z 1
7 9
= y 2 dy
0 2
7
=
11
7 7 28
donc V ar(Y ) = E(Y 2 ) − E(Y )2 = − ( )2 =
11 9 891
6. La probabilité conditionnelle de Y sachant X = x
fXY (X, y)
fY /X=x (y) =
fX (x)
21 2
4 x y
= 21 2
8 x (1 − x4 )
2y
= si x2 ≤ y ≤ 1
1 − x4

3 1
7. P (Y ≥ x= )
4 2
Z 1
3 1 7
P (Y ≥ x = ) = fY /X= 12 (y)dy =
4 2 3 15
2 4
8. L'espérance conditionnelle de Y sachant X = x
Z 1
2y 2 2(1 − x3 )
E(Y /X = x) = 4
dy = si x2 ≤ 1
x2 1 − x 3(1 − x4 )

COV (X, Y )
9. Le coécient de corrélation entre X et Y est noté par ρ =
σX σY

Z 1 Z y
21 2
COV (X, Y ) = √
x yxydxdy
0 − y 4
Z 1 Z √y
21 3 2
= √
x y dxdy
0 − y 4
= 0

donc ρ = 0
10. Les deux variables X et Y sont dépendantes car fXY (x, y) 6= fX (x)× fY (y) pourtant le coécient
de correlation entre X et Y est nul

2 Soit (X, Y ) un vecteur aléatoire gaussien centré et de matrice de covariance l'identité I2 . Soit (Z, Q) le
vecteur aléatoire déni par Z = (X + Y )/2 et Q = (X − Y )/2. On pose
1 1
U= (X − Z)2 + (Y − Z)2
2 2
1. Montrer que (Z, Q) est un vecteur gaussien.
2. Calculer la matrice de covariance Σ du couple (Z, Q).
3. Montrer que Z et Q sont indépendantes.
4. Déterminer la loi de U . On pourra remarquer que U = Q2 .

 
1
5. Déterminer la f.g.m de U . (On rappelle que Γ = π)
2
6. Calculer E(U ) et V (U ).
Solution:

1. (Z, Q) est une transformation linéaire d'un vecteur gaussien, par suite (Z, Q) est un vecteur gaussien.
2. Cov(Z, Q) = 0, V (Z) = (V (X) + V (Y ))/4 = 1/2, V (Q) = 1/2. Ainsi, la matrice de covariance du
couple (Z, Q) s'écrit  
1/2 0
Σ=
0 1/2
3. (Z, Q) est un vecteur gaussien. Cov(Z, Q) = 0. Il s'ensuit que Z et Q sont indépendantes.
1
4. On a U = (1/2)(X − (X + Y )/2)2 + (1/2)(Y − (X + Y )/2)2 = Q2 . Q suit N (0, ). Par la technique
2
de fonction de répartition, on obtient
1 −1/2
fU (u) = √ e−u u]0,+∞[
π
.
1
5. Pour t < 1, MU (t) = (1 − t)− 2 .
1 1
6. E(U ) = , V (U ) = .
2 4
3 Utiliser la notion des fonctions génératrices des moments (f.g.m.) pour répondre aux questions suivantes:

1. Soit X ∼ N (0, 1). Déterminer la loi de Y = X 2 .


2. Soit une suite de v.a. X1 , X2 , ..., Xn i.i.d. avec Xi ∼ P (λ) , i = 1, ..., n. Déterminer la loi de S =
X1 + X2 + ... + Xn .
3. Soit X ∼ B (n, p). Déterminer la distribution de la v.a. Y = n − X ?.
Indications:
3
 La suite de v.a. qui sont i.i.d., c'est-à-dire sont identiquement indépendamment distribuées.
−n/2
 Si X ∼ χ2 (n) alors MX (t) = (1 − 2t) .
t
 Si X ∼ P(λ) alors M (t) = eλ(e −1) .
X
n
 Si X ∼ Bin(n, p) alors MX (t) = p + (1 − p)et .
Solution:
Z +∞
  Z +∞  
 2 2 1 1 1 1
1. MY (t) = E etY = E etX = etx √ exp − x2 dx = √ exp − (1 − 2t) x2 dx

−∞ 2π 2 −∞ 2π 2
√ 1 √
Soit w = x 1 − 2t avec t < =⇒ dx = 1/ 1 − 2t.dw
Z +∞ 2   Z +∞  
1 1 2 1 − 21 1 1 2
Donc, MY (t) = √ exp − w dw. √ = (1 − 2t) √ exp − w dw =
−∞ 2π 2 1 − 2t −∞ 2π 2
1

(1 − 2t) 2
Avec, W ∼ N (0, 1). C'est la f.g.m. d'une loi de Khi-deux donc, Y ∼ χ2 (1)
t t t
2. MS (t) = E etS = E etX1 +...+tXn = E etX1 ...E etXn = eλ1 (e −1) ...eλn (e −1) = e(Σλi )(e −1)
   
n
!
X
Donc, S ∼ P λi
i=1
 n !
P 
t ai Xi 1
3. MZ (t) = E e tZ
= E ea1 tX1 ...E ean tXn = MXi (a1 t) ...MXn (an t) = exp a1 tµ1 + a21 t2 σ
  
=E e i=1
2
  " n ! n
!#
1 X 1 X
= exp (a1 µ1 + ... + an µn ) t + t2 a21 σ12 + ... + a2n σn2 = exp ai µi t + t2 a2i σi2

2 i=1
2 i=1
n
" n ! n
!#
X X X
Donc, Z = ai Xi ∼ N ai µi , a2i σi2
i=1 i=1 i=1
  n n
4. MY (t) = E e tY
= E et(n−X) = E etn E e−tX = etn MX (−t) = etn q + pe−t = qetn + p
  

Donc, Y ∼ B (n, q)

4 Soient X et Y deux variables aléatoires réelles indépendantes de même loi et de densités de probabilité:

fX (x) = θ exp [−θx] IR+ (x)


fY (y) = θ exp [−θy] IR+ (y)

θ est un réel positif non nul.


1. On dénit les variables aléatoires U = X − Y et V = X + Y . Déterminer la loi du vecteur aléatoire
(U, V ). U et V sont elles indépendantes?.
2. Déterminer les lois marginales de U et V .
U
3. Déterminer la loi de la variable aléatoire W = .
V
Solution: X et Y sont indépendantes
 2 −θ.(x+y)
θ e x > 0, y > 0
=⇒ fX,Y (x, y) = fX (x) .fY (Y ) =
0 Sinon

U =X −Y
1. Soient les V.A.
V =X +Y
On vous demande de déterminer le loi du vecteur (U, V )


  X = 1 (U + V )

U =X −Y 2
⇐⇒ 1
V =X +Y  Y = X − U = (V − U )

 2
1
 x = (u + v)

⇐⇒ 2
1
 y = (v − u)

4 2
 Domaine de dénition de (U, V )
Si

  1 (u + v) > 0

x>0 2
⇒ 1
y>0  (v − u) > 0

 2
 v > −u
⇒ v>u
u∈R

 fU,V (u, v) = |J| fX,Y [x(u, v, y(u, v)]




∂x ∂x
|J| =
∂u ∂v
∂y ∂y
∂u ∂v


1/2 1/2
=
−1/2 1/2
1 1
= +
4 4
1
=
2
Donc,
1 2 −θv
(
θ e Si − v < u < v
fU,V (u, v) = 2
0 Sinon
 Le domaine de dénition du couple (U, V ) n'est pas réctangulaire (−v < u < v), U et V sont
dépendants
2. Détermination des Lois marginales de U et V
 Loi Marginale de U : on distingue deux cas:
 Si u < 0 donc, u > −v ⇔ v > −u
Z
f (u) = f (u, v) dv
DV
Z +∞
1 2 −θv
= θ e dv
−u 2
 +∞
1 2 1 −θv
= θ − e
2 θ −u
1 θu
= θe
2
 u > 0 donc, v > u
Z
f (u) = f (u, v) dv
DV
Z +∞
1 2 −θv
= θ e dv
u 2
 +∞
1 2 1 −θv
= θ − e
2 θ −u
1 −θu
= θe
2
Alors, 
 1 θeθu

Si u < 0
fU (u) = 2
 1 θe−θu
 Si u > 0
5 2
 Loi marginale de V
Z
fV (v) = f (u, v) du
D
Z vu
1 2 −θv
= θ e dv
−v 2
1 2 −θv v
= θ e [u]−v
2
θ2 ve−θv Si v > 0

=
0 Sinon

U
3. Détermination de la loi de W =
V
(
Z=V 
V =Z
 Soit U ⇔
W = U = Z.W
V
u
 Domaine de dénition: −v < u < v ⇒ −1 < − w < 1
v
 fW,Z (w, z) = |J| fX,Y (u (w, z) , v(w, z))

∂u ∂u

dz ∂w
|J| = ∂v ∂v

∂z ∂w


w z
=
1 0
= |−z|
= z

1
fW,Z (w, z) = z. θ2 e−θz
2
1 2 −θz
(
θ ze Si 0 < w < 1, z > 0
= 2
0 Sinon

 Densité margianle de W
Z
f (w) = f (w, z) dz
DZ
Z +∞
1 2 −θz
= θ ze dz
0 2
Z +∞
1 2
= θ ze−θz dz
2 0

u0 = 1
 (
u=z
soient ⇒ 1
v 0 = e−θz v = − e−θz
θ
 +∞ Z +∞
1 2 1 1
f (w) = θ − ze−θz + θ e−θz dz
2 θ 0 2 0
1  −θz +∞
= − e 0
2
1
(
Si − 1 < w < 1
= 2
0 Sinon

Bonne Chance
6
Université de Manouba Principes et méthodes 2ème année
École Nationale des Sciences statistiques A.U: 2017-2018
de l’Informatique Devoir surveillé Sem: I
A. Alleli, F. Kadhi, O. Oueslati Durée: 2h 17-11-2017

N.B: Aucun document n’est autorisé. Les téléphones portables doivent être rangés dans
les sacs. L’échange du matériel est strictement interdit. Toute tentative de fraude sera
sévèrement sanctionnée.

Exercice 1. (5 points)
Dans un article de la revue ”Biometrica”, le biologiste Latter donne la longueur (en mm)
des œufs de Coucou trouvés dans les nids de deux espèces d’oiseaux:

• dans des nids de petite taille (Roitelet):

19.8, 22.1, 21.5, 20.9, 22.0, 21.0, 22.3, 21.0, 20.3, 20.9, 22.0, 22.0, 20.8, 21.2, 21.0

• dans des nids de taille plus grande (Fauvette):

22.0, 23.9, 20.9, 23.8, 25.0, 24.0, 23.8, 21.7, 22.8, 23.1, 23.5, 23.0, 23.1, 23.0

On veut savoir si le coucou adapte la taille de ses œufs à la taille des nids.

1. Calculer la taille moyenne des œufs dans chaque type de nid.


21.3
23.1

2. Déterminer la médiane empirique pour chaque type.


21.0
23.1

3. Écrire le code du logiciel R qui permet d’enregistrer les observations dans un vecteur
v et de calculer la moyenne empirique.
v¡-c(19.8,. . . ,21.0)
mean(v)

4. Calculer la variance pour les deux types de nid.


0.5
1,10

Page 1 de 4
5. On définit le coefficient de variation de l’échantillon par
sn
cvn =
x¯n
L’intérêt de cet indicateur est qu’il est sans dimension. Une pratique empirique
courante est de considérer que l’échantillon possède une variabilité significative si
cvn > 0.15. Si cvn ≤ 0.15, les données présentent peu de variabilité et on considère
que la moyenne empirique a elle seule est un bon résumé de tout l’échantillon.
Calculer le coefficient de variation empirique des deux types. Commenter. 0.03
0.045
Comentaire: la moyenne resume bien l ’echantillon dans les dwux cas. Le coucou
adapte ses oeufs a la taille de nid.
Exercice 2. (5 points)
Une entreprise vend des imprimantes de bas de gamme fabriquées en grande série, mais
10% d’entre elles présentent un défaut de fabrication. Un revendeur reçoit un lot de 100
imprimantes.
1. Quelle est la probabilité qu’il trouve dans ce lot:

(a) moins de 15% d’imprimantes défectueuses?


0.95

(b) plus de 10%?


0.5

2. Deux contrôleurs de la qualité s’occupent chacun d’un lot de 100 imprimantes qu’ils
examinent avec soin. Quelle est la probabilité que l’un d’eux trouve dans son lot au
plus 2 imprimantes défectueuses de plus que son collègue dans le sien?
2π(0.47) − 1 = 0.36
Exercice 3. (10 points)
Soit (X1 , . . . , Xn ) un échantillon aléatoire d’une v.a X dont la densité est définie par
 x 2
exp(− x2θ ) si x > 0
fθ (x) = θ
0 sinon

1. Analyse probabiliste

(a) Vérifier que fθ satisfait les deux conditions d’une densité de probabilité.
q
(b) Montrer que E(X) = π.θ 2
. On pourra utiliser la technique de l’intégration
par partie et la d.d.p d’un loi normale.
(c) Soit la variable aléatoire Y = 12 X 2 . Montrer que Y suit une loi exponentielle
de paramètre 1θ .
(d) Déteminer la fonction génératrice de Y
(e) En déduire l’espérence de Y et la variance de Y

2. Inférence du paramètre θ

(a) Déterminer θbM M l’estimateur des moments de θ.


(b) Trouver l’estimateur du maximum de vraisemblance θbM V .

Page 2 de 4
(c) Montrer que θbM V est un estimateur sans biais de θ
(d) Étudier la convergence de θbM V
(e) Calculer la quantité d’information de Fisher en θ.
(f) Étudier l’efficicaité de θbM V

solution
1. Analyse probabiliste
x2 2
(a) E(X) =+∞
0 θ
. exp(− xθ )dx

en procédant par une intégration par partie ona


2 0
u(x) = xθ =⇒ u (x) = 2x θ
0 2 2
v (x) = exp(− xθ ) θ
=⇒ v(x) = − 2x exp(− xθ )

x2 x2
E(X) =+∞
0 . exp(− )dx
θ θ
+∞
x2 x2

2x 2x θ
= . exp(− ) −+∞
0 − exp(− )dx
θ θ 0 θ 2x θ
√ +∞ 1 x2
= 0 + 2πθ0 √ exp(− )dx
2πθ θ

r
1 πθ
= 2πθ. =
2 2

√ √
(b) GY (y) = P (y < y) = P ( 12 X 2 < y) = P (x < 2y) = FX ( 2y)
(c) soit gY (y) la densité de probabilité de Y avec y > 0


dGY (y) p 2 −1/2
gY (y) = = fθ ( 2y). y
dy 2

2y y 1
= exp(− ). √ y −1/2 .
θ θ 2
1 y
= exp(− )avecy > 0
θ θ

donc Y suit la loi exponentielle de paramètre 1θ


(d) notons la fonction génératrice des moments de Y: MY (t) pour t¡ 1θ

1 y
MY (t) = E(exp(Y t)) =+∞
0 exp(− ). exp(yt)dy
θ θ
(1 − θt) (1 − θt)
=+∞
0 (1 − θt)−1 . exp(− y).dy
θ θ
+∞ (1 − θt) (1 − θt)
= (1 − θt)−1
0 exp(− y).dy
θ θ
= (1 − θt)−1

1
donc MY (t) = (1 − θt)−1 pour t < θ

Page 3 de 4
(e)
0
MY (t) = (1 − θt)−2 θ
00
M (t) = 2(1 − θt)−3 θ2
0
E(Y ) = MY (t) |t=0 = θ
00
E(Y 2 ) = MY (t) t=0 = 2θ2

V ar(Y ) = θ2

2. Inférence du paramètre θ

(a) L’estimateur de θ par la méthode des moments θbM M est telque


q
π θbM M
E(X) = 2
= X n où X n est la moyenne empirique de l’échantillon
2
2.X
donc θbM M = π n
(b) On cherche l’estimateur du maximum de vraisemblance θbM V deθ.

La fonction de vraisemblance d’unéchantillon de n variables aléatoires est


n
1 1 n 2
L(θ/x1 , ...xn ) = ( Π
θ i=1 i
n x ). exp(− 2θ xi )
i=1
et sa Log-vraisemblance est
1 n 2
l(θ/x1 , ...xn ) = −n.Log(θ) + n Log(x )
i − x
2θ i=1 i
i=1

Dérivons cette dernière pour trouver l’estimateur θbM V




l(θ/x1 , ...xn ) = − nθ + 2θ12 n x2i
i=1
1 n 2
=⇒ θbM V = x
2n i=1 i

(c) Nous savons que Y = 21 Xi2 est distribuée selon une loi exponentielle de paramètre 1
θ
son
espérence vaut θ . On en déduit
X2
E(θbM V ) = E( 1 n X 2 ) = 1 n E( i ) = θ
n i=1 i n i=1 2

donc θbM V est estimateur sans biais de θ


X2
(d) Var(θbM V ) = V ar( n1 n Xi2 ) = n12 n V ar( 2i ) = 1
n2
.n.θ2 = n1 θ2
i=1 i=1

limV ar(θbM V ) = 0 puisque θbM V est estimateur sans biais de θ donc c’est un estimateur
n→+∞
convergent
(e) Calculons l’information de Fisher
∂ c
∂θ
Log(fθ (x)) = − 1θ + xθ2

∂2 1 c
∂θ2
Log(fθ (x)) = θ2
− 2 xθ3
c
I(θ) = −E( θ12 − 2 xθ3 ) = − θ12 + 2 θ13 E(X c ) = 1
θ2

n
In (θ) = nI(θ) = θ2
(f) La borne de Cramèr-Rao pour un estimateur non biaisé de θ est par conséquent

Page 4 de 4
θ2
BCR= n
= V ar(θbM V )

L’estimateur θbM V est donc à variance minimale

Bonne chance

Page 5 de 4
122 Chapitre 8 - Annexe B : Lois de probabilité usuelles

8.2 Tables de lois


8.2.1 Table 1 de la loi normale centrée réduite
U étant une variable aléatoire de loi N (0, 1), la table donne la valeur de φ(u) = P (U ≤
u). En R, la commande correspondante est pnorm(u).

u 0.0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389

1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767

2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986

Lecture de la table : φ(1.25) = φ(1.2 + 0.05) = 0.8944.

Grandes valeurs de u
u 3.0 3.5 4.0 4.5
φ(u) 0.9987 0.99977 0.999968 0.999997

Vous aimerez peut-être aussi