0% ont trouvé ce document utile (0 vote)
66 vues44 pages

Vecteurs Aléatoires

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 44

Vecteurs Aléatoires

Chapitre 3

Institut National des Postes et Télécommunications. Copyright c M. Fekri

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 1 / 44


Couples de Variables Aléatoires

Soit X et Y deux variables aléatoires réelles définies sur le même espace


fondamentale Ω.
On appelle loi de probabilité d’un couple (X , Y ) de variables aléatoires à
valeurs dans R, l’application qui permet d’associer à tout couple
d’intervalles I et J, de R, la probabilité de l’événement (X ∈ I , Y ∈ J).
1) Cas discret
Soit X (resp. Y ) Une v.a. à valeurs dans {x1 , x2 , . . .}. (resp. {y1 , y2 , . . .}).
La loi de probabilité est entièrement déterminée par la connaissance de (loi
conjointe) n o
\
pij = P (X = xi ) (Y = yj )

Si, à partir de la loi du couple (X , Y ), on veut déterminer la loi de X et


celle de Y on a :

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 2 / 44


Loi marginale de X :
\[
P(X = xi ) = P{(X = xi ) ( (Y = yj ))}
j
X  \ 
= P X = xi Y = yj
j
X
= pij = pi+
j

Warning ! Les lois marginales ne suffisent pas à définir la loi jointe (de
même que les marges d’un tableau ne suffisent pas à définir le tableau)

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 3 / 44


On jete une pièce 3 fois et on considère les v.a.
* X = nombre de faces
* Y = numéro du jet dans lequel apparaı̂t face pour la 1ère fois. On
posera Y = 0 s’il n’y a pas de face.

Y

X 0 1 2 3 


0 1/8 0 0 0 1/8 



1 0 1/8 1/8 1/8 3/8 
P{X = x}
2 0 1/4 1/8 0 3/8 

3 0 1/8 0 0 1/8 




1/8 1/2 1/4 1/8

| {z }
P{Y =y }

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 4 / 44


2) Cas continu : Soit X et Y deux variables aléatoire réelles.
La fonction de répartition du couple (X , Y ) est :
n \ o
H(x, y ) = P (X ≤ x) (Y ≤ y )

R × R −→ [0, 1]
les fonctions de répartition marginales sont données par :
FX (x) = lim H(x, y ) = P(X ≤ x)
y →+∞

FY (y ) = lim H(x, y ) = P(Y ≤ y )


x→+∞
Si de plus (X , Y ) admet une densité h(x, y ) alors (en tout point de
continuité de h) on a :
∂ 2 H(x, y )
h(x, y ) =
∂x∂y
Et les densités marginales sont données par :
Z Z
fX (x) = h(x, y )dy fY (y ) = h(x, y )dx
R R

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 5 / 44


Exemple : Soit (X , Y ) un couple de variables aléatoires, à valeurs réelles,
de densité de probabilité :
 −x
e si x ≥ y ≥ 0
h(x, y ) =
0 sinon

La densité de la variable aléatoire X est donnée par :


Z x
∀x ∈ R+ , fX (x) = e−x dy = xe−x
0

et fX (x) = 0 ailleurs.
La densité de la variable aléatoire Y est donnée par :
Z +∞
∀y ∈ R+ , fY (y ) = e−x dx = e−y
y

et fY (y ) = 0 ailleurs.
Warning ! Comme dans le cas discret, les densités marginales fX et fY ne
suffisent pas à définir la loi jointe f(X ,Y ) .
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 6 / 44
Proposition ( Indépendances )
Deux v.a. X et Y sont indépendantes SSI

∀x, y H(x, y ) = FX (x)FY (y )

Cette définition est remplacée, pour les couples discrets et pour les couples
à densité, par une définition équivalente et plus commode à manipuler.
Dans le cas discret :
P(X = xi , Y = yj ) = P(X = xi )P(Y = yj ).
Dans le cas continu :
h(x, y ) = fX (x)fY (y ).
Exemples
• Dans l’exemple concernant la répartition du nombre de faces pour les
trois lancer, on a p01 = P(X = 0, Y = 1) = 0. Or on attend si X et Y
sont indépendantes à ce que
1 1
P(X = 0, Y = 1) = P(X = 0) × P(Y = 1) = × .
8 2
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 7 / 44
• Une urne contient trois boules numérotées 1,2,3. On tire successivement
et avec remise, deux boules. On peut associer à cette expérience un couple
(X , Y ) de variables aléatoires discrètes, X représentant le numéro que l’on
peut obtenir en premier et Y représentant le numéro que l’on peut obtenir
en second. La loi du couple (X , Y ) est donnée par le tableau :

Y
X 1 2 3
1 1/9 1/9 1/9
2 1/9 1/9 1/9
3 1/9 1/9 1/9

Les variables aléatoires X et Y sont indépendantes.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 8 / 44


Définition
X
z }| {
On appelle fonction caractéristique de (X1 , X2 ) la fonction :

ϕX : R2 −→ C
a 7→ ϕX (a) = E (exp(i < a, X >)
= E (exp(i(a1 X1 + a2 X2 ))

Proposition
Les composantes X1 et X2 de X sont indépendantes SSI

ϕX (a1 , a2 ) = ϕX1 (a1 )ϕX2 (a2 )

Théorème ( Cramer-Wold )
La loi de X = (X1 , X2 ) est entièrement déterminée par celle de toutes les
combinaisons linéaires de ses composantes.
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 9 / 44
Espérances conditionnelles
1er cas : X et Y sont discrètes.
La loi conditionnelle de X sachant que Y = yj est :

P(• / Y = yj ) : {x1 , x2 , . . .} −→ [0, 1]


pij
xi 7→ P(X = xi / Y = yj ) =
p+j

* Si on connaı̂t la loi de X à Y fixée et celle de Y on en déduit la loi du


couple.

P(X = xi /Y = y )P(Y = y )
∗ P(Y = y /X = xi ) = P
j P(X = xi /Y = yj )P(Y = yj )

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 10 / 44


Définition
On appelle espérance de Y sachant que X = x et note E (Y /X = x) la
quantité définie par :
X
E (Y / X = x) = yP(Y = y /X = x) = ϕ(x)
y

Définition
On appelle espérance conditionnelle de Y sachant X : E (Y /X ) = ϕ(X ).

Remarque :
Si X et Y sont indépendantes alors E (Y /X ) = E (Y ).
E (f (X )/X ) = f (X ).
E (E (Y /X )) = E (Y ).

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 11 / 44


Application :
Considérons X1 , X2 deux v.a. indépendantes de même loi de probabilité
définie par :

P(X1 = k) = p(1 − p)k−1 k = 1, 2, . . . p ∈]0, 1[.

Soient Y = X1 et X = X1 + X2 .
a) Déterminer la loi de probabilité de X
b) Déterminer, pour n ≥ 2, la loi de probabilité de Y sachant X = n.
c) Calculer E (Y /X ).

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 12 / 44


a) X prend les valeurs {2, 3, . . .}. Pour n ≥ 2,
n−1
X
P(X = n) = P(X1 = k, X2 = n − k) = (n − 1)p 2 (1 − p)n−2 .
k=1
b) Pour n ≥ 2

1
P(Y = k/X = n) = P(X1 = k, X2 = n − k)
P(X = n)
(
0 si k ≥ n
= 1 1
(n−1)p 2 (1−p)n−2
.p(1 − p)k−1 p(1 − p)n−k−1 = n−1 si k < n

c)
n−1 n−1
X 1 X n
ϕ(n) = E (Y /X = n) = kP(Y = k/X = n) = k= ,
n−1 2
k=1 k=1

X
E (Y /X ) =
2

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 13 / 44


2ième cas X discrète et Y continue.
La fonction de répartition conditionnelle de Y sachant X = x est donnée
par :
P(Y ≤ y , X = x)
G (y /x) = P(Y ≤ y /X = x) =
P(X = x)
La densité conditionnelle est :
∂G (y /x)
g (y /x) =
∂y
Z
E (Y /X = x) = yg (y /x)dy
R

Application
Soit Y une v.a. suivant une loi uniforme sur [0, 10] et X = [Y ].
a) Quelle est la loi suivie par X .
b) Déterminer, poux x ∈ {0, 1, . . . , 9}, la densité conditionnelle de Y
sachant X = x.
c) Calculer E (Y /X ).
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 14 / 44
Généralisation :

Définition
Soit (X , Y ) un couple de variables aléatoires de densité conjointe h. On
définit la densité conditionnelle de Y sachant X = x lorsque fX (x) > 0 par
la relation
h(x, y )
g (y |x) = .
fX (x)

l’espérance conditionnelle de Y sachant X = x est :


Z
E (Y |X = x) = yg (y |x)dy
R

Définition
La variable aléatoire qui prend les valeurs E (Y |X = x) avec la densité
fX (x) est appelée espérance conditionnelle de Y sachant X et on la note
E (Y |X ).

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 15 / 44


Proposition
Soit (X , Y ) un couple de variables aléatoires réelles. Pour toute fonction
réelle mesurable ψ, on a

E (ψ(X )E (Y |X )) = E (ψ(X )Y ) .

On suppose que le couple (X , Y ) admet une densité.

E (ψ(X )Y ) = E (E (ψ(X )Y |X ))
Z
= E (ψ(x)Y |X = x) fX (x)dx
ZR

= ψ(x)E (Y |X = x) fX (x)dx = E (ψ(X )E (Y |X ))


R

φ(X ) = E (Y |X ) est l’unique variable aléatoire réelle (fonction de X ) telle


que
E (ψ(X )Y ) = E (ψ(X )φ(X )) , ∀ψ

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 16 / 44


En conclusion, retenons les résultats :
Y une v.a.r. X −→ E ; fini, dénombrable ou R
• ∃ une distribution conditionnelle de Y sachant X = x.
• Si le couple (X , Y ) est à valeur dans R2 de densité h(x, y )
h(x, y ) h(x, y )
g (y |x) = f (x|y ) = .
fX (x) fY (y )
R
et on a E (Y |X = x) = R yg (y |x)dy
• Si E (Y ) < +∞
Z
E (Y |X = x) = ydPY (y |X = x).
R

et E (E (Y |X )) = E (Y ).
• Si V (Y ) existe on a V (Y ) = E (V (Y |X )) + V (E (Y |X )).
• Ainsi que les formules de Bayes pour les densités :
f (x|y )fY (y ) g (y |x)fX (x)
g (y |x) = R f (x|y ) = R .
R f (x|y )fY (y )dy R g (y |x)fX (x)dx

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 17 / 44


Application :
On considère un couple (X , Y ) de densité

f (x, y ) = 2e−(x+y ) 1I{y ≥x≥0} .

a) Quelle est la loi de la variable aléatoire X .


b) Déterminer, pour x ≥ 0, la densité conditionnelle de Y sachant X = x.
c) Calculer E (Y |X ) et en déduire E (Y ).

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 18 / 44


Il arrive que l’on puisse observer la valeur d’une variable aléatoire X et
qu’ensuite, on souhaite prédire la valeur d’une autre v.a. Y en se fondant
sur ce que l’on sait sur X .
Admettons par exemple que X soit une variable financière observée au
temps t et que l’on cherche à prédire l’évolution de cette variable au
temps t + 1. On note donc Y la valeur au temps t + 1.
On cherche un prédicteur de Y , c.à.d une v.a. g (X ) la plus proche de Y
−→ critère de précision

minimiser E [(Y − g (X ))2 ]

Proposition
Soit X et Y deux v.a. de carré intégrable. Pour toute fonction mesurable
g telle que E [g 2 (X )] < ∞, on a :

E [(Y − g (X ))2 ] ≥ E [(Y − E (Y |X ))2 ]

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 19 / 44


On note L2 l’espace des v.a. de carré intégrable, on le muni du produit
scalaire < X , Y >= E (XY ).

On note L2X = ϕ(X ); E ϕ2 (X ) < +∞ .


 

πX (Y ) = E (Y |X ) est la projection orthogonale de Y sur L2X .

πX est idempotent : πX (πX (Y )) = πX (Y ).

πX est auto-adjoint : < Z , πX (Y ) >=< πX (Z ), Y >

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 20 / 44


πX (πX (Y )) = E (E (Y |X )|X ) = E (Y |X ) = πX (Y )
donc πX est idempotent.

< Z , πX (Y ) > = E (Z πX (Y )) = E (E (Z πX (Y )|X ))

= E (πX (Y )E (Z |X )) = E (πX (Y )πX (Z ))

= E (πX (Z )E (Y |X )) = E (E (Y πX (Z )|X ))

= E (Y πX (Z )) =< πX (Z ), Y >

donc πX est auto-adjoint.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 21 / 44


Vecteurs aléatoires : Soit (Ω, C, P) un espace probabilisé.
X : Ω −→ Rn
ω 7→ X (ω) = (X1 (ω), . . . , Xn (ω))0
∀B ∈ βRn X −1 (B) = {ω ; X (ω) ∈ B} ∈ C

Fonction de répartition
F : Rn −→ [0, 1]
(x1 , . . . , xn ) 7→ F (x1 , . . . , xn ) = P(X1 ≤ x1 , . . . , Xn ≤ xn )
Densité
∂nF
f (x1 , . . . , xn ) =
∂x1 ∂x2 . . . ∂xn
Z Z
∀B ∈ βRn : P(X ∈ B) = . . . f (x1 , . . . , xn )dx1 . . . dxn
B
Z Z
fXi (xi ) = ... f (x1 , . . . , xn )dx1 . . . dxi−1 dxi+1 . . . dxn
Rn−1

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 22 / 44


Indépendance
Les composantes du v.a. X = (X1 , . . . , Xn )0 sont indépendantes SSI
n
Y
FX (x1 , . . . , xn ) = FXi (x i )
i=1
n
Y
(⇐⇒ fX (x1 , . . . , xn ) = fXi (xi ))
Covariance i=1

Cov(X1 , X2 ) = E [(X1 − E (X1 ))(X2 − E (X2 ))]


= E (X1 X2 ) − E (X1 )E (X2 ).
Si X1 et X2 sont indépendantes alors Cov(X1 , X2 ) =0.
Attention : La réciproque est fausse !
Soit X1 une v.a. discrète telle que
1
P(X1 = 1) = P(X1 = 2) = P(X1 = −1) = P(X1 = −2) =
4
On pose X2 = X12 . Alors E (X1 X2 ) = E (X13 ) = 0, et Cov(X1 , X2 ) = 0
1 1
P(X1 = 1, X2 = 4) = 0 6= × = P(X1 = 1)P(X2 = 4)
4 2
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 23 / 44
• Propriétés : Si X1 et X2 admettent un moment d’ordre 2 alors :
(i) Cov(X1 , X2 )=Cov(X2 , X1 )
(ii) Cov(X , X ) = V(X).
(iii) Cov(aX1 + b, cX2 + d) = acCov(X1 , X2 ) pour tout réels a, b, c et d.
(iv) V (X1 + X2 ) = V (X1 ) + V (X2 ) + 2Cov(X1 , X2 )
Corrélation
Cov(X1 , X2 )
ρX1 ,X2 = |ρX1 ,X2 | ≤ 1
σX1 σX2

Théorème
|ρX1 ,X2 | = 1 SSI ∃ a et b tels que : X2 = aX1 + b p.s.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 24 / 44


• Soit X = (X1 , . . . , Xn )0 un v.a.. Si X1 , . . . , Xn admettent toutes un
moment d’ordre 1, alors le vecteur E (X ) = (E (X1 ), . . . , E (Xn ))0 est appelé
l’espérance du v.a. X .
Matrice de variance-covariance :
 2 
σ1 Cov(X1 , X2 ) . . . Cov(X1 , Xn )
 σ22 . . . Cov(X2 , Xn ) 
Σ=
 
.. 
 . 
σn2

= E (X − E (X ))(X − E (X ))0 = E (XX 0 ) − E (X )E (X )0




Si A est une matrice m × n non aléatoire, alors

Var(AX ) = AΣA0

La matrice Σ est semi-définie positive : i.e.


X
∀a ∈ Rn a0 Σa = σij ai aj ≥ 0
1≤i,j≤n

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 25 / 44


Exemple : Soit X un v.a. à valeurs dans Rn de matrice de
variance-covariance Σ supposée régulière. Calculer l’espérance de la v.a.
D 2 = (X − E (X ))0 Σ−1 (X − E (X )).
Matrice de corrélation :
 
1 ρ12 . . . ρ1n
1 1
 1 . . . ρ2n 
R = (diagΣ)− 2 Σ(diagΣ)− 2 = 
 
.. 
 . 
1

Fonction caractéristique

 
n
X
ϕX (a) = E exp(i aj Xj )
j=1
Z Z n
X
= ... exp(i aj xj )f (x1 , . . . , xn )dx1 . . . dxn
Rn j=1

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 26 / 44


Transformation Multiple de Variables Aléatoires
Considérons X (resp. Y ) un n-vecteur (resp. m) aléatoire.
Supposons que leurs composantes sont reliées par

Y1 = h1 (X1 , . . . , Xn )

Y2 = h2 (X1 , . . . , Xn )
..
.
Ym = hm (X1 , . . . , Xn )
Etant donné la densité de probabilité fX , le problème est de calculer fY .
1er cas : h un difféomorphisme.

fh(X ) (x) = fX (h−1 (x))|detJh−1 (x)|

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 27 / 44


Exemple
Calculer la loi d’une somme et d’une différence de deux v.a. indépendantes.
Soit h : (u, v ) 7→ (u + v , u − v ) h−1 : (x, y ) 7→ ( x+y x−y
2 , 2 )

1/2 1/2
detJh−1 = = −1/2
1/2 −1/2
1 x +y x −y
fh(X ) (x, y ) = fX ( , )
2 2 2
x +y x −y
Z
1
fX1 +X2 (x) = fX ( , )dy
2 R 2 2
x +y
On pose u = ,
2
Z Z
fX1 +X2 (x) = fX1 (u)fX2 (x − u)du fX1 −X2 (x) = fX1 (u + x)fX2 (u)du.
R R

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 28 / 44


2ième cas : h n’est pas un difféomorphisme par défaut de bijectivité
méthode A : Compléter l’espace des valeurs de h.
X
Exemple : Soit X et Y deux v.a. indépendantes. Quelle est la loi de ?
Y
x x
h(x, y ) = ; on complète h grâce à la fonction g (x, y ) = ( , y ).
y y
fg (X ,Y ) (u, v ) = f(X ,Y ) (g −1 (u, v ))|detJg −1 (u, v )|
or g −1 (u, v ) = (uv , v ) et |detJg −1 (u, v )| = |v |.
D’où
Z
f X (u) = fX (u.v ).fY (v )|v |dv .
Y
R

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 29 / 44


méthode B :
• h est bijective sur chacun des sous-ensembles Oi
q
[
Oi = O (= Rn ).
i=1

q
X
fh(X ) (x) = fX (hi−1 (x))|detJh−1 (x)|1Ihi (Oi ) (x).
i
i=1

Exemples :
1) Soit X une v.a. de loi U(−1, 1) et h : x 7−→ x 2 .
1 √ √
fX 2 (y ) = √ (fX (− y ) + fX ( y )) .1I]0,1[ (y )
2 y
 
1 1 √ 1 √
= √ 1I (− y ) + 1I]−1,1[ ( y ) .1I]0,1[ (y )
2 y 2 ]−1,1[ 2
1
= √ 1I (y ).
2 y ]0,1[
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 30 / 44
2) Soit X et Y des v.a. indépendantes de densité respective fX et fY .
Quelle est la loi de (inf(X , Y ), sup(X , Y )) ?

On pose h(x, y ) = (inf(x, y ), sup(x, y )),


et on note O1 = {(x, y ); x ≤ y } et O2 = {(x, y ); x > y }.

Sur O1 ; h1 (x, y ) = (x, y ).

Sur O2 ; h2 (x, y ) = (y , x) et h2−1 (x, y ) = (y , x).

Donc

fh(X ,Y ) (x, y ) = fX (x)fY (y )1Ih1 (O1 ) (x, y ) + fX (y )fY (x)1Ih2 (O2 ) (x, y )
= [fX (x)fY (y ) + fX (y )fY (x)] 1I{x≤y } .

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 31 / 44


• méthode de la fonction de répartition :

Exprimer Fh(X ) en fonction de FX .

Soient X1 , . . . , Xn n v.a. indépendantes et de même loi.

Quelle est la loi de Y = min Xi .


i=1,...,n

——– S1 ——– S2 - - - - - - Sn ——–


——–X1 ———X2 - - - - - - - Xn ——–

Y = durée de vie du système ainsi formé.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 32 / 44


• Calcul de loi de la somme de v.a. indépendantes
Xn
Soit Y = Xi , où les Xi sont indépendantes et à densité.
i=1

Z n
1 Y
fY (y ) = exp(−ity ) ϕXj (t) dt.
2π R j=1

Très utile si on veut calculer la loi de somme infinie de v.a. indépendantes.


Exemple
Soient n v.a. indépendantes X1 , . . . , Xn telles que
1
P(Xi = 1) = P(Xi = −1) = ∀i
2
n
X 1
Calculer ϕYn (t) avec Yn = Xi . En déduire la loi de Yn pour n assez
2i
i=1
grand.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 33 / 44


Vecteurs aléatoires gaussiens
Définition
X est un p-vecteur gaussien si ∀a ∈ Rp a0 X est une v.a. gaussienne à une
dimension.
On notera Np (µ, Σ) la loi normale à p dimensions d’espérance µ et de
matrice de variance Σ.
On suppose que µ = 0.

Théorème
 
1 0
ϕX (a) = exp − a Σa où Σ est la matrice de variance-covariance de X .
2

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 34 / 44


Théorème
Les composantes d’un vecteur gaussien X sont indépendantes SSI Σ est
diagonale.

Σ inversible

Définition
Si Σ est régulière X admet pour densité :
 
1 1 0 −1
f (x1 , . . . , xp ) = p 1 exp − (x − µ) Σ (x − µ) .
(2π) 2 (detΣ) 2 2

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 35 / 44


Exercice 1
Soient X1 , . . . , Xn des v.a.r. indépendantes de loi N(0, 1), et a1 , . . . , an ,
b1 , . . . , bn ∈ R. Montrer que :
n
X n
X n
X
Y = ai Xi et Z = bi Xi sont indépendantes ssi ai b i = 0
i=1 i=1 i=1

Exercice 2
Soit X une variable aléatoire de loi N(0, 1) et Z une variable aléatoire
1
prenant les valeurs −1 et 1 avec la probabilité . On suppose que X et Z
2
sont indépendantes et on pose Y = XZ .
1) Montrer que Y suit la loi N(0, 1).
2) Calculer la covariance et la corrélation de X et Y .
3) Calculer
  P(X + Y = 0).
X
4) est-il gaussien ? Les v.a. X et Y sont-elles indépendantes ?
Y

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 36 / 44


Propriétés de la loi normale à p dimensions
X ∼ Np (µ, Σ)
(P1) Soit Σ une matrice régulière, le vecteur aléatoire Y = Σ−1/2 (X − µ)
suit une loi Np (0, Ip )
(P2) Les projections a0 X de X , pour tout a ∈ Rp , sont des variables
aléatoires normales univariées. En particulier, les densités marginales
de la loi Np (µ, Σ) sont normales univariées. La réciproque n’est pas
vrai !
(P3) Toute transformation linéaire d’un vecteur normal est un vecteur
normal : si Y = AX + c où c ∈ Rq et A une matrice q × p, alors Y
suit une loi Nq (Aµ + c, AΣA0 ).
(P4) Soit σ 2 > 0. La loi Np (0, σ 2 Ip ) est invariante par rapport aux
transformations orthogonales.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 37 / 44


(P5) Tout sous-ensemble de composantes d’un vecteur gaussien à p
0 0 0
dimensions est un vecteur gaussien : Soit X = (X1 , X2 ) , où X1 ∈ Rq
et X2 ∈ Rp−q , alors X1 et X2 sont, respectivement, des vecteurs
gaussiens à q et p − q dimensions.
(P6) Deux vecteurs gaussiens en couple sont indépendants si et seulement
s’ils sont non-corrélés.

• SoitX un p-vecteur aléatoire


et Y unq-vecteur
 aléatoire tel
que
X µX ΣX ΣXY
suit une gaussienne N , 0
Y µY ΣXY ΣY
(On suppose que ΣY est inversible)
Conditionnellement à Y = y ; X suit une gaussienne
0
N (µX + ΣXY Σ−1 −1
Y (y − µY ) , ΣX − ΣXY ΣY ΣXY ).

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 38 / 44


0.16

0.14

0.12

0.1

Z 0.08

0.06

0.04

0.02

0
4

2 4
2
0
0
−2
−2
−4 −4
Y
X

ρ=0

Quelques surfaces de densité correspondant à σ1 = σ2 = 1 et à diverses


valeurs de ρ.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 39 / 44


0.18 0.18

0.16 0.16

0.14 0.14

0.12 0.12

0.1 0.1
Z

Z
0.08 0.08

0.06 0.06

0.04 0.04

0.02 0.02

0 0
4 4

2 4 2 4
2 2
0 0
0 0
−2 −2
−2 −2
−4 −4 −4 −4
Y Y
X X

ρ = 0.4 ρ = −0.4

0.4 0.4

0.35 0.35

0.3 0.3

0.25 0.25

0.2 0.2
Z

0.15 0.15

0.1 0.1

0.05 0.05

0 0
4 4

2 4 2 4
2 2
0 0
0 0
−2 −2
−2 −2
−4 −4 −4 −4
Y Y
X X

ρ = 0.9 ρ = −0.9
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 40 / 44
4

−1

−2

−3

−4
−4 −3 −2 −1 0 1 2 3 4

ρ=0

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 41 / 44


4 4

3 3

2 2

1 1

0 0

−1 −1

−2 −2

−3 −3

−4 −4
−4 −3 −2 −1 0 1 2 3 4 −4 −3 −2 −1 0 1 2 3 4

ρ = 0.4 ρ = −0.4
4 4

3 3

2 2

1 1

0 0

−1 −1

−2 −2

−3 −3

−4 −4
−4 −3 −2 −1 0 1 2 3 4 −4 −3 −2 −1 0 1 2 3 4

ρ = 0.9 ρ = −0.9
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 42 / 44
4

−1

−2

−3

−4
−4 −3 −2 −1 0 1 2 3 4

ρ=0

1000 réalisations d’un couple gaussien (X , Y )0 , où E (X ) = E (Y ) = 0,


σ 2 (X ) = σ 2 (Y ) = 1 et Cov(X , Y ) = ρ.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 43 / 44


4 4

3 3

2 2

1 1

0 0

−1 −1

−2 −2

−3 −3

−4 −4
−4 −3 −2 −1 0 1 2 3 4 −4 −3 −2 −1 0 1 2 3 4

ρ = 0.4 ρ = −0.4
4 4

3 3

2 2

1 1

0 0

−1 −1

−2 −2

−3 −3

−4 −4
−4 −3 −2 −1 0 1 2 3 4 −4 −3 −2 −1 0 1 2 3 4

ρ = 0.9 ρ = −0.9
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 44 / 44

Vous aimerez peut-être aussi