Vecteurs Aléatoires

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 44

Vecteurs Aléatoires

Chapitre 3

Institut National des Postes et Télécommunications. Copyright c M. Fekri

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 1 / 44


Couples de Variables Aléatoires

Soit X et Y deux variables aléatoires réelles définies sur le même espace


fondamentale Ω.
On appelle loi de probabilité d’un couple (X , Y ) de variables aléatoires à
valeurs dans R, l’application qui permet d’associer à tout couple
d’intervalles I et J, de R, la probabilité de l’événement (X ∈ I , Y ∈ J).
1) Cas discret
Soit X (resp. Y ) Une v.a. à valeurs dans {x1 , x2 , . . .}. (resp. {y1 , y2 , . . .}).
La loi de probabilité est entièrement déterminée par la connaissance de (loi
conjointe) n o
\
pij = P (X = xi ) (Y = yj )

Si, à partir de la loi du couple (X , Y ), on veut déterminer la loi de X et


celle de Y on a :

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 2 / 44


Loi marginale de X :
\[
P(X = xi ) = P{(X = xi ) ( (Y = yj ))}
j
X  \ 
= P X = xi Y = yj
j
X
= pij = pi+
j

Warning ! Les lois marginales ne suffisent pas à définir la loi jointe (de
même que les marges d’un tableau ne suffisent pas à définir le tableau)

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 3 / 44


On jete une pièce 3 fois et on considère les v.a.
* X = nombre de faces
* Y = numéro du jet dans lequel apparaı̂t face pour la 1ère fois. On
posera Y = 0 s’il n’y a pas de face.

Y

X 0 1 2 3 


0 1/8 0 0 0 1/8 



1 0 1/8 1/8 1/8 3/8 
P{X = x}
2 0 1/4 1/8 0 3/8 

3 0 1/8 0 0 1/8 




1/8 1/2 1/4 1/8

| {z }
P{Y =y }

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 4 / 44


2) Cas continu : Soit X et Y deux variables aléatoire réelles.
La fonction de répartition du couple (X , Y ) est :
n \ o
H(x, y ) = P (X ≤ x) (Y ≤ y )

R × R −→ [0, 1]
les fonctions de répartition marginales sont données par :
FX (x) = lim H(x, y ) = P(X ≤ x)
y →+∞

FY (y ) = lim H(x, y ) = P(Y ≤ y )


x→+∞
Si de plus (X , Y ) admet une densité h(x, y ) alors (en tout point de
continuité de h) on a :
∂ 2 H(x, y )
h(x, y ) =
∂x∂y
Et les densités marginales sont données par :
Z Z
fX (x) = h(x, y )dy fY (y ) = h(x, y )dx
R R

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 5 / 44


Exemple : Soit (X , Y ) un couple de variables aléatoires, à valeurs réelles,
de densité de probabilité :
 −x
e si x ≥ y ≥ 0
h(x, y ) =
0 sinon

La densité de la variable aléatoire X est donnée par :


Z x
∀x ∈ R+ , fX (x) = e−x dy = xe−x
0

et fX (x) = 0 ailleurs.
La densité de la variable aléatoire Y est donnée par :
Z +∞
∀y ∈ R+ , fY (y ) = e−x dx = e−y
y

et fY (y ) = 0 ailleurs.
Warning ! Comme dans le cas discret, les densités marginales fX et fY ne
suffisent pas à définir la loi jointe f(X ,Y ) .
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 6 / 44
Proposition ( Indépendances )
Deux v.a. X et Y sont indépendantes SSI

∀x, y H(x, y ) = FX (x)FY (y )

Cette définition est remplacée, pour les couples discrets et pour les couples
à densité, par une définition équivalente et plus commode à manipuler.
Dans le cas discret :
P(X = xi , Y = yj ) = P(X = xi )P(Y = yj ).
Dans le cas continu :
h(x, y ) = fX (x)fY (y ).
Exemples
• Dans l’exemple concernant la répartition du nombre de faces pour les
trois lancer, on a p01 = P(X = 0, Y = 1) = 0. Or on attend si X et Y
sont indépendantes à ce que
1 1
P(X = 0, Y = 1) = P(X = 0) × P(Y = 1) = × .
8 2
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 7 / 44
• Une urne contient trois boules numérotées 1,2,3. On tire successivement
et avec remise, deux boules. On peut associer à cette expérience un couple
(X , Y ) de variables aléatoires discrètes, X représentant le numéro que l’on
peut obtenir en premier et Y représentant le numéro que l’on peut obtenir
en second. La loi du couple (X , Y ) est donnée par le tableau :

Y
X 1 2 3
1 1/9 1/9 1/9
2 1/9 1/9 1/9
3 1/9 1/9 1/9

Les variables aléatoires X et Y sont indépendantes.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 8 / 44


Définition
X
z }| {
On appelle fonction caractéristique de (X1 , X2 ) la fonction :

ϕX : R2 −→ C
a 7→ ϕX (a) = E (exp(i < a, X >)
= E (exp(i(a1 X1 + a2 X2 ))

Proposition
Les composantes X1 et X2 de X sont indépendantes SSI

ϕX (a1 , a2 ) = ϕX1 (a1 )ϕX2 (a2 )

Théorème ( Cramer-Wold )
La loi de X = (X1 , X2 ) est entièrement déterminée par celle de toutes les
combinaisons linéaires de ses composantes.
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 9 / 44
Espérances conditionnelles
1er cas : X et Y sont discrètes.
La loi conditionnelle de X sachant que Y = yj est :

P(• / Y = yj ) : {x1 , x2 , . . .} −→ [0, 1]


pij
xi 7→ P(X = xi / Y = yj ) =
p+j

* Si on connaı̂t la loi de X à Y fixée et celle de Y on en déduit la loi du


couple.

P(X = xi /Y = y )P(Y = y )
∗ P(Y = y /X = xi ) = P
j P(X = xi /Y = yj )P(Y = yj )

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 10 / 44


Définition
On appelle espérance de Y sachant que X = x et note E (Y /X = x) la
quantité définie par :
X
E (Y / X = x) = yP(Y = y /X = x) = ϕ(x)
y

Définition
On appelle espérance conditionnelle de Y sachant X : E (Y /X ) = ϕ(X ).

Remarque :
Si X et Y sont indépendantes alors E (Y /X ) = E (Y ).
E (f (X )/X ) = f (X ).
E (E (Y /X )) = E (Y ).

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 11 / 44


Application :
Considérons X1 , X2 deux v.a. indépendantes de même loi de probabilité
définie par :

P(X1 = k) = p(1 − p)k−1 k = 1, 2, . . . p ∈]0, 1[.

Soient Y = X1 et X = X1 + X2 .
a) Déterminer la loi de probabilité de X
b) Déterminer, pour n ≥ 2, la loi de probabilité de Y sachant X = n.
c) Calculer E (Y /X ).

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 12 / 44


a) X prend les valeurs {2, 3, . . .}. Pour n ≥ 2,
n−1
X
P(X = n) = P(X1 = k, X2 = n − k) = (n − 1)p 2 (1 − p)n−2 .
k=1
b) Pour n ≥ 2

1
P(Y = k/X = n) = P(X1 = k, X2 = n − k)
P(X = n)
(
0 si k ≥ n
= 1 1
(n−1)p 2 (1−p)n−2
.p(1 − p)k−1 p(1 − p)n−k−1 = n−1 si k < n

c)
n−1 n−1
X 1 X n
ϕ(n) = E (Y /X = n) = kP(Y = k/X = n) = k= ,
n−1 2
k=1 k=1

X
E (Y /X ) =
2

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 13 / 44


2ième cas X discrète et Y continue.
La fonction de répartition conditionnelle de Y sachant X = x est donnée
par :
P(Y ≤ y , X = x)
G (y /x) = P(Y ≤ y /X = x) =
P(X = x)
La densité conditionnelle est :
∂G (y /x)
g (y /x) =
∂y
Z
E (Y /X = x) = yg (y /x)dy
R

Application
Soit Y une v.a. suivant une loi uniforme sur [0, 10] et X = [Y ].
a) Quelle est la loi suivie par X .
b) Déterminer, poux x ∈ {0, 1, . . . , 9}, la densité conditionnelle de Y
sachant X = x.
c) Calculer E (Y /X ).
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 14 / 44
Généralisation :

Définition
Soit (X , Y ) un couple de variables aléatoires de densité conjointe h. On
définit la densité conditionnelle de Y sachant X = x lorsque fX (x) > 0 par
la relation
h(x, y )
g (y |x) = .
fX (x)

l’espérance conditionnelle de Y sachant X = x est :


Z
E (Y |X = x) = yg (y |x)dy
R

Définition
La variable aléatoire qui prend les valeurs E (Y |X = x) avec la densité
fX (x) est appelée espérance conditionnelle de Y sachant X et on la note
E (Y |X ).

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 15 / 44


Proposition
Soit (X , Y ) un couple de variables aléatoires réelles. Pour toute fonction
réelle mesurable ψ, on a

E (ψ(X )E (Y |X )) = E (ψ(X )Y ) .

On suppose que le couple (X , Y ) admet une densité.

E (ψ(X )Y ) = E (E (ψ(X )Y |X ))
Z
= E (ψ(x)Y |X = x) fX (x)dx
ZR

= ψ(x)E (Y |X = x) fX (x)dx = E (ψ(X )E (Y |X ))


R

φ(X ) = E (Y |X ) est l’unique variable aléatoire réelle (fonction de X ) telle


que
E (ψ(X )Y ) = E (ψ(X )φ(X )) , ∀ψ

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 16 / 44


En conclusion, retenons les résultats :
Y une v.a.r. X −→ E ; fini, dénombrable ou R
• ∃ une distribution conditionnelle de Y sachant X = x.
• Si le couple (X , Y ) est à valeur dans R2 de densité h(x, y )
h(x, y ) h(x, y )
g (y |x) = f (x|y ) = .
fX (x) fY (y )
R
et on a E (Y |X = x) = R yg (y |x)dy
• Si E (Y ) < +∞
Z
E (Y |X = x) = ydPY (y |X = x).
R

et E (E (Y |X )) = E (Y ).
• Si V (Y ) existe on a V (Y ) = E (V (Y |X )) + V (E (Y |X )).
• Ainsi que les formules de Bayes pour les densités :
f (x|y )fY (y ) g (y |x)fX (x)
g (y |x) = R f (x|y ) = R .
R f (x|y )fY (y )dy R g (y |x)fX (x)dx

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 17 / 44


Application :
On considère un couple (X , Y ) de densité

f (x, y ) = 2e−(x+y ) 1I{y ≥x≥0} .

a) Quelle est la loi de la variable aléatoire X .


b) Déterminer, pour x ≥ 0, la densité conditionnelle de Y sachant X = x.
c) Calculer E (Y |X ) et en déduire E (Y ).

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 18 / 44


Il arrive que l’on puisse observer la valeur d’une variable aléatoire X et
qu’ensuite, on souhaite prédire la valeur d’une autre v.a. Y en se fondant
sur ce que l’on sait sur X .
Admettons par exemple que X soit une variable financière observée au
temps t et que l’on cherche à prédire l’évolution de cette variable au
temps t + 1. On note donc Y la valeur au temps t + 1.
On cherche un prédicteur de Y , c.à.d une v.a. g (X ) la plus proche de Y
−→ critère de précision

minimiser E [(Y − g (X ))2 ]

Proposition
Soit X et Y deux v.a. de carré intégrable. Pour toute fonction mesurable
g telle que E [g 2 (X )] < ∞, on a :

E [(Y − g (X ))2 ] ≥ E [(Y − E (Y |X ))2 ]

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 19 / 44


On note L2 l’espace des v.a. de carré intégrable, on le muni du produit
scalaire < X , Y >= E (XY ).

On note L2X = ϕ(X ); E ϕ2 (X ) < +∞ .


 

πX (Y ) = E (Y |X ) est la projection orthogonale de Y sur L2X .

πX est idempotent : πX (πX (Y )) = πX (Y ).

πX est auto-adjoint : < Z , πX (Y ) >=< πX (Z ), Y >

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 20 / 44


πX (πX (Y )) = E (E (Y |X )|X ) = E (Y |X ) = πX (Y )
donc πX est idempotent.

< Z , πX (Y ) > = E (Z πX (Y )) = E (E (Z πX (Y )|X ))

= E (πX (Y )E (Z |X )) = E (πX (Y )πX (Z ))

= E (πX (Z )E (Y |X )) = E (E (Y πX (Z )|X ))

= E (Y πX (Z )) =< πX (Z ), Y >

donc πX est auto-adjoint.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 21 / 44


Vecteurs aléatoires : Soit (Ω, C, P) un espace probabilisé.
X : Ω −→ Rn
ω 7→ X (ω) = (X1 (ω), . . . , Xn (ω))0
∀B ∈ βRn X −1 (B) = {ω ; X (ω) ∈ B} ∈ C

Fonction de répartition
F : Rn −→ [0, 1]
(x1 , . . . , xn ) 7→ F (x1 , . . . , xn ) = P(X1 ≤ x1 , . . . , Xn ≤ xn )
Densité
∂nF
f (x1 , . . . , xn ) =
∂x1 ∂x2 . . . ∂xn
Z Z
∀B ∈ βRn : P(X ∈ B) = . . . f (x1 , . . . , xn )dx1 . . . dxn
B
Z Z
fXi (xi ) = ... f (x1 , . . . , xn )dx1 . . . dxi−1 dxi+1 . . . dxn
Rn−1

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 22 / 44


Indépendance
Les composantes du v.a. X = (X1 , . . . , Xn )0 sont indépendantes SSI
n
Y
FX (x1 , . . . , xn ) = FXi (x i )
i=1
n
Y
(⇐⇒ fX (x1 , . . . , xn ) = fXi (xi ))
Covariance i=1

Cov(X1 , X2 ) = E [(X1 − E (X1 ))(X2 − E (X2 ))]


= E (X1 X2 ) − E (X1 )E (X2 ).
Si X1 et X2 sont indépendantes alors Cov(X1 , X2 ) =0.
Attention : La réciproque est fausse !
Soit X1 une v.a. discrète telle que
1
P(X1 = 1) = P(X1 = 2) = P(X1 = −1) = P(X1 = −2) =
4
On pose X2 = X12 . Alors E (X1 X2 ) = E (X13 ) = 0, et Cov(X1 , X2 ) = 0
1 1
P(X1 = 1, X2 = 4) = 0 6= × = P(X1 = 1)P(X2 = 4)
4 2
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 23 / 44
• Propriétés : Si X1 et X2 admettent un moment d’ordre 2 alors :
(i) Cov(X1 , X2 )=Cov(X2 , X1 )
(ii) Cov(X , X ) = V(X).
(iii) Cov(aX1 + b, cX2 + d) = acCov(X1 , X2 ) pour tout réels a, b, c et d.
(iv) V (X1 + X2 ) = V (X1 ) + V (X2 ) + 2Cov(X1 , X2 )
Corrélation
Cov(X1 , X2 )
ρX1 ,X2 = |ρX1 ,X2 | ≤ 1
σX1 σX2

Théorème
|ρX1 ,X2 | = 1 SSI ∃ a et b tels que : X2 = aX1 + b p.s.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 24 / 44


• Soit X = (X1 , . . . , Xn )0 un v.a.. Si X1 , . . . , Xn admettent toutes un
moment d’ordre 1, alors le vecteur E (X ) = (E (X1 ), . . . , E (Xn ))0 est appelé
l’espérance du v.a. X .
Matrice de variance-covariance :
 2 
σ1 Cov(X1 , X2 ) . . . Cov(X1 , Xn )
 σ22 . . . Cov(X2 , Xn ) 
Σ=
 
.. 
 . 
σn2

= E (X − E (X ))(X − E (X ))0 = E (XX 0 ) − E (X )E (X )0




Si A est une matrice m × n non aléatoire, alors

Var(AX ) = AΣA0

La matrice Σ est semi-définie positive : i.e.


X
∀a ∈ Rn a0 Σa = σij ai aj ≥ 0
1≤i,j≤n

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 25 / 44


Exemple : Soit X un v.a. à valeurs dans Rn de matrice de
variance-covariance Σ supposée régulière. Calculer l’espérance de la v.a.
D 2 = (X − E (X ))0 Σ−1 (X − E (X )).
Matrice de corrélation :
 
1 ρ12 . . . ρ1n
1 1
 1 . . . ρ2n 
R = (diagΣ)− 2 Σ(diagΣ)− 2 = 
 
.. 
 . 
1

Fonction caractéristique

 
n
X
ϕX (a) = E exp(i aj Xj )
j=1
Z Z n
X
= ... exp(i aj xj )f (x1 , . . . , xn )dx1 . . . dxn
Rn j=1

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 26 / 44


Transformation Multiple de Variables Aléatoires
Considérons X (resp. Y ) un n-vecteur (resp. m) aléatoire.
Supposons que leurs composantes sont reliées par

Y1 = h1 (X1 , . . . , Xn )

Y2 = h2 (X1 , . . . , Xn )
..
.
Ym = hm (X1 , . . . , Xn )
Etant donné la densité de probabilité fX , le problème est de calculer fY .
1er cas : h un difféomorphisme.

fh(X ) (x) = fX (h−1 (x))|detJh−1 (x)|

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 27 / 44


Exemple
Calculer la loi d’une somme et d’une différence de deux v.a. indépendantes.
Soit h : (u, v ) 7→ (u + v , u − v ) h−1 : (x, y ) 7→ ( x+y x−y
2 , 2 )

1/2 1/2
detJh−1 = = −1/2
1/2 −1/2
1 x +y x −y
fh(X ) (x, y ) = fX ( , )
2 2 2
x +y x −y
Z
1
fX1 +X2 (x) = fX ( , )dy
2 R 2 2
x +y
On pose u = ,
2
Z Z
fX1 +X2 (x) = fX1 (u)fX2 (x − u)du fX1 −X2 (x) = fX1 (u + x)fX2 (u)du.
R R

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 28 / 44


2ième cas : h n’est pas un difféomorphisme par défaut de bijectivité
méthode A : Compléter l’espace des valeurs de h.
X
Exemple : Soit X et Y deux v.a. indépendantes. Quelle est la loi de ?
Y
x x
h(x, y ) = ; on complète h grâce à la fonction g (x, y ) = ( , y ).
y y
fg (X ,Y ) (u, v ) = f(X ,Y ) (g −1 (u, v ))|detJg −1 (u, v )|
or g −1 (u, v ) = (uv , v ) et |detJg −1 (u, v )| = |v |.
D’où
Z
f X (u) = fX (u.v ).fY (v )|v |dv .
Y
R

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 29 / 44


méthode B :
• h est bijective sur chacun des sous-ensembles Oi
q
[
Oi = O (= Rn ).
i=1

q
X
fh(X ) (x) = fX (hi−1 (x))|detJh−1 (x)|1Ihi (Oi ) (x).
i
i=1

Exemples :
1) Soit X une v.a. de loi U(−1, 1) et h : x 7−→ x 2 .
1 √ √
fX 2 (y ) = √ (fX (− y ) + fX ( y )) .1I]0,1[ (y )
2 y
 
1 1 √ 1 √
= √ 1I (− y ) + 1I]−1,1[ ( y ) .1I]0,1[ (y )
2 y 2 ]−1,1[ 2
1
= √ 1I (y ).
2 y ]0,1[
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 30 / 44
2) Soit X et Y des v.a. indépendantes de densité respective fX et fY .
Quelle est la loi de (inf(X , Y ), sup(X , Y )) ?

On pose h(x, y ) = (inf(x, y ), sup(x, y )),


et on note O1 = {(x, y ); x ≤ y } et O2 = {(x, y ); x > y }.

Sur O1 ; h1 (x, y ) = (x, y ).

Sur O2 ; h2 (x, y ) = (y , x) et h2−1 (x, y ) = (y , x).

Donc

fh(X ,Y ) (x, y ) = fX (x)fY (y )1Ih1 (O1 ) (x, y ) + fX (y )fY (x)1Ih2 (O2 ) (x, y )
= [fX (x)fY (y ) + fX (y )fY (x)] 1I{x≤y } .

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 31 / 44


• méthode de la fonction de répartition :

Exprimer Fh(X ) en fonction de FX .

Soient X1 , . . . , Xn n v.a. indépendantes et de même loi.

Quelle est la loi de Y = min Xi .


i=1,...,n

——– S1 ——– S2 - - - - - - Sn ——–


——–X1 ———X2 - - - - - - - Xn ——–

Y = durée de vie du système ainsi formé.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 32 / 44


• Calcul de loi de la somme de v.a. indépendantes
Xn
Soit Y = Xi , où les Xi sont indépendantes et à densité.
i=1

Z n
1 Y
fY (y ) = exp(−ity ) ϕXj (t) dt.
2π R j=1

Très utile si on veut calculer la loi de somme infinie de v.a. indépendantes.


Exemple
Soient n v.a. indépendantes X1 , . . . , Xn telles que
1
P(Xi = 1) = P(Xi = −1) = ∀i
2
n
X 1
Calculer ϕYn (t) avec Yn = Xi . En déduire la loi de Yn pour n assez
2i
i=1
grand.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 33 / 44


Vecteurs aléatoires gaussiens
Définition
X est un p-vecteur gaussien si ∀a ∈ Rp a0 X est une v.a. gaussienne à une
dimension.
On notera Np (µ, Σ) la loi normale à p dimensions d’espérance µ et de
matrice de variance Σ.
On suppose que µ = 0.

Théorème
 
1 0
ϕX (a) = exp − a Σa où Σ est la matrice de variance-covariance de X .
2

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 34 / 44


Théorème
Les composantes d’un vecteur gaussien X sont indépendantes SSI Σ est
diagonale.

Σ inversible

Définition
Si Σ est régulière X admet pour densité :
 
1 1 0 −1
f (x1 , . . . , xp ) = p 1 exp − (x − µ) Σ (x − µ) .
(2π) 2 (detΣ) 2 2

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 35 / 44


Exercice 1
Soient X1 , . . . , Xn des v.a.r. indépendantes de loi N(0, 1), et a1 , . . . , an ,
b1 , . . . , bn ∈ R. Montrer que :
n
X n
X n
X
Y = ai Xi et Z = bi Xi sont indépendantes ssi ai b i = 0
i=1 i=1 i=1

Exercice 2
Soit X une variable aléatoire de loi N(0, 1) et Z une variable aléatoire
1
prenant les valeurs −1 et 1 avec la probabilité . On suppose que X et Z
2
sont indépendantes et on pose Y = XZ .
1) Montrer que Y suit la loi N(0, 1).
2) Calculer la covariance et la corrélation de X et Y .
3) Calculer
  P(X + Y = 0).
X
4) est-il gaussien ? Les v.a. X et Y sont-elles indépendantes ?
Y

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 36 / 44


Propriétés de la loi normale à p dimensions
X ∼ Np (µ, Σ)
(P1) Soit Σ une matrice régulière, le vecteur aléatoire Y = Σ−1/2 (X − µ)
suit une loi Np (0, Ip )
(P2) Les projections a0 X de X , pour tout a ∈ Rp , sont des variables
aléatoires normales univariées. En particulier, les densités marginales
de la loi Np (µ, Σ) sont normales univariées. La réciproque n’est pas
vrai !
(P3) Toute transformation linéaire d’un vecteur normal est un vecteur
normal : si Y = AX + c où c ∈ Rq et A une matrice q × p, alors Y
suit une loi Nq (Aµ + c, AΣA0 ).
(P4) Soit σ 2 > 0. La loi Np (0, σ 2 Ip ) est invariante par rapport aux
transformations orthogonales.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 37 / 44


(P5) Tout sous-ensemble de composantes d’un vecteur gaussien à p
0 0 0
dimensions est un vecteur gaussien : Soit X = (X1 , X2 ) , où X1 ∈ Rq
et X2 ∈ Rp−q , alors X1 et X2 sont, respectivement, des vecteurs
gaussiens à q et p − q dimensions.
(P6) Deux vecteurs gaussiens en couple sont indépendants si et seulement
s’ils sont non-corrélés.

• SoitX un p-vecteur aléatoire


et Y unq-vecteur
 aléatoire tel
que
X µX ΣX ΣXY
suit une gaussienne N , 0
Y µY ΣXY ΣY
(On suppose que ΣY est inversible)
Conditionnellement à Y = y ; X suit une gaussienne
0
N (µX + ΣXY Σ−1 −1
Y (y − µY ) , ΣX − ΣXY ΣY ΣXY ).

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 38 / 44


0.16

0.14

0.12

0.1

Z 0.08

0.06

0.04

0.02

0
4

2 4
2
0
0
−2
−2
−4 −4
Y
X

ρ=0

Quelques surfaces de densité correspondant à σ1 = σ2 = 1 et à diverses


valeurs de ρ.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 39 / 44


0.18 0.18

0.16 0.16

0.14 0.14

0.12 0.12

0.1 0.1
Z

Z
0.08 0.08

0.06 0.06

0.04 0.04

0.02 0.02

0 0
4 4

2 4 2 4
2 2
0 0
0 0
−2 −2
−2 −2
−4 −4 −4 −4
Y Y
X X

ρ = 0.4 ρ = −0.4

0.4 0.4

0.35 0.35

0.3 0.3

0.25 0.25

0.2 0.2
Z

0.15 0.15

0.1 0.1

0.05 0.05

0 0
4 4

2 4 2 4
2 2
0 0
0 0
−2 −2
−2 −2
−4 −4 −4 −4
Y Y
X X

ρ = 0.9 ρ = −0.9
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 40 / 44
4

−1

−2

−3

−4
−4 −3 −2 −1 0 1 2 3 4

ρ=0

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 41 / 44


4 4

3 3

2 2

1 1

0 0

−1 −1

−2 −2

−3 −3

−4 −4
−4 −3 −2 −1 0 1 2 3 4 −4 −3 −2 −1 0 1 2 3 4

ρ = 0.4 ρ = −0.4
4 4

3 3

2 2

1 1

0 0

−1 −1

−2 −2

−3 −3

−4 −4
−4 −3 −2 −1 0 1 2 3 4 −4 −3 −2 −1 0 1 2 3 4

ρ = 0.9 ρ = −0.9
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 42 / 44
4

−1

−2

−3

−4
−4 −3 −2 −1 0 1 2 3 4

ρ=0

1000 réalisations d’un couple gaussien (X , Y )0 , où E (X ) = E (Y ) = 0,


σ 2 (X ) = σ 2 (Y ) = 1 et Cov(X , Y ) = ρ.

(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 43 / 44


4 4

3 3

2 2

1 1

0 0

−1 −1

−2 −2

−3 −3

−4 −4
−4 −3 −2 −1 0 1 2 3 4 −4 −3 −2 −1 0 1 2 3 4

ρ = 0.4 ρ = −0.4
4 4

3 3

2 2

1 1

0 0

−1 −1

−2 −2

−3 −3

−4 −4
−4 −3 −2 −1 0 1 2 3 4 −4 −3 −2 −1 0 1 2 3 4

ρ = 0.9 ρ = −0.9
(ICCN - INPT) Vecteurs Aléatoires Chapitre 3 44 / 44

Vous aimerez peut-être aussi