TD2 ECC Correction
TD2 ECC Correction
TD2 ECC Correction
Probabilités
TD 2
Objectifs.
Exercice 1. Soit (X, Y ) un couple de variables aléatoires de loi E(λ) ⊗ E(µ), avec λ, µ > 0. Calculer
la loi des variables aléatoires suivantes.
1. max(X, Y )
2. min(X, Y )
3. X + Y
Correction.
1. On note Z = max(X, Y ). La fonction de répartition FZ de Z est donnée par : pour tout t ≥ 0
FZ (t) = P(max(X, Y ) ≤ t)
= P(X ≤ t, Y ≤ t)
= P(X ≤ t)P(Y ≤ t) car X et Y sont indépendants.
= FX (t)FY (t)
= (1 − e−λt )(1 − e−µt )
= 1 + e−(λ+µ)t − e−λt − e−µt .
Comme FZ est dérivable, Z est à densité par rapport à la mesure de Lebesgue, et sa densité
est donné par :
fZ (x) = λe−λt + µe−µt − (λ + µ)e−(λ+µ)t 1R+ (t).
2. La même astuce permet de calculer P(min(X, Y ) > t) et de trouver min(X, Y ) ∼ E(λ + µ).
3. Soit f une fonction borélienne bornée. Alors
Z ∞Z ∞
Ef (X + Y ) = f (x + y)λµe−(λx+µy) dxdy
0 0
Z ∞Z z
= λµ e(λ−µ)y dyf (z)e−λz dz
0 0
(R ∞
f (z)λµze−λz dz si λ = µ
= R0∞ e−µz −e−λz
0 f (z)λµ λ−µ dz sinon.
Exercice 2. Soit (X, Y ) ∼ N (0, Id). Calculer la loi des variables aléatoires suivantes.
1. X 2
X2
2. Y2
X
3. |Y |
4. X + Y
5. X − Y
Les variables aléatoires X + Y et X − Y sont-elles indépendantes ?
On définit de plus, U ∼ U([0; 1]) indépendante de (X, Y ). On pose
X 0 = X cos(2πU ) − Y sin(2πU ) et Y 0 = X sin(2πU ) + Y cos(2πU )
Donner la loi des variables aléatoires suivantes.
1. U 2
2. (X 0 , Y 0 )
Les variables aléatoires X 0 , Y 0 et U sont-elles indépendantes ?
Correction. Dans les trois premiers cas, on utilise la même méthode : on calcule Ef (Z) pour f
borélienne bornée. Un changement de variable approprié (attention à ce qu’il soit bijectif !) permet
d’obtenir les résultats suivants.
1. X 2 a pour densité (pour un certain C > 0)
e−x/2
x 7→ C √ 1R+ (x).
2x
Cette loi est appelée loi du χ2 à 1 degré de liberté.
2
2. X
Y2
a pour densité
1 1
x 7→ 1 + (x).
π x (x + 1) R
1/2
Cette loi est appelée loi de Fisher de paramètres (1,1) et est notée F(1, 1).
3. |YX| a pour densité (pour un certain C > 0)
1
x 7→ C .
1 + x2
Cette loi est appelée loi de Student de paramètre 1 et est notée St(1) (c’est aussi une loi de
Cauchy).
4. X + Y est une combinaison linéaire du couple (X, Y ) qui est un vecteur gaussien. Donc, X + Y
est une variables aléatoire gaussienne. Le calcul de l’espérance et de la variance donne X + Y ∼
N (0, 2).
5. De même, X − Y ∼ N (0, 2).
1. Un changement de variable donne la densité
1
u 7→ 1[0;1] (u).
2u1/2
2. On note φ la fonction
(x, y, u) 7→ (x cos(2πu) − y sin(2πu), x sin(2πu) + y cos(2πu), u).
Sa jacobienne est donnée par
cos(2πu) − sin(2πu) −x2π sin(2πu) − y2π cos(2πu)
Jac(φ)(x, y, u) = sin(2πu) cos(2πu) 2π cos(2πu) − y2π sin(2πu)
0 0 1
La jacobienne est de déterminant constant 1, donc φ est inversible sur R2 × [0, 1] et son inverse
ψ est de jacobienne de déterminant constant 1. Donc, pour toute fonction f borélienne bornée,
en
Ef (X 0 , Y 0 , U ) = Ef (X cos(2πU ) − Y sin(2πU ), X sin(2πU ) + Y cos(2πU ), U )
Z
x2 +y 2 1
= f (x cos(2πu) − y sin(2πu), x sin(2πu) + y cos(2πu), u)e− 2 1[0,1] (u) dxdydu
2π
Z
x02 +y 02 1
= f (x0 , y 0 , u)e− 2 1[0,1] (u) dx0 dy 0 du
2π
On a utilisé le fait que [x cos(2πu) − y sin(2πu)]2 + [x sin(2πu) + y cos(2πu)]2 = x2 + y 2 . Ce qui
donne (X 0 , Y 0 ) ∼ N (0, Id) et montre aussi que les variables X 0 , Y 0 , U sont indépendantes.
Exercice 3. Soient X = (X1 , ..., Xn ) ∼ N (0, Id) et A une matrice de k lignes et n colonnes.
1. Donner la loi de AX
2. Calculer la loi de ni=1 Xi .
P
On admettra (ce que l’on pourrait montrer à l’aide du théorème des résidus) que pour tout
α, β > 0,
it −α
Z ∞ α
β α−1 −βx itx
x e e dx = 1 − .
0 Γ(α) β
Correction.
1. Toutes les combinaisons linéaires de AX sont des combinaisons linéaires de X, donc AX est aussi
un vecteur gaussien. L’espérance étant linéaire, EAX = 0. Enfin, la matrice de covariance est
donnée par ΣAX = EAXX T AT . La linéarité de l’espérance donne alors ΣAX = AIdAT = AAT .
2. C’est une variable gaussienne (en tant que combinaison linéaire de coordonnées d’un vecteur
gaussien), d’espérance 0 et de variance n.
3. Il suffit d’utiliser le fait que φPni=1 X 2 = φnX 2 et l’indice donné pour identifier la loi de ni=1 Xi2
P
i 1
à une loi de densité
2−n/2 n/2−1 −x/2
1x>0 x e
Γ(n/2)
C’est la loi du chi-2 à n degré de liberté, noté χ2 (n).
Exercice 4. Soit X = (X1 , ..., Xn ) ∼ N (0, Σ) où Σ est une matrice symétrique définie positive.
1. Justifier l’existence d’une matrice L telle que Σ−1 = LT L
2. Calculer la loi de LX.
Correction.
1. Il s’agit de la décomposition de Cholesky (par exemple). Dans ce cas, L est triangulaire
supérieure (mais on ne l’utilisera pas).
2. De la même façon que dans l’exercice précédent, LX est un vecteur gaussien, et d’espérance 0
et de variance
ΣLX = ELXX T LT = LΣLT = LL−1 (LT )−1 LT = Id
3. Le calcul donne
e−2 + 1
P(Y ≤ X) = .
2
√ √
4. En remarquant que x y − x2 /2 − y = −(x − y)2 /2 − y/2 pour y > 0,
√ Z Z √ 2 dx
−y/2
Ee X Y
= e e−(x− y) /2 √ dy
y>0 2π
Z
= e−y/2 dy
y>0
= 2.
1. Calculer C.
2. Donner la loi de X et de Y .
3. Calculer la covariance (X, Y ).
4. (X, Y ) est-il un vecteur gaussien ?
Correction.
1. Pour obtenir une densité (donc d’intégrale 1), il faut C = π1 .
2. Le calcul de Ef (X) et Ef (Y ) pour f borélienne bornée montre que X ∼ N (0, 1) et Y ∼ N (0, 1).
3. X et Y sont d’espérance nulle, donc
2
cov(X, Y ) = EXY = .
π
4. Ce n’est pas un vecteur gaussien cas sa matrice de variance-covariance est inversible, et f(X,Y )
n’est pas la densité d’un vecteur gaussien telle que vue en cours.
On peut remarquer que |X| et |Y | sont indépendants.