Td11 Corrige
Td11 Corrige
Td11 Corrige
1 – Petites questions
Soit Z, Y , X des variables aléatoires réelles définies sur (Ω, A, P) et (Xn )n∈N une suite de variables
aléatoires réelles sur (Ω, A, P) convergeant en probabilité vers X.
1. Trouver un exemple où X est indépendante de Y , de Z mais pas de (Y , Z).
2. Supposons que X et Y sont indépendantes. Soit F : R×R → R+ une fonction borélienne. Montrer
que E [F(X, Y )] = E [g(Y )], où g : R → R est la fonction définie par g(y) = E [F(X, y)] pour y ∈ R.
3. Soit f : R → R est uniformément continue. Montrer que la suite (f (Xn ))n∈N converge en proba-
bilité vers f (X).
4. Soit f : R → R est continue. Montrer que la suite (f (Xn ))n∈N converge en probabilité vers f (X).
5. Supposons qu’il existe une constante C > 0 telle que |Xn | ≤ C pour tout n ≥ 1. Montrer que
(Xn )n∈N converge vers X dans L1 .
Corrigé.
1. On prend X et Y indépendantes de loi de Bernoulli de paramètre 1/2 et Z B 1X=Y . Alors on a
1
P (Z = 1, X = 1) = P (Y = 1, X = 1) = P (Y = 1) P (X = 1) = P (X = 1) = P (Z = 1) P (X = 1) ,
2
donc X et Z sont indépendantes (ce sont des indicatrices donc ce calcul suffit !). Mais on a
car (Y , Z) = (1, 1) ⇒ X = 1.
2. On écrit :
Z Z
E [F(X, Y )] = F(x, y)P(X,Y ) (dx dy) = F(x, y)PX (dx) ⊗ PY (dy)
R×R R×R
Z Z ! Z
= PY (dy) F(x, y)PX (dx) = PY (dy)g(y) = E [g(Y )] .
R R R
3. Soit ε > 0. Comme f est uniformément continue, il existe η > 0 tel que pour tout x, y ∈ R, on ait
|x − y| ≤ η ⇒ |f (x) − f (y)| ≤ ε. On en déduit que
1/8
4. On veut se ramener sur un compact, sur lequel f sera uniformément continue. Soit ε > 0, δ > 0.
Il existe n ∈ N tel que P (X < [−n, n]) ≤ δ. Par uniforme continuité de f sur [−n − 1, n + 1], il existe
η ∈]0, 1[ tel que pour tout x, y ∈ [−n − 1, n + 1], on ait |x − y| ≤ η ⇒ |f (x) − f (y)| ≤ ε. Alors on a
P (|f (Xn ) − f (X)| > ε) ≤ P (|f (Xn ) − f (X)| > ε, X ∈ [−n, n]) + δ ≤ P (|Xn − X| > η) + δ,
car pour x ∈ [−n, n] et y ∈ R tel que |x − y| ≤ η, on a y ∈ [−n − 1, n + 1] et donc |f (x) − f (y)| ≤ ε par
définition de eta. Ainsi, en utilisant que (Xn )n∈N converge en probabilité vers X, on obtient
E [|Xn − X|] = E |Xn − X| 1|Xn −X|>ε + E |Xn − X| 1|Xn −X|≤ε ≤ 2CP (|Xn − X| > ε) + ε
h i h i
2 – Indépendance
Exercice 1.Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de loi de Bernoulli de pa-
ramètre p ∈ ]0, 1[. Soit N une variable aléatoire de loi de Poisson de paramètre λ > 0, c’est-à-dire
vérifiant
λk −λ
∀k ∈ N, P (N = k) = e .
k!
On suppose que N est indépendante de (Xn )n≥1 . On pose
N
X N
X
PB Xi et F B N − P = (1 − Xi ),
i=1 i=1
Corrigé.
1. On a P(P = 0, N = 0) = P(N = 0) = e−λ , et pour n ≥ 1 et 0 ≤ k ≤ n,
n
n
n
!
−λ λ n k
X X
P(P = k, N = n) = P N = n,
Xi = k = P(N = n)P
Xi = k = e
p (1 − p)n−k
n! k
i=1 i=1
(λp)k (λ(1 − p))n−k
= e−λ .
k! (n − k)!
2/8
2. On a pour k, l ≥ 0,
k l
! !
−λp (λp) −λ(1−p) (λ(1 − p))
P(P = k, F = l) = P(P = k, N = k + l) = e e .
k! l!
Donc les variables aléatoires P et F sont indépendantes et de lois respectives les lois de Poisson
de paramètres λp et λ(1 − p).
Remarque. On utilise en fait ici le petit résultat suivant. Soit X et Y deux variables aléatoires à
valeurs respectivement dans des espaces dénombrables I et J telles que pour tous i ∈ I et j ∈ J, on
ait P(X = i, Y = j) = pi qj . Alors X et Y sont indépendantes et on a, pour tout i ∈ I, P(X = i) = pi /c
P
où c B i∈I pi et, pour tout j ∈ J, P(Y = j) = cqj .
Montrons ce résultat. Soit j ∈ J, on a
X X
P(Y = j) = P(X = i, Y = j) = pi qj = qj c.
i∈I i∈I
P P
Comme j∈J P(Y = j) = 1, on en déduit que j∈J qj = 1/c Puis de la même manière, on a, pour
i∈I X X
P(X = i) = P(X = i, Y = j) = pi qj = pi /c.
j∈J j∈J
Exercice 2. Soit p ≥ 1. On considère sur (Ω, A, P) des variables aléatoires U1, . . . , Un indépendantes et
de loi uniforme sur {1, 2, . . . , p}.
1. Trouver la loi de Mn B max1≤k≤n Uk .
2. Montrer la convergence suivante
E[Mn ] n
−−−−−→ .
p p→∞ n + 1
Corrigé.
1. Pour tout k ∈ {1, . . . , p}, on a,
!n
k n
P(Mn ≤ k) = P(U1 ≤ k, . . . , Un ≤ k) = P(U1 ≤ k) · · · P(Un ≤ k) = P(U1 ≤ k) = .
p
On en déduit la loi de Mn :
k n − (k − 1)n
P(Mn = k) = P(Mn ≤ k) − P(Mn ≤ k − 1) = .
pn
2. On a
p
X
E[Mn ] = P(Mn ≥ k),
k=1
et donc
p !n ! p−1 !n !
E[Mn ] 1 X k−1 1X k
= 1− = 1− .
p p p p p
k=1 k=0
On reconnaît une somme de Riemann de la fonction x 7→ 1 − xn , dont l’intégrale entre 0 et 1 vaut
n/(n + 1). D’où le résultat.
3/8
3 – Convergence de variables aléatoires
Exercice 3. (Problème du collectionneur) Soit (Xk , k ≥ 1) une suite de variables aléatoires indépendantes
uniformément distribuées sur {1, 2, . . . , n}. Soit
Corrigé.
1. On a τ1n = 1. Soit (t2 , . . . , tn ) ∈ (N∗ )n−1 . On veut calculer P(τ2n − τ1n = t2 , . . . , τnn − τn−1
n
= tn ).
En posant t1 = 1 on a
ce qui est une loi géométrique de paramètre 1 − (k − 1)/n. Ici on a utilisé un résultat analogue
à celui énoncé dans la remarque à l’exercice 1 mais avec n − 1 variables aléatoires au lieu de 2
(on peut l’obtenir pour un nombre quelconque de v.a. à partir du cas de 2 v.a. en procédant par
récurrence : pour traiter le cas de n + 1 v.a., on peut considérer le n-uplet des n premières v.a.
comme une seule v.a.).
2. On a Tn = τ1 + nk=2 (τk − τk−1 ) et donc
P
n n !i−1
X X n+1−k X k−1
E [Tn ] = 1 + E [τk − τk−1 ] = 1 + i
n n
k=2 k=2 i≥1
n !−2 n
X n+1−k k−1 X n
= 1+ 1− = 1+ = 1 + nHn−1 ,
n n n+1−k
k=2 k=2
E [Tn ] ∼ n log n,
quand n → ∞.
4/8
3. On a
n
X n
X h i
Var(Tn ) = Var(τk − τk−1 ) = E (τk − τk−1 )2 − E [τk − τk−1 ]2
k=2 k=2
Calculons donc
!i−1 ! !−3
i n+1−k X
2 k−1 n+1−k k−1 k−1
h
2
E (τk − τk−1 ) = i = 1+ 1−
n n n n n
i≥1
2
n+k−1 n n+k−1
= =n .
n n+1−k (n + 1 − k)2
en utilisant i≥1 i 2 xi−1 = (1 + x)/(1 − x)3 . On obtient ainsi, en réutilisant le calcul du moment
P
d’ordre 1,
n ! X n n−1 n−1 n−1
X n+k−1 n k−1 X n−i X 1
2
X 1
Var(Tn ) = n − = n = n = n − n .
(n + 1 − k)2 (n + 1 − k)2 (n + 1 − k)2 i2 i2
i
k=2 k=2 i=1 i=1 i=1
On a donc l’équivalent
π2
E [Tn ] ∼ n2 ,
6
quand n → ∞.
4. Il faut noter ici que Var(Tn ) = o(E [Tn ]2 ) donc Tn est très concentré autour de sa moyenne et
va en être équivalent. Plus précisément, cela nous amène à considérer la convergence dans L2
suivante :
!2 1/2 " #!2 1/2 " # !2 1/2
Tn Tn Tn Tn
E − 1 ≤ E
−E + E E
− 1
n log n n log n n log n n log n
1/2
" #
Var(Tn ) Tn
= + E −1
n log n n log n
−−−−−→ 0,
n→∞
en utilisant l’inégalité triangulaire pour la norme L2 puis les questions 2. et 3. Cela montre que
Tn
−−−−−→ 1, dans L2 .
n log n n→∞
Il en découle que la convergence a aussi lieu en probabilité. La convergence en probabilité peut
également être démontrée directement en utilisant l’inégalité de Bienaymé-Tchebychev : pour
ε > 0,
Var(Tn ) C
P (|Tn − E[Tn ]| ≥ εn log n) ≤ 2
≤ 2 −−−−−→ 0,
(εn log n) ε log(n)2 n→∞
donc (Tn − E[Tn ])/(n log(n)) → 0 en probabilité. Or E(Tn ) ∼ n log(n) quand n → ∞, donc pour
tout ε > 0 on a {|Tn − n log(n)| ≥ 2εn log(n)} ⊂ {|Tn − E(Tn )| ≥ εn log(n)} pour n assez grand, ce qui
montre la convergence en probabilité.
Exercice 4. Soit (Ω, F , P) un espace probabilisé. On suppose que Ω est dénombrable et que la tribu
F est P (Ω). Montrer que les convergences “presque-sûr” et “en probabilité” sont équivalentes sur
cet espace (pour des variables aléatoires à valeur dans un espace métrique (E, d)).
Corrigé. On énumère Ω = {ωi }i≥1. Soit X et (Xn) des variables aléatoires définies sur (Ω, F , P) telles
que
(P )
Xn −→ X.
5/8
Pour montrer que Xn converge p.s. vers X, il suffit de montrer que pour tout k > 1
P({ω, lim sup d(Xn (ω), X(ω)) ≥ 1/k}) = 0.
n→∞
Soit ωi ∈ Ω tel que P({ωi }) > 0. D’après la convergence en probabilité de Xn vers X, on a
P({ω, d(Xn (ω), X(ω)) ≥ 1/k}) −−−−−→ 0.
n→∞
Ainsi, à partir d’un certain rang, ωi < {ω, d(Xn (ω), X(ω)) ≥ ε}. On en déduit que pour tout ωi de
probabilité strictement positive, lim sup d(Xn (ωi ), X(ωi )) ≤ 1/k. La dénombrabilité de Ω permet de
conclure.
Exercice 5. Soit (Xn )n≥1 une suite de variables aléatoires réelles et X une v.a. réelles définies sur
(Ω, A, P). On suppose que Xn → X en probabilité sous P. Montrer que si Q est une mesure de proba-
bilité sur (Ω, A) absolument continue par rapport à P, alors Xn → X en probabilité sous Q.
Corrigé. Méthode 1. On peut utiliser le résultat montré à l’exercice 2 du TD 7 (quantification de l’ab-
solue continuité) : comme Q P et Q est finie, on a
∀δ > 0, ∃η > 0 : ∀A ∈ A, (P(A) ≤ η ⇒ Q(A) ≤ δ).
Soit ε, δ > 0. On considère η > 0 fourni par la quantification de l’absolue continuité. À partir d’un
certain rang, on a P(|Xn − X| > ε) ≤ η donc on a Q(|Xn − X| > ε) ≤ δ, ce qui montre que Xn → X en
probabilité sous Q.
Méthode 2. D’après Radon-Nikodym on peut trouver une fonction f mesurable positive qui vérifie
Z
∀A ∈ A, Q(A) = f 1A dP,
R
et de plus f dP = 1 < ∞, donc f est intégrable. Soit ε > 0, on note An = {|Xn − X| > ε}. Pour tout
M > 0, on a
Z Z Z Z
Q(An ) = f 1An dP = f 1An 1f ≤M dP + f 1An 1f >M dP ≤ MP(An ) + f 1f >M dP
par convergence dominée (domination par f ). Cela montre que Xn → X en probabilité sous Q.
Corrigé. Soient F, G : R → R+ deux fonctions boréliennes. En remarquant que (x, y) 7→ ( x+y x−y
√ , √ ) est un
2 2
C 1 difféomorphisme de R × R sur R × R de jacobien −1, la formule du changement de variable donne
" ! !# Z ! !
X +Y X −Y x+y x − y 1 − x2 +y 2
E F √ G √ = F √ G √ e 2 dx dy
2 2 R×R 2 2 2π
!2 !2
x+y x−y
Z ! ! √ + √
x+y x−y 1 − 2 2
= F √ G √ e 2 dx dy
R×R 2 2 2π
Z
1 x2 +y 2
= F(x)G(y) e− 2 dx dy
2π
ZR×R ! Z !
1 − x2 1 − y2
= F(x) √ e 2 dx G(y) √ e 2 dy .
R 2π R 2π
6/8
X+Y X−Y
On en déduit que √ et √ soient indépendantes, et sont toutes les deux gaussiennes centrées
2 2
réduites.
Exercice 7. Soit (Xn )n≥1 une suite de variables aléatoires réelles indépendantes de même loi et N une
variable aléatoire à valeurs dans N indépendante de la suite (Xn )n≥1 . Soit f : R → R+ une fonction
mesurable. Montrer que N
X
E f (Xi ) = E [N ] E [f (X1 )] ,
i=1
où l’on adopte la convention qu’une somme vide est nulle.
Corrigé. On a
N n
n
n
1{N =n} f (Xi ) = E 1{N =n} f (Xi ) = P(N = n)E f (Xi )
X X X X X X X
E f (Xi ) = E
i=1 n≥1 i=1 n≥1 i=1 n≥1 i=1
X
= P(N = n)nE [f (X1 )] = E[N ]E [f (X1 )] .
n≥1
Exercice 8. Soit (Ω, F , P) un espace probabilisé et X une variable aléatoire réelle définie sur (Ω, F , P).
1. Si deux tribus A1 et A2 sur (Ω, F , P) sont indépendantes et ont un élément commun A, montrer
que P(A) = 0 ou P(A) = 1.
2. Soit C une sous-tribu de F telle que si C ∈ C, alors P(C) = 0 ou P(C) = 1. Montrer que si X est C
mesurable, alors X est constante presque sûrement.
Indication. On pourra introduire la fonction de répartition F de X définie par F : x 7→ P (X ≤ x)
et considérer x0 B inf{x ∈ R : F(x) = 1}.
3. Soit f : R → R une fonction borélienne. On suppose que f (X) et X sont indépendantes. Montrer
que f (X) est constante presque sûrement.
Corrigé.
1. On a P(A ∩ A) = P(A)2 = P(A). D’où P(A) = 0 ou P(A) = 1.
2. Pour tout x ∈ R, {X ≤ x} ∈ C et donc F(x) = P (X ≤ x) = 0 ou 1. Comme limx→∞ F(x) = 1 et
limx→−∞ F(x) = 0, on a x0 B inf{x ∈ R; F(x) = 1} ∈ (−∞, ∞). Comme F est croissante, si a < x0 < b,
on a F(a) = 0 et F(b) = 1. En particulier, P(x0 − 1/n < X ≤ x0 + 1/n) = 1 pour n ≥ 1. Or :
\ 1 1
{x0 } = x0 − , x 0 + .
n n
n≥1
7/8
Exercice 9.
1. Mathias a deux enfants dont une fille. Quelle est la probabilité que l’autre enfant soit un garçon ?
2. Mathilde a deux enfants. Le plus jeune est une fille. Quelle est la probabilité que l’aîné soit un
garçon ?
Corrigé. Une famille de deux enfants peut se représenter par (a1, a2) où ai est f (fille) ou g (garçon)
suivant que le i-ième enfant est une fille ou un garçon. Tous les couples (a1 , a2 ) sont équiprobables.
Posons donc Ω = {(f , g), (f , f ), (g, g), (g, f )} muni de P la probabilité uniforme.
1. On sait qu’un enfant est une fille on cherche donc P(E|A) avec E = {(f , g), (g, f ), (g, g)} et A =
{(f , g), (f , f ), (g, f )}. Ainsi, P(E|A) = 2/3.
2. On cherche désormais P (F|B) où F = {(g, g), (g, f )} et B = {(f , f ), (g, f )}. On trouve alors P(F|B) =
1/2.
Exercice 10. (Convolution de mesures finies sur Rn ) Soit µ, ν des mesures finies sur (Rn , B(Rn )). La
convolution de µ et de ν, notée µ ∗ ν, est la mesure sur (Rn , B(Rn )) définie par : pour toute fonction
mesurable positive F sur Rn ,
Z Z Z
F d(µ ∗ ν) B F(x + y) dν(y) dµ(x).
Rn Rn Rn
1. Montrer que µ ∗ ν est bien définie et que c’est une mesure finie, dont on explicitera la masse
totale.
2. Soit µ, ν, ρ trois mesures finies sur (Rn , B(Rn )). Montrer les points suivants
(a) µ ∗ δ0 = µ ;
(b) µ ∗ ν = ν ∗ µ ;
(c) (µ ∗ ν) ∗ ρ = µ ∗ (ν ∗ ρ).
3. (Convolution et indépendance) Soit X et Y des variables aléatoires à valeurs dans Rn indépen-
dantes.
(a) Montrer que la loi de X + Y est PX ∗ PY .
(b) Supposons que X a une densité pX et Y a une densité pY . Montrer que X + Y a pour densité
pX ∗ pY (au sens de la convolution de deux fonctions L1 ).
Corrigé. Je rédigerai un corrigé prochainement, si vous avez un problème sur cet exercice vous pouvez
m’envoyer un mail (mais normalement, il n’y a rien de compliqué).
Triangulation aléatoire
(par Nicolas Curien)
Triangulation aléatoire
(par Nicolas Curien)
Fin
8/8