0% ont trouvé ce document utile (0 vote)
16 vues8 pages

Td11 Corrige

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 8

Intégration et probabilités ENS Paris, 2016-2017

TD 11 – Indépendance, convergence de variables aléatoires

1 – Petites questions

Soit Z, Y , X des variables aléatoires réelles définies sur (Ω, A, P) et (Xn )n∈N une suite de variables
aléatoires réelles sur (Ω, A, P) convergeant en probabilité vers X.
1. Trouver un exemple où X est indépendante de Y , de Z mais pas de (Y , Z).
2. Supposons que X et Y sont indépendantes. Soit F : R×R → R+ une fonction borélienne. Montrer
que E [F(X, Y )] = E [g(Y )], où g : R → R est la fonction définie par g(y) = E [F(X, y)] pour y ∈ R.
3. Soit f : R → R est uniformément continue. Montrer que la suite (f (Xn ))n∈N converge en proba-
bilité vers f (X).
4. Soit f : R → R est continue. Montrer que la suite (f (Xn ))n∈N converge en probabilité vers f (X).
5. Supposons qu’il existe une constante C > 0 telle que |Xn | ≤ C pour tout n ≥ 1. Montrer que
(Xn )n∈N converge vers X dans L1 .

Corrigé.
1. On prend X et Y indépendantes de loi de Bernoulli de paramètre 1/2 et Z B 1X=Y . Alors on a

1
P (Z = 1, X = 1) = P (Y = 1, X = 1) = P (Y = 1) P (X = 1) = P (X = 1) = P (Z = 1) P (X = 1) ,
2
donc X et Z sont indépendantes (ce sont des indicatrices donc ce calcul suffit !). Mais on a

P ((Y , Z) = (1, 1), X = 1) = P ((Y , Z) = (1, 1)) , P ((Y , Z) = (1, 1)) P (X = 1) ,

car (Y , Z) = (1, 1) ⇒ X = 1.
2. On écrit :
Z Z
E [F(X, Y )] = F(x, y)P(X,Y ) (dx dy) = F(x, y)PX (dx) ⊗ PY (dy)
R×R R×R
Z Z ! Z
= PY (dy) F(x, y)PX (dx) = PY (dy)g(y) = E [g(Y )] .
R R R

3. Soit ε > 0. Comme f est uniformément continue, il existe η > 0 tel que pour tout x, y ∈ R, on ait
|x − y| ≤ η ⇒ |f (x) − f (y)| ≤ ε. On en déduit que

P (|f (Xn ) − f (X)| > ε) ≤ P (|Xn − X| > η) −−−−−→ 0,


n→∞

en utilisant que (Xn )n∈N converge en probabilité vers X.


Pour toute question, n’hésitez pas à m’envoyer un mail à [email protected], ou bien à venir me voir au bureau V2.

1/8
4. On veut se ramener sur un compact, sur lequel f sera uniformément continue. Soit ε > 0, δ > 0.
Il existe n ∈ N tel que P (X < [−n, n]) ≤ δ. Par uniforme continuité de f sur [−n − 1, n + 1], il existe
η ∈]0, 1[ tel que pour tout x, y ∈ [−n − 1, n + 1], on ait |x − y| ≤ η ⇒ |f (x) − f (y)| ≤ ε. Alors on a

P (|f (Xn ) − f (X)| > ε) ≤ P (|f (Xn ) − f (X)| > ε, X ∈ [−n, n]) + δ ≤ P (|Xn − X| > η) + δ,

car pour x ∈ [−n, n] et y ∈ R tel que |x − y| ≤ η, on a y ∈ [−n − 1, n + 1] et donc |f (x) − f (y)| ≤ ε par
définition de eta. Ainsi, en utilisant que (Xn )n∈N converge en probabilité vers X, on obtient

lim sup P (|f (Xn ) − f (X)| > ε) ≤ 0 + δ,


n→∞

puis on conclut en faisant tendre δ → 0.


5. Montrons tout d’abord que |X| ≤ C p.s. Soit k ∈ N∗ , on a
1 1
   
P |X| > C + ≤ P |X − Xn | > −−−−−→ 0.
k k n→∞
Donc, pour tout k ∈ N∗ , p.s. |X| ≤ C + 1k et ainsi p.s., pour tout k ∈ N∗ , |X| ≤ C + 1k , c’est-à-dire
|X| ≤ C p.s.
Soit ε > 0. On a

E [|Xn − X|] = E |Xn − X| 1|Xn −X|>ε + E |Xn − X| 1|Xn −X|≤ε ≤ 2CP (|Xn − X| > ε) + ε
h i h i

et donc, par hypothèse de convergence en probabilité,

lim sup E [|Xn − X|] ≤ 0 + ε,


n→∞

puis on conclut en faisant tendre ε → 0.

2 – Indépendance

Exercice 1.Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de loi de Bernoulli de pa-
ramètre p ∈ ]0, 1[. Soit N une variable aléatoire de loi de Poisson de paramètre λ > 0, c’est-à-dire
vérifiant
λk −λ
∀k ∈ N, P (N = k) = e .
k!
On suppose que N est indépendante de (Xn )n≥1 . On pose
N
X N
X
PB Xi et F B N − P = (1 − Xi ),
i=1 i=1

avec P = F = 0 sur {N = 0}. Les variables aléatoires P et F représentent respectivement le nombre de


piles et de faces dans un jeu de pile ou face de paramètre p à N lancers.
1. Déterminer la loi du couple (P , N ).
2. En déduire les lois de P et F et montrer que P et F sont indépendantes.

Corrigé.
1. On a P(P = 0, N = 0) = P(N = 0) = e−λ , et pour n ≥ 1 et 0 ≤ k ≤ n,
 n
  n 
n
!
−λ λ n k
 X  X 
P(P = k, N = n) = P N = n,

 Xi = k  = P(N = n)P 

 
 Xi = k  = e

 p (1 − p)n−k
n! k
i=1 i=1
(λp)k (λ(1 − p))n−k
= e−λ .
k! (n − k)!

2/8
2. On a pour k, l ≥ 0,
k l
! !
−λp (λp) −λ(1−p) (λ(1 − p))
P(P = k, F = l) = P(P = k, N = k + l) = e e .
k! l!

Donc les variables aléatoires P et F sont indépendantes et de lois respectives les lois de Poisson
de paramètres λp et λ(1 − p).
Remarque. On utilise en fait ici le petit résultat suivant. Soit X et Y deux variables aléatoires à
valeurs respectivement dans des espaces dénombrables I et J telles que pour tous i ∈ I et j ∈ J, on
ait P(X = i, Y = j) = pi qj . Alors X et Y sont indépendantes et on a, pour tout i ∈ I, P(X = i) = pi /c
P
où c B i∈I pi et, pour tout j ∈ J, P(Y = j) = cqj .
Montrons ce résultat. Soit j ∈ J, on a
X X
P(Y = j) = P(X = i, Y = j) = pi qj = qj c.
i∈I i∈I
P P
Comme j∈J P(Y = j) = 1, on en déduit que j∈J qj = 1/c Puis de la même manière, on a, pour
i∈I X X
P(X = i) = P(X = i, Y = j) = pi qj = pi /c.
j∈J j∈J

Alors, l’hypothèse se réécrit P(X = i, Y = j) = P(X = i)P(Y = j) pour tous i ∈ I et j ∈ J, ce qui


montre l’indépendance entre X et Y (car on est sur un espace dénombrable donc leq P(X,Y ) ({(i, j)})
caractérisent P(X,Y ) ).

Exercice 2. Soit p ≥ 1. On considère sur (Ω, A, P) des variables aléatoires U1, . . . , Un indépendantes et
de loi uniforme sur {1, 2, . . . , p}.
1. Trouver la loi de Mn B max1≤k≤n Uk .
2. Montrer la convergence suivante
E[Mn ] n
−−−−−→ .
p p→∞ n + 1

Corrigé.
1. Pour tout k ∈ {1, . . . , p}, on a,
!n
k n
P(Mn ≤ k) = P(U1 ≤ k, . . . , Un ≤ k) = P(U1 ≤ k) · · · P(Un ≤ k) = P(U1 ≤ k) = .
p

On en déduit la loi de Mn :

k n − (k − 1)n
P(Mn = k) = P(Mn ≤ k) − P(Mn ≤ k − 1) = .
pn

2. On a
p
X
E[Mn ] = P(Mn ≥ k),
k=1
et donc
p !n ! p−1 !n !
E[Mn ] 1 X k−1 1X k
= 1− = 1− .
p p p p p
k=1 k=0
On reconnaît une somme de Riemann de la fonction x 7→ 1 − xn , dont l’intégrale entre 0 et 1 vaut
n/(n + 1). D’où le résultat.

3/8
3 – Convergence de variables aléatoires

Exercice 3. (Problème du collectionneur) Soit (Xk , k ≥ 1) une suite de variables aléatoires indépendantes
uniformément distribuées sur {1, 2, . . . , n}. Soit

Tn B inf{m ≥ 1 : {X1 , . . . , Xm } = {1, 2, . . . , n}}

le premier temps où toutes les valeurs ont été observées.


n
1. Soit τkn B inf{m ≥ 1 : |{X1 , . . . , Xm }| = k}. Montrer que les variables (τkn − τk−1 )2≤k≤n sont indépen-
dantes, et déterminer leurs lois respectives.
2. Calculer l’espérance de Tn et en déterminer un équivalent quand n → ∞.
 
3. Calculer la variance de Tn et montrer que Var(Tn ) = O n2 quand n → ∞.
4. En déduire un résultat de convergence pour Tn après renormalisation par une suite déterministe
à déterminer.

Corrigé.
1. On a τ1n = 1. Soit (t2 , . . . , tn ) ∈ (N∗ )n−1 . On veut calculer P(τ2n − τ1n = t2 , . . . , τnn − τn−1
n
= tn ).
En posant t1 = 1 on a

P(τ2n − τ1n = t2 , . . . , τnn − τn−1


n
= tn )
n−1   
X \ 
= Xt1 +···+tk = σ (k), ∀i ∈ ~1, tk+1 − 1, Xt1 +···+tk +i ∈ {σ (1), . . . , σ (k)} ∩ {Xt1 +···+tn = σ (n)}

P
σ ∈Sn k=1
n !tk −1 n !tk −1 n ! !t −1
X 1 Y k−1 n! Y k − 1 Y n+1−k k−1 k
= = n = .
nn n n n n n
σ ∈Sn k=2 k=2 k=2

Donc les variables aléatoires (τkn − τk−1


n
)2≤k≤n sont indépendantes, et ont respectivement pour loi
! !i−1
X k−1 k−1
1− δi ,
n n
i≥1

ce qui est une loi géométrique de paramètre 1 − (k − 1)/n. Ici on a utilisé un résultat analogue
à celui énoncé dans la remarque à l’exercice 1 mais avec n − 1 variables aléatoires au lieu de 2
(on peut l’obtenir pour un nombre quelconque de v.a. à partir du cas de 2 v.a. en procédant par
récurrence : pour traiter le cas de n + 1 v.a., on peut considérer le n-uplet des n premières v.a.
comme une seule v.a.).
2. On a Tn = τ1 + nk=2 (τk − τk−1 ) et donc
P

n n !i−1
X X n+1−k X k−1
E [Tn ] = 1 + E [τk − τk−1 ] = 1 + i
n n
k=2 k=2 i≥1
n !−2 n
X n+1−k k−1 X n
= 1+ 1− = 1+ = 1 + nHn−1 ,
n n n+1−k
k=2 k=2

i−1 = 1/(1 − x)2 et où Hn est la série harmonique. On a donc l’équivalent


P
en utilisant i≥1 ix

E [Tn ] ∼ n log n,

quand n → ∞.

4/8
3. On a
n
X n
X h i
Var(Tn ) = Var(τk − τk−1 ) = E (τk − τk−1 )2 − E [τk − τk−1 ]2
k=2 k=2
Calculons donc
!i−1 ! !−3
i n+1−k X
2 k−1 n+1−k k−1 k−1
h
2
E (τk − τk−1 ) = i = 1+ 1−
n n n n n
i≥1
2
n+k−1 n n+k−1

= =n .
n n+1−k (n + 1 − k)2

en utilisant i≥1 i 2 xi−1 = (1 + x)/(1 − x)3 . On obtient ainsi, en réutilisant le calcul du moment
P
d’ordre 1,
n ! X n n−1  n−1   n−1 
X n+k−1 n k−1 X n−i X 1 
2
X 1 
Var(Tn ) = n − = n = n = n   − n  .
(n + 1 − k)2 (n + 1 − k)2 (n + 1 − k)2 i2 i2 
 
  i
k=2 k=2 i=1 i=1 i=1

On a donc l’équivalent

π2
E [Tn ] ∼ n2 ,
6
quand n → ∞.
4. Il faut noter ici que Var(Tn ) = o(E [Tn ]2 ) donc Tn est très concentré autour de sa moyenne et
va en être équivalent. Plus précisément, cela nous amène à considérer la convergence dans L2
suivante :
 !2 1/2  " #!2 1/2  " # !2 1/2
 Tn   Tn Tn   Tn 
E  − 1  ≤ E 
  −E  + E  E
  − 1 
n log n n log n n log n n log n
1/2
" #
Var(Tn ) Tn
= + E −1
n log n n log n
−−−−−→ 0,
n→∞

en utilisant l’inégalité triangulaire pour la norme L2 puis les questions 2. et 3. Cela montre que
Tn
−−−−−→ 1, dans L2 .
n log n n→∞
Il en découle que la convergence a aussi lieu en probabilité. La convergence en probabilité peut
également être démontrée directement en utilisant l’inégalité de Bienaymé-Tchebychev : pour
ε > 0,
Var(Tn ) C
P (|Tn − E[Tn ]| ≥ εn log n) ≤ 2
≤ 2 −−−−−→ 0,
(εn log n) ε log(n)2 n→∞
donc (Tn − E[Tn ])/(n log(n)) → 0 en probabilité. Or E(Tn ) ∼ n log(n) quand n → ∞, donc pour
tout ε > 0 on a {|Tn − n log(n)| ≥ 2εn log(n)} ⊂ {|Tn − E(Tn )| ≥ εn log(n)} pour n assez grand, ce qui
montre la convergence en probabilité.

Exercice 4. Soit (Ω, F , P) un espace probabilisé. On suppose que Ω est dénombrable et que la tribu
F est P (Ω). Montrer que les convergences “presque-sûr” et “en probabilité” sont équivalentes sur
cet espace (pour des variables aléatoires à valeur dans un espace métrique (E, d)).
Corrigé. On énumère Ω = {ωi }i≥1. Soit X et (Xn) des variables aléatoires définies sur (Ω, F , P) telles
que
(P )
Xn −→ X.

5/8
Pour montrer que Xn converge p.s. vers X, il suffit de montrer que pour tout k > 1
P({ω, lim sup d(Xn (ω), X(ω)) ≥ 1/k}) = 0.
n→∞
Soit ωi ∈ Ω tel que P({ωi }) > 0. D’après la convergence en probabilité de Xn vers X, on a
P({ω, d(Xn (ω), X(ω)) ≥ 1/k}) −−−−−→ 0.
n→∞
Ainsi, à partir d’un certain rang, ωi < {ω, d(Xn (ω), X(ω)) ≥ ε}. On en déduit que pour tout ωi de
probabilité strictement positive, lim sup d(Xn (ωi ), X(ωi )) ≤ 1/k. La dénombrabilité de Ω permet de
conclure.

Exercice 5. Soit (Xn )n≥1 une suite de variables aléatoires réelles et X une v.a. réelles définies sur
(Ω, A, P). On suppose que Xn → X en probabilité sous P. Montrer que si Q est une mesure de proba-
bilité sur (Ω, A) absolument continue par rapport à P, alors Xn → X en probabilité sous Q.
Corrigé. Méthode 1. On peut utiliser le résultat montré à l’exercice 2 du TD 7 (quantification de l’ab-
solue continuité) : comme Q  P et Q est finie, on a
∀δ > 0, ∃η > 0 : ∀A ∈ A, (P(A) ≤ η ⇒ Q(A) ≤ δ).
Soit ε, δ > 0. On considère η > 0 fourni par la quantification de l’absolue continuité. À partir d’un
certain rang, on a P(|Xn − X| > ε) ≤ η donc on a Q(|Xn − X| > ε) ≤ δ, ce qui montre que Xn → X en
probabilité sous Q.
Méthode 2. D’après Radon-Nikodym on peut trouver une fonction f mesurable positive qui vérifie
Z
∀A ∈ A, Q(A) = f 1A dP,
R
et de plus f dP = 1 < ∞, donc f est intégrable. Soit ε > 0, on note An = {|Xn − X| > ε}. Pour tout
M > 0, on a
Z Z Z Z
Q(An ) = f 1An dP = f 1An 1f ≤M dP + f 1An 1f >M dP ≤ MP(An ) + f 1f >M dP

On obtient donc, en utilisant que Xn → X en probabilité sous P,


Z
lim sup Q(An ) ≤ f 1f >M dP −−−−−−→ 0,
n→∞ M→∞

par convergence dominée (domination par f ). Cela montre que Xn → X en probabilité sous Q.

4 – Compléments (hors TD)

Exercice 6.Soient X et Y deux variables aléatoires gaussiennes (centrées réduites) indépendantes.


Montrer que les variables aléatoires X+Y
√ et X−Y
√ sont indépendantes.
2 2

Corrigé. Soient F, G : R → R+ deux fonctions boréliennes. En remarquant que (x, y) 7→ ( x+y x−y
√ , √ ) est un
2 2
C 1 difféomorphisme de R × R sur R × R de jacobien −1, la formule du changement de variable donne
" ! !# Z ! !
X +Y X −Y x+y x − y 1 − x2 +y 2
E F √ G √ = F √ G √ e 2 dx dy
2 2 R×R 2 2 2π
!2 !2
x+y x−y
Z ! ! √ + √
x+y x−y 1 − 2 2
= F √ G √ e 2 dx dy
R×R 2 2 2π
Z
1 x2 +y 2
= F(x)G(y) e− 2 dx dy

ZR×R ! Z !
1 − x2 1 − y2
= F(x) √ e 2 dx G(y) √ e 2 dy .
R 2π R 2π

6/8
X+Y X−Y
On en déduit que √ et √ soient indépendantes, et sont toutes les deux gaussiennes centrées
2 2
réduites.

Exercice 7. Soit (Xn )n≥1 une suite de variables aléatoires réelles indépendantes de même loi et N une
variable aléatoire à valeurs dans N indépendante de la suite (Xn )n≥1 . Soit f : R → R+ une fonction
mesurable. Montrer que N 
X 
E  f (Xi ) = E [N ] E [f (X1 )] ,
i=1
où l’on adopte la convention qu’une somme vide est nulle.
Corrigé. On a
N   n
  n
  n 
1{N =n} f (Xi ) = E 1{N =n} f (Xi ) = P(N = n)E  f (Xi )
X  X X  X  X  X X 
E  f (Xi ) = E 
     
i=1 n≥1 i=1 n≥1 i=1 n≥1 i=1
X
= P(N = n)nE [f (X1 )] = E[N ]E [f (X1 )] .
n≥1

Exercice 8. Soit (Ω, F , P) un espace probabilisé et X une variable aléatoire réelle définie sur (Ω, F , P).
1. Si deux tribus A1 et A2 sur (Ω, F , P) sont indépendantes et ont un élément commun A, montrer
que P(A) = 0 ou P(A) = 1.
2. Soit C une sous-tribu de F telle que si C ∈ C, alors P(C) = 0 ou P(C) = 1. Montrer que si X est C
mesurable, alors X est constante presque sûrement.
Indication. On pourra introduire la fonction de répartition F de X définie par F : x 7→ P (X ≤ x)
et considérer x0 B inf{x ∈ R : F(x) = 1}.
3. Soit f : R → R une fonction borélienne. On suppose que f (X) et X sont indépendantes. Montrer
que f (X) est constante presque sûrement.

Corrigé.
1. On a P(A ∩ A) = P(A)2 = P(A). D’où P(A) = 0 ou P(A) = 1.
2. Pour tout x ∈ R, {X ≤ x} ∈ C et donc F(x) = P (X ≤ x) = 0 ou 1. Comme limx→∞ F(x) = 1 et
limx→−∞ F(x) = 0, on a x0 B inf{x ∈ R; F(x) = 1} ∈ (−∞, ∞). Comme F est croissante, si a < x0 < b,
on a F(a) = 0 et F(b) = 1. En particulier, P(x0 − 1/n < X ≤ x0 + 1/n) = 1 pour n ≥ 1. Or :
\ 1 1

{x0 } = x0 − , x 0 + .
n n
n≥1

Cette intersection étant décroissante et P étant finie, on a donc


1 1
 
P(X = x0 ) = lim P x0 − , x0 + = 1.
n→∞ n n
Ainsi, X = x0 p.s.
3. Posons Y = f (X) et notons C = σ (Y ). Par hypothèse, les tribus engendrées par Y et X sont indé-
pendantes. Or si C ∈ C, alors C ∈ σ (X) car f est mesurable. Ainsi, pour tout C ∈ C, C est indé-
pendant de lui-même, et donc P(C) = 0 ou P(C) = 1. Le résultat en découle d’après la deuxième
question.

7/8
Exercice 9.
1. Mathias a deux enfants dont une fille. Quelle est la probabilité que l’autre enfant soit un garçon ?
2. Mathilde a deux enfants. Le plus jeune est une fille. Quelle est la probabilité que l’aîné soit un
garçon ?

Corrigé. Une famille de deux enfants peut se représenter par (a1, a2) où ai est f (fille) ou g (garçon)
suivant que le i-ième enfant est une fille ou un garçon. Tous les couples (a1 , a2 ) sont équiprobables.
Posons donc Ω = {(f , g), (f , f ), (g, g), (g, f )} muni de P la probabilité uniforme.
1. On sait qu’un enfant est une fille on cherche donc P(E|A) avec E = {(f , g), (g, f ), (g, g)} et A =
{(f , g), (f , f ), (g, f )}. Ainsi, P(E|A) = 2/3.
2. On cherche désormais P (F|B) où F = {(g, g), (g, f )} et B = {(f , f ), (g, f )}. On trouve alors P(F|B) =
1/2.

Exercice 10. (Convolution de mesures finies sur Rn ) Soit µ, ν des mesures finies sur (Rn , B(Rn )). La
convolution de µ et de ν, notée µ ∗ ν, est la mesure sur (Rn , B(Rn )) définie par : pour toute fonction
mesurable positive F sur Rn ,
Z Z Z
F d(µ ∗ ν) B F(x + y) dν(y) dµ(x).
Rn Rn Rn

1. Montrer que µ ∗ ν est bien définie et que c’est une mesure finie, dont on explicitera la masse
totale.
2. Soit µ, ν, ρ trois mesures finies sur (Rn , B(Rn )). Montrer les points suivants
(a) µ ∗ δ0 = µ ;
(b) µ ∗ ν = ν ∗ µ ;
(c) (µ ∗ ν) ∗ ρ = µ ∗ (ν ∗ ρ).
3. (Convolution et indépendance) Soit X et Y des variables aléatoires à valeurs dans Rn indépen-
dantes.
(a) Montrer que la loi de X + Y est PX ∗ PY .
(b) Supposons que X a une densité pX et Y a une densité pY . Montrer que X + Y a pour densité
pX ∗ pY (au sens de la convolution de deux fonctions L1 ).

Corrigé. Je rédigerai un corrigé prochainement, si vous avez un problème sur cet exercice vous pouvez
m’envoyer un mail (mais normalement, il n’y a rien de compliqué).

Triangulation aléatoire
(par Nicolas Curien)

Triangulation aléatoire
(par Nicolas Curien)

Fin

8/8

Vous aimerez peut-être aussi