Proba Lice PDF
Proba Lice PDF
Proba Lice PDF
PROBABILITÉS
Mihaı̈ Gradinaru
2001-2003
2
Avant propos
Ces notes sont une rédaction du cours oral en amphithéâtre donné pendant trois ans.
Il s’agit d’un document de travail et pas d’un ouvrage; il est destiné à la distribution aux
étudiants de Licence de Mathématiques de l’Université de Nancy. Ces notes sont inspirées
librement de plusieurs notes de cours (et je remercie vivement leurs auteurs) rédigées par Ph.
Barbe, J. Bertoin, J. Jacod, M. Ledoux et P. Vallois. Je remercie J. Rivat pour ses conseils
en LATEX et S. Dabuleanu pour la lecture attentive des formes préliminaires du manuscrit.
1 Espace de probabilité 1
1.1 Tribus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Classes monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 La construction d’une probabilité sur (0,1] . . . . . . . . . . . . . . . . . . . . 12
1.6 Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7 Lois de probabilités usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3 Indépendance 69
3.1 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.2 Sommes de variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . 74
3.3 Applications de l’indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.4 Vecteurs gaussiens et indépendance . . . . . . . . . . . . . . . . . . . . . . . . 79
3.5 Probabilité (et espérance) conditionnelle . . . . . . . . . . . . . . . . . . . . . 80
3.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
Chapitre 1
Espace de probabilité
1.1 Tribus
Une expérience aléatoire se décrit mathématiquement par la donnée d’un ensemble Ω
(univers) dont les éléments notés ω sont les résultats (ou issues) possibles de l’expérience.
Un événement aléatoire lié à l’expérience peut être représenté par une partie de Ω. Il sera
toujours représenté par l’ensemble des résultats ω de l’expérience qui le réalisent. A priori il
pourrait sembler naturel de considérer que toute partie de Ω représente un événement, mais
cela n’est possible que si Ω est dénombrable. Pour des espaces plus grands, Ω = R (ou Rd ou
un espace métrique E) on a besoin de la notion de tribu.
La description d’un événement comme une partie de Ω est à l’origine de la notation
ensembliste. Le contraire de l’événement A (qui est réalisé si A ne l’est pas) correspond au
complémentaire d’un ensemble A ⊂ Ω qui sera noté Ac = Ω \ A. L’événement A ou B (qui
est réalisé si au moins un des deux événements A ou B est réalisé) correspond à la réunion
A ∪ B. L’événement A et B (qui est réalisé si les événements A et B sont réalisés à la fois)
correspond à l’intersection A ∩ B. L’événement A implique l’événement B si A ne peut être
réalisé sans que B le soit aussi et on note A ⊂ B. L’événement impossible sera noté ∅ et
l’événement certain sera noté Ω. A et B sont incompatibles si A ∩ B = ∅.
On considère P(Ω) l’ensemble de parties de Ω. Un sous-ensemble A de P(Ω) est un
ensemble de parties de Ω.
Définition 1.1 Un sous-ensemble A de P(Ω) est une tribu (ou σ-algèbre) sur Ω si
a) Ω ∈ A
b) A est stable par passage au complémentaire A ∈ A ⇒ Ac ∈ A)
c) A est stable par réunion dénombrable (Aj ∈ A, j ∈ N ⇒ ∪j∈N Aj ∈ A).
Le couple (Ω,A) est un espace mesurable.
Remarques: i) Par passage au complémentaire une tribu est aussi stable par intersection
dénombrable.
ii) En remplaçant l’axiome (c) par
(c’) A est stable par réunion finie (A1 , . . . , An ∈ A ⇒ A1 ∪ . . . ∪ An ∈ A)
2 CHAPITRE 1. ESPACE DE PROBABILITÉ
En général il n’est pas facile de décrire tous les éléments d’une tribu; on utilise le plus
souvent leurs générateurs.
Définition 1.2 Soit E un sous-ensemble de P(Ω). La tribu σ(E) engendrée par E est
l’intersection de toutes les tribus contenant E; elle est donc la plus petite tribu contenant E.
Remarque: La tribu engendrée par deux tribus A1 et A2 est notée A1 ∨ A2 = σ(A1 ,A2 ) =
σ(A1 ∪ A2 ) qui est en général différente de A1 ∪ A2 . 2
Exemple: Soit A un sous-ensemble strict de Ω qui n’est pas vide. La tribu σ({A}) =
{∅,A,Ac ,Ω}.
Définition 1.3 Si Ω = E est un espace métrique, on appelle tribu borélienne, notée B(E),
la tribu engendrée par les ouverts de E. Tout élément de cette tribu est appellé borélien.
Remarque: La tribu borélienne est aussi engendrée par les fermés. Sur R la tribu borélienne
coı̈ncide avec la tribu engendrée par les intervalles ]a,b[ ou [a,b], ou ]a,b], ou [a,b[, −∞ 6 a <
b 6 ∞. 2
Par la suite, lorsque Ω est R (ou Rd ou un espace métrique E), il sera toujours muni de
sa tribu borélienne. Si Ω est discret, on le munira de la tribu de ses parties.
Définition 1.4 Soient (Ωi ,Ai ), i = 1,2, deux espaces mesurables. On appelle ensemble
élémentaire de Ω = Ω1 × Ω2 une réunion finie de pavés A1 × A2 , avec Ai ∈ Ai , i = 1,2.
La tribu produit A1 ⊗ A2 sur Ω est la tribu engendrée par les ensembles élémentaires.
Remarque*: En utilisant que tout ouvert de R2 peut s’écrire comme un réunion dénombrable
de pavés d’intervalles ouverts, on montre que B(R2 ) = B(R) ⊗ B(R). 2
Pour définir une variable aléatoire on introduit d’abord quelques notations. Si X est une
application de Ω dans E et si B est une partie de E on notera X −1 (B) := {ω ∈ Ω : X(ω) ∈ B}.
Si B est une famille de parties de E, on notera X −1 (B) := {X −1 (B) : B ∈ B}.
La fonction 1A est mesurable pour A (en tant que fonction à valeurs dans (R,B(R))) si et
seulement si A ∈ A.
ii) La tribu B(R2 ) est engendrée par les projections Π1 et Π2 sur les coordonnées (Π1 (x,y) = x
et Π2 (x,y) = y).
Définition 1.6 Une fonction mesurable X définie sur Ω muni de la tribu A à valeurs dans
R (ou Rd ou R∞ ) muni de sa tribu borélienne est appellée variable aléatoire réelle (ou
vecteur aléatoire ou encore suite aléatoire).
2) En particulier, pour qu’une fonction X de (Ω,A) dans (E,σ(C)) soit mesurable, il suffit
que X −1 (C) ⊂ A.
Preuve: Il est clair que X −1 (σ(C)) est une tribu contenant X −1 (C), d’où X −1 (σ(C)) ⊃
σ(X −1 (C). Pour l’autre inclusion, soit
On peut vérifier facilement que T est une tribu. Par sa définition X −1 (T ) ⊂ σ(X −1 (C). De
plus C ⊂ T car X −1 (C) ⊂ σ(X −1 (C), et donc σ(C) ⊂ T . On déduit que X −1 (σ(C)) ⊂
X −1 (T ) ⊂ σ(X −1 (C). Notons qu’on peut traiter de la même façon le cas d’une famille
quelconque de fonctions.
Si X −1 (C) ⊂ A, alors σ(X −1 (C)) ⊂ A. Comme σ(X) = σ(X −1 (C)) par le premier point,
la conclusion s’ensuit. 2
Preuve: Soient Xj : (Ωj ,Aj ) → (Ωj+1 ,Aj+1 ), j = 1,2. Si A ∈ A3 , (X2 ◦ X1 )−1 (A) =
X1−1 (X2−1 (A)). Comme X2 est mesurable, X2−1 (A) ∈ A2 , et comme X1 est mesurable,
X1−1 (X2−1 (A)) ∈ A1 . 2
Proposition 1.3 Soient E1 et E2 deux espaces métriques munis de leurs tribus boréliennes.
Toute fonction continue f : E1 → E2 est borélienne.
Preuve: On remarque que si O est un ouvert dans E2 et f est une fonction continue, f −1 (O)
est un ouvert. Puis on applique la Proposition 1.1. 2
Proposition 1.4 Si X,Y sont deux variables aléatoires de Ω dans R, alors l’application
Ω 3 ω 7→ (X(ω),Y (ω)) ∈ R2 est un vecteur aléatoire bi-dimensionnel. La reciproque est aussi
vraie.
Proposition 1.5 L’espace des variables aléatoires réelles est stable pour les opérations suivantes:
(αX)(ω) = αX(ω) (α ∈ R), (X + Y )(ω) = X(ω) + Y (ω), (XY )(ω) = X(ω)Y (ω) et
(X ∨ Y )(ω) = X(ω) ∨ Y (ω) (le maximum de X,Y ).
Une limite ponctuelle de fonctions continues n’est pas nécessairement continue. Pour les
fonctions mesurables (et en particulier pour les variables aléatoires) on peut montrer le suivant:
Théorème 1.1 Soit (Xn )n∈N une suite de variables aléatoires de Ω dans un espace métrique
1.3. CLASSES MONOTONES 5
Preuve: D’après la Proposition 1.1, il suffit de montrer que si O est un ouvert dans E, alors
X −1 (O) ∈ A. On pose
1
Or := x ∈ O : d(x,E \ O) > , r ∈ N∗ .
r
L’ensemble Or est ouvert, donc un borélien de E. Ainsi,
[ \
X −1 (O) = Xn−1 (Or )
r,m∈N∗ n>m
est un événement de A. 2
Proposition 1.6 Toute variable aléatoire X est limite simple de variables aléatoires étagées.
Si de plus X est une variable aléatoire positive, la limite peut être choisie croissante.
Remarque: Une intersection d’un nombre quelconque de classes monotones est une classe
monotone. 2
Exemples: i) Une tribu est une classe monotone. En effet, pour voir cela, il suffit de voir que
A \ B = A ∩ Bc.
ii) Une classe monotone stable par intersection finie est une tribu. En effet cette classe sera
aussi stable par réunion finie en vertu de l’axiome (b) de la Définition 8, et toute réunion
peut s’écrire comme une réunion croissante (∪j∈N Aj = ∪j∈N (∪k6j Ak ), pour toute famille Aj ,
j ∈ N).
Remarque: On pourrait enoncer ce résultat sous la forme suivante: si M1 est une classe
monotone contenant la famille de parties E ( stable par intersection finie), alors M1 ⊃ σ(E).
Preuve: En vertu de l’exemple i) ci-dessus, σ(E) est une classe monotone qui contient E
et donc M(E) ⊂ σ(E). Pour prouver l’inclusion inverse, on montre que M(E) est stable par
intersection finie (car alors, d’après l’exemple ii), M(E) sera une tribu contenant E, et donc
σ(E) ⊂ M(E)). Il suffit de prouver que si A,B ∈ M(E), alors A ∩ B ∈ M(E). Soit
M1 := {A ∈ M(E) : ∀B ∈ E, A ∩ B ∈ M(E)}.
L’ensemble M1 est une classe monotone qui contient E, donc M(E). Soit
L’ensemble M2 est une classe monotone. De plus il contient E: on doit pour cela montrer que
si B ∈ E, alors ∀C ∈ M(E), B ∩ C ∈ M(E). Or C ∈ M(E) ⊂ M1 , donc puisque B ∈ E,
B ∩ C = C ∩ B ∈ M(E). Ainsi, M2 ⊃ E, donc M2 ⊃ M(E), ce qui montre que M(E) est
stable par intersection finie. Le théorème est prouvé. 2
Proposition 1.7 Soit X : Ω → Rd une fonction vectorielle X(ω) = (X1 (ω), . . . ,Xd (ω)) sur
l’espace mesurable (Ω,A). X est un vecteur aléatoire si et seulement si chaque coordonnée Xj
est une variable aléatoire réelle.
Preuve: On va faire la preuve pour d = 2. On suppose d’abord que X est un vecteur aléatoire
et soit A ∈ B(R). Alors
X1−1 (A) = {ω ∈ Ω : X1 (ω) ∈ A}
= {ω ∈ Ω : (X1 (ω),X2 (ω)) ∈ A × R} = X −1 (A × R),
donc X1 est une variable aléatoire. De la même façon on montre que X2 est une variable
aléatoire.
1.4. PROBABILITÉS 7
X −1 (A × B) = {ω ∈ Ω : X1 (ω) ∈ A, X2 (ω) ∈ B}
M1 = {C ∈ B(R2 ) : X −1 (C) ∈ A}
Puisque, X −1 (∪j∈N Cj ) = ∪j∈N X −1 (Cj ) pour toute famille Cj , j ∈ N, on peut montrer que
M1 est une classe monotone. De plus M1 contient E, donc M1 ⊃ M(E) = B(R2 ). Par
conséquent X est un vecteur aléatoire (voir aussi la Proposition 1.3). 2
1.4 Probabilités
Définition 1.9 Soit (Ω,A) un espace mesurable. On appelle probabilité toute application
P : A → [0,1] telle que
a) P(Ω) = 1
P
b) P est σ-additive (Aj ∈ A, j ∈ N, Ai ∩ Aj = ∅ si i 6= j ⇒ P(∪j∈N Aj ) = j∈N P(Aj )).
Un espace mesurable muni d’une probabilité (Ω,A,P) est appelé espace de probabilité.
Proposition 1.8 Soit (Ω,A,P) un espace de probabilité et (Aj )j∈J , J ⊂ N une famille finie
ou dénombrable d’événements.
1) P est croissante: A1 ⊂ A2 ⇒ P(A1 ) 6 P(A2 );
2) P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) − P(A1 ∩ A2 );
3) Si Aj ⊂ Aj+1 pour tout j, alors P(∪j Aj ) = limj→∞ P(Aj );
4) Si Aj ⊃ Aj+1 pour tout j, alors P(∩j Aj ) = limj→∞ P(Aj );
8 CHAPITRE 1. ESPACE DE PROBABILITÉ
P
5) P est sous-additive: P(∪j∈J Aj ) 6 j∈J P(Aj ).
j−1
!
X
= lim P(A0 ) + P(Bk ) = lim P(Aj ).
j↑∞ j↑∞
k=0
4) Les Bj = Acj , forment une suite croissante, donc comme toute probabilité est bornée
par 1, la suite {P(Bj ) : j ∈ N} est une suite croissante bornée. Donc la limite limj↑∞ P(Bj )
existe et, d’après 3),
[ \
lim P(Bj ) = P Bj = P Ω \ Aj
j↑∞
j j
\
= P(Ω) − P Aj .
j
Donc,
\
P Aj = 1 − lim P(Bj ) = lim [1 − P(Bj )] = lim P(Aj ),
j↑∞ j↑∞ j↑∞
j
2
S
En considérant les ensembles croissants Bk = 06j6k Aj le résultat se déduit de 3).
Remarque: Soit Ω = {ω0 ,ω1 , . . .} un ensemble (au plus) dénombrable muni de la tribu
de ses parties. La formule : X
P(A) := pj , A ∈ P(Ω)
{j:ωj ∈A}
définit une probabilité pourvu que la suite de réels (pj )j>0 vérifie les deux conditions suivantes :
X
pj > 0, j > 0 et pj = 1.
j>0
Inversement, si P est une probabilité sur (Ω,P(Ω)), P en posant pj := P({ωj }), on voit que
la suite de réels positifs
P ou nuls (pj )j>0 satisfait j>0 pj = P(Ω) = 1, et que pour tout
événement A, P(A) = ωj ∈A pj .
En particulier, lorsque Ω est fini, si par symétrie (donnée par la nature de l’expérience)
tous les pj sont égaux entre eux, alors nécessairement pj = 1/card(Ω) (les résultats sont
équiprobables) et la probabilité correspondante est la probabilité uniforme P(A) =
card(A)/card(Ω), A ∈ P(Ω). Cette probabilité uniforme modélise la plupart de jeux de
hasard. Les calcul de probabilités d’événements sont des calculs de cardinaux d’ensembles
(dénombrement). 2
(intégrale de Lebesgue) définit une probabilité pourvu que f > 0 et d’intégrale de Lebesgue
= 1. Inversement si la probabilité P sur (Rd ,B(Rd )) est absolument continue
R
Rd f (x) dx
par rapport à la mesure de Lebesgue λ, c’est-à-dire si λ(A) = 0 ⇒ P(A) = 0, alors
(théorème de Radon-Nikodym)
Z
∃f > 0, borélienne : P(A) = f (x) dx, ∀A ∈ B(Rd ).
A
On dit que f est la densité de P par rapport à λ et elle est unique λ-p.p. 2
(E1 ) Soit P une probabilité sur (]0,1],B(]0,1])) telle qu’elle soit absolument continue par
rapport à la mesure de Lebesgue λ sur R ]0,1]. Alors il existe une fonction (unique λ-p.p.)
borélienne positive f telle que P(A) = A f (x)λ(dx), pour tout A ∈ B(]0,1]).
En effet, on écrit [
R= In , avec In =]n,n + 1].
n∈Z
Alors P(R) = n∈Z P(In ). On note pn = P(In ), n ∈ Z. Alors Pn = p1n P est une proba sur In
P
et elle est absolument continue par rapport à λ. Par (E1 ) on déduit l’existence des fonctions
10 CHAPITRE 1. ESPACE DE PROBABILITÉ
R
fn > 0 boréliennes telles que Pn (A) = A fn (x)λ(dx), pour
P tout A ∈ B(In ), pour tout n ∈ Z.
1
Il suffit de prendre la fonction borélienne positive f = n∈Z pn fn pour avoir la conclusion.
Il est clair que g ≡ 0 est dans G. On montre que G est sup-stable, c’est-à-dire que si g,h ∈ G
alors sup(g,h) ∈ G. En effet, on note A1 = {g > h} et A2 = Ac1 et soit A ∈ B(]0,1]). Alors
Z Z Z
sup(g,h) dλ = g dλ + h dλ 6 P(A ∩ A1 ) + P(A ∩ A2 ) = P(A).
A A∩A1 A∩A2
On note Z
γ = sup g dλ.
g∈G ]0,1]
R
Il est clair que γ 6 1, puisque ]0,1] g dλ 6 P(]0,1]) = 1, pour tout g ∈ G. Il existe une
suite {gn∗ : n > 1} ⊂ G telle que limn→∞ ]0,1] gn∗ dλ = γ. Alors la suite {gn : n > 1}, avec
R
gn := sup(g1∗ , . . . ,gn∗ ) est aussi dans G. Comme gn∗ 6 gn , ]0,1] gn∗ dλ 6 ]0,1] gn dλ, pour tout
R R
R
n > 1. On en déduit que limn→∞ ]0,1] gn dλ = γ. Comme {gn : n > 1} est croissante donc
R
par convergence monotone ]0,1] (limn→∞ gn )dλ = γ. Notons f = supn>1 gn ∈ G. Comme
R R
]0,1] f dλ = γ, l’application g 7→ ]0,1] g dλ atteint son maximum sur G en f . Montrons que
R R
P(A) = A f dλ. Il est clair que P(A) > A f dλ, car f ∈ G. On définit
Z
ν(A) = P(A) − f dλ.
A
R
Si λ(A) = 0 alors P(A) = 0, par hypothèse et aussi A f dλ = 0, donc ν(A) = 0. Montrons
que ν ≡ 0. Supposons ν(]0,1]) > 0 et on note 0 < β = 21 ν(]0,1]). Alors ν(]0,1]) = 2β > β =
βλ(]0,1]).On a besoin de résultat suivant:
(E2 ) Soient µ et ν deux mesures finies sur un espace mesurable (Ω,A) telles que µ(Ω) <
ν(Ω). Alors il existe A0 ∈ A tel que µ(A0 ) < ν(A0 ) et µ(A00 ) 6 ν(A00 ) pour tous A00 ∈ A0 ∩ A.
De ce résultat (avec ν et µ = βλ) on déduit qu’il existe A0 ∈ B(]0,1]) tel que ν(A0 ) > βλ(A0 )
et ν(A00 ) > βλ(A00 ), pour tous A00 ∈ A0 ∩ B(]0,1]). On note f0 = f + β1lA0 . Alors
Z Z Z
0
f0 dλ = f dλ + βλ(A ∩ A ) 6 f dλ + ν(A) = P(A),∀A ∈ B(]0,1]),
A A A
donc f0 ∈ G. De plus
Z Z
f0 dλ = f dλ + βλ(A0 ) = γ + βλ(A0 ) > γ,
]0,1] ]0,1]
puisque λ(A 0 0 0
R ) > 0 (par ν(A ) > βλ(A ) et absolue continuité de ν par rapport à λ). Mais
l’inégalité ]0,1] f0 dλ > γ contredit le choix de γ. L’hypothèse ν(]0,1]) > 0 est donc fausse.
Pour finir la preuve il faut justifier (E2 ).
1.4. PROBABILITÉS 11
La fonction δ = ν − µ est bornée sur A puisque −µ(Ω) 6 δ(A) 6 ν(Ω, pour tous A ∈ A.
Par récurrence on définit {Bn : n > 0}, {An : n > 0}:
B0 := ∅, A0 := Ω = Ω \ B0
αn := inf δ(A).
A∈An ∩A
Par le des propriétés de continuité des mesures µ et ν similaires aux celles des probabilités,
comme {An : n > 0} est décroissante,
δ(An+1 ) = δ(An ) − δ(Bn+1 ) > δ(An ) > δ(An−1 ) > . . . > δ(A0 ) = δ(Ω) > 0,
d’où ν(A0 ) − µ(A0 ) = δ(A0 ) = limn→∞ δ(An ) > 0. Soit A00 ∈ A0 ∩ A. Alors A00 ∈ An ∩ A et
donc δ(A00 ) > αn pour tout n. Comme limn→∞ αn = 0, on trouve ν(A00 ) − µ(A00 ) = δ(A00 ) > 0.
Passons
R à la preuve deR l’unicité. Soient f et g deux fonctions boréliennes
R positives telles que
P(A) = A f (x)λ(dx) = A g(x)λ(dx), pour tout A ∈ B(]0,1]). R Alors A (f − g)(x)λ(dx) = 0,
pour tout A ∈ B(]0,1]). Soit B = {f 6 g} ∈ B(]0,1]). Alors B (f − g)(x)λ(dx) = 0 et f − g > 0
sur B. On en déduit que f − g = 0 p.p. sur B. De même, en considérant B c ∈ B(]0,1]), on
déduit que f − g = 0 p.p. sur B c . Alors f − g = 0 p.p. sur ]0,1]. 2
Définition 1.10 Soient (Ω,A,P) un espace de probabilité. On dit qu’un ensemble N est
négligeable s’il existe un événement B ∈ A tel que N ⊂ B et P(B) = 0.
On dit qu’une propriété Prop(ω) est vérifiée P-presque surement si l’ensemble {ω :
Prop(ω) : est fausse} est négligeable.
Une tribu sur Ω est dite complète si elle contient tous les ensembles négligeables.
Remarque: On peut toujours supposer, sans perte de généralité, que l’espace de probabilité
est complet. 2
1
Alors Y est continue p.s. (car son seul point de discontinuité est 2 et λ({1/2}) = 0.
λ(∅) = 0 et λ((a,b]) = b − a.
On a λ(Ω) = λ((0,1]) = 1.
Montrons que λ est une fonction additive sur S. Soit (a,b] ∈ S et supposons que :
r
[
(a,b] = (ai ,bi ],
i=1
où les intervalles dans le membre droit sont disjoints. Supposons aussi que ces intervalles ont
été numérotées convenablement :
a1 = a, br = b, bi = ai+1 , i = 1, . . . ,r − 1.
Alors λ((a,b]) = b − a et
r
X r
X
λ((ai ,bi ]) = (bi − ai ) = b1 − a1 + b2 − a2 + . . . + br − ar = br − a1 = b − a.
i=1 i=1
iii) Montrons maintenant que λ est σ-additive. Soit (a,b] ∈ S et supposons que :
∞
[
(a,b] = (ai ,bi ],
i=1
Le membre droit est un recouvrement ouvert du compact [a + ε,b], donc on peut en extraire
un recouvrement fini : il existe un entier N tel que
N
[ ε
[a + ε,b] ⊂ ai ,bi + . (1.2)
2i
i=1
d’où
∞
X
b−a6 (bi − ai ) + 2ε
i=1
et comme ε est choisit arbitraire on obtient (1.1). Il reste à prouver que (1.2) implique (1.3).
implique
N
X
d−c6 (di − ci ) . (1.5)
i=1
On fait une récurrence : c’est clair pour N = 1. Supposons que (1.4) pour N − 1 implique
(1.5) pour N − 1 et on vérifie l’implication pour N . Supposons que
cN = max ci et cN < d 6 dN .
i=1,...,N
N
X −1
cN − c 6 (di − ci ),
i=1
donc
N
X −1 N
X −1 N
X
d − c = d − cN + cN − c 6 d − cN + (di − ci ) 6 dN − cN + (di − ci ) = (di − ci ).
i=1 i=1 i=1
iii)-c) Pour
S∞ terminer la preuve de la σ-additivité on va vérifier l’inégalité inverse.
SnOn reprend
(a,b] = i=1 (ai ,bi ] avec une union d’intervalles disjoints. Comme pour tout n, i=1 (ai ,bi ] est
une union d’intervalles disjoints la même chose est vrai pour
n
[ m
[
(a,b] \ (ai ,bi ] =: Ij .
i=1 j=1
Lorsque n → ∞ on trouve
n
X
λ((a,b]) > λ((ai ,bi ])
i=1
!
[ \ [ [
Si Sj0 = Si ∩ Sj0 ∈ Λ
i∈I j∈J (i,j)∈I×J
puisque {Si ∩ Sj0 : (i,j) ∈ I × J} est une famille finie disjointe d’éléments de S (qui est
stable par intersection finie).
S
3. Enfin, vérifions la stabilité au passage au complémentaire. Soit i∈I Si ∈ Λ dont le
c
T
complémentaire est i∈I Si . Par la troisième axiome d’une semi-algèbre, comme Si ∈ S,
on a [
Sic = Sij ,
j∈Ji
16 CHAPITRE 1. ESPACE DE PROBABILITÉ
Preuve du Lemme 1.2. On commence par vérifier que P0 est bien définie par (1.7), ensuite
que P0 est σ-additive sur A(S) et enfin que l’extension est unique.
différentes A = i∈I Si = j∈J Sj0
S S
1. Supposons que A ∈ A(S) admet P deux représentations
et on a besoin de vérifier que i∈I P(Si ) = j∈J P(Sj0 ) pour que P0 ait une unique valeur
P
en A. Comme Si ∈ A,
X X X [ X [
P(Si ) = P(Si ∩ A) = P(Si ∩ Sj0 ) = P( Si ∩ Sj0 )
i∈I i∈I i∈I j∈J i∈I j∈J
Par (1.7)
X ∞ X
XX ∞ X X
X
0
P (A) = P(Sk ) = P(Sk ∩ Sij ) = P(Sk ∩ Sij )
k∈K k∈K i=1 j∈Ji i=1 j∈Ji k∈K
∞ X
X ∞
X [ ∞
X
= P(Sij ) = P( Sij ) = P0 (Ai ),
i=1 j∈Ji i=1 j∈Ji i=1
P
puisque k∈K Sk ∩ Sij = A ∩ Sij = Sij ∈ S.
3. Soient P01Pet P02 deux extensions additives. Alors, pour tout A = i∈I Si ∈ A(S) on a
S
P01 (A) = i∈I P(Si ) = P02 (A).
On ainsi construit l’extension de P à une algèbre. 2
Preuve du Lemme 1.3. On divise la preuve en trois parties : en 1ère partie on étend P0 à
une fonction d’ensemble Π σ-additive sur une famille G ⊃ A. En 2ème partie on étend Π à
une fonction d’ensemble Π∗ sur P(Ω) ⊃ σ(A) et en 3ème partie on fait la restriction de Π∗ à
σ(A) et on obtient la probabilité recherchée.
1. On définit d’abord la famille G :
∞
[
G={ Aj : Aj ∈ A} = {lim ↑ Bn : Bn ∈ A,Bn ⊂ Bn+1 ,∀n}
n
j=1
1.5. LA CONSTRUCTION D’UNE PROBABILITÉ SUR (0,1] 17
Cette dernière définition est bien justifiée car P0 est σ-additive donc la propriété de
continuité sur des suites croissantes est vraie. On dit que {Bn } est une suite approchante
de G. Il reste à voir que Π est bien définie, c’est-à-dire
Fait 1 Si G admet deux suites approchantes {Bn } et {Bn0 },
Fait 5 G est stable par des limites des suites croissantes et Π est continue sur des suites
croissantes : si Gn ∈ G et Gn ↑ G, alors G ∈ G et Π(G) = limn→∞ Π(Gn ).
Par les Faits 3 et 5 on déduit que Π est σ-additive sur G donc la 1ère partie est vérifiée.
2. On définit Π∗ : P(Ω) → [0,1] par
Π∗ (A) est le plus petit majorant des valeurs Π(G) sur des ensembles G ∈ G contenant
A. C’est la mesure extérieure de A. Comme pour Π, on va lister les propriétés de
Π∗ :
Fait 6 On a
Π∗|G = Π (1.13)
et 0 6 Π∗ (A) 6 1, pour tout A ∈ P(Ω). En particulier, Π∗ (Ω) = Π(Ω) = 1 et Π∗ (∅) =
Π(∅) = 0.
En particulier
1 = Π∗ (Ω) 6 Π∗ (A) + Π∗ (Ac ). (1.15)
Fait 9 Π∗ est continue sur des suites croissantes : si An ↑ A, alors Π∗ (An ) ↑ Π∗ (A).
Fait 10 D est une tribu et Π∗|D est une probabilité sur (Ω,D).
Pour m fixé limn ↑ (Bm ∩ Bn0 ) = Bm et on a aussi Bm ∩ Bn0 ⊂ Bn0 . On sait que la σ-additivité
de P implique la continuité sur des suites croissantes. On en déduit :
2
Preuve du Fait 2 : Si on pose Bn = Ω pour tout n, alors
Le même argument marche pour ∅. (1.10) s’obtient par le fait que 0 6 P0 (Bn ) 6 1, pour toute
suite approchante {Bn } de A. Enfin, pour montrer que Π(A) = P0 (A) pour tout A ∈ A, on
prend la suite approchante identiquement égale à A. 2
Preuve du Fait 3 : Soient les suites approchantes Bn1 ,Bn2 ∈ A, telles que Bni ↑ Gi pour
i = 1,2. Comme A est une algèbre, on voit que
Preuve du Fait 5 : Pour chaque n, Gn admet une suite approchante Bm,n ∈ A telle que
limm ↑ Bm,n = Gn . On définit Dm = ∪m
n=1 Bm,n ∈ A (car A est stable par union finie). On va
montrer que
lim ↑ Dm = G (1.18)
m
1.5. LA CONSTRUCTION D’UNE PROBABILITÉ SUR (0,1] 19
et ensuite la limite en n :
Donc G ∈ G et par la définition de Π, on sait que Π(G) = limm→∞ Π(Dm ). Il reste à prouver
que Π(Gn ) ↑ Π(G). Par les trois inclusions précédentes :
On fait n → ∞ :
lim Π(Gn ) 6 lim Π(Dm ) 6 lim Π(Gm )
n→∞ m→∞ m→∞
Preuve du Fait 7 : Pour vérifier (1.14), on fixe ε > 0 et on trouve Gi ∈ G tels que Gi ⊃ Ai
et pour i = 1,2,
ε
Π∗ (Ai ) + > Π(Gi ).
2
On somme ces deux inégalités et on trouve
Π∗ (A1 ∪ A2 ) + Π∗ (A1 ∩ A2 ).
2
20 CHAPITRE 1. ESPACE DE PROBABILITÉ
Preuve du Fait 8 : Cette propriété est une conséquence du fait que Π est monotone sur G
(Fait 4). 2
Preuve du Fait 9 : On fixe ε > 0. Pour chaque n > 1 on trouve Gn ∈ G tels que Gn ⊃ An
et
ε
Π∗ (An ) + n > Π(Gn ).
2
On pose Gn = ∪m=1 Gm . Comme G est stable par réunion finie, G0n ∈ G et {G0n } est croissante.
0 n
par (1.11). On peut alors majorer le membre de droite de l’égalité précédente par
n n+1
!
∗
X
−m ∗ ε ∗
X
6 Π (An ) + ε 2 + Π (An+1 ) + n+1 − Π (An ) = ε 2−m + Π∗ (An+1 )
2
m=1 m=1
qui est (1.19) pour n + 1. On fait n → ∞ dans (1.19). Par la monotonie de Π sur G et celle
de Π∗ sur P(Ω), et comme G est stable par des unions croissantes, on obtient
∞
[
lim Π∗ (An ) + ε > lim Π(G0n ) = Π( G0j ).
n→∞ n→∞
j=1
Comme A = limn ↑ An ⊂ ∞ 0 ∗ ∗
S
j=1 Gj ∈ G, on déduit que limn→∞ Π (An ) > Π (A). Par ailleurs,
∗ ∗ ∗
la monotonie donne Π (An ) 6 Π (A), d’où limn→∞ Π (An ) 6 Π (A). ∗ 2
Preuve du Fait 10 : D’abord on prouve que D est une algèbre. Il est clair que Ω ∈ D,
puisque Π∗ (Ω) = 1 et Π∗ (∅) = 0. Le passage au complémentaire est évident donc il reste à
vérifier la stabilité aux unions et intersections finies. Si A1 ,A2 ∈ D, alors par (1.14) on trouve :
où le membre de droite est obtenu parce que D1 ,D2 ∈ D. Par (1.15) le membre de gauche est
> 2 donc en (1.22) on a égalité. En combinant cette égalité avec (1.15) on trouve
Π∗ (D1 ∪ D2 ) + Π∗ ((D1 ∪ D2 )c ) = 1
Π∗ (D1 ∩ D2 ) + Π∗ ((D1 ∩ D2 )c ) = 1,
1.6. LOI D’UNE VARIABLE ALÉATOIRE 21
donc D1 ∪ D2 ,D1 ∩ D2 ∈ D et D est une algèbre. De plus on obtient des égalités en (1.20) et
(1.21) (sinon on contredit (1.22)), donc Π∗ est additive sur D.
Pour montrer que D est une tribu il suffit de vérifier que D est une classe monotone
(et utiliser ensuite le théorème de classe monotone). Comme D est stable par passage au
complémentaire il suffit de montrer que Dn ∈ D, Dn ↑ D, implique D ∈ D. Par le Fait 9
∞
[
lim Π∗ (Dn ) = Π∗ ( Dn ) = Π∗ (D).
n→∞
n=1
Si on fait m → ∞, comme Dn ∈ D,
2
Preuve du Fait 11. Tout élément A ∈ A est élément de G (suite approchante constante)
et alors Π∗ (A) = Π(A) = P0 (A) et la même chose pour Ac . Mais alors, par (1.15) 1 6
Π∗ (A) + Π∗ (Ac ) = P0 (A) + P0 (Ac ) = 1, d’où A ∈ D. Ainsi, D ⊃ A, donc la tribu D contient
σ(A). La restriction Π∗|σA est la probabilité désirée. L’unicité de cette extension de A à σ(A)
s’obtient par un argument de classe monotone. 2
En ce qui concerne la deuxième partie, remarquer que les deux variables aléatoires ne sont
pas nécessairemant définies sur le même espace de probabilité. 2
Remarque: Si l’on se donne une probabilité sur (E,B) (une loi) on peut toujours l’écrire
comme la loi d’une variable aléatoire (prendre l’identité pour la variable aléatoire). Pour
les applications, en général, seule compte la loi et on explicite plus rarement la variable
aléatoire et l’espace de probabilité (Ω,A,P). Par exemple, on dit que X est de loi de Bernoulli
si P(X = 1) = 1 − P(X = 0) = p au lieu de dire que X : (Ω,A,P) → {0,1} avec
PX ({1}) = 1 − PX ({0}) = p. Aussi la représentation d’une loi par une variable aléatoire
n’est pas unique. En reprenant l’exemple de la loi de Bernoulli, on peut choisir
ou
Ω0 = [0,1], A0 = B([0,1]), P0 = λ, Y (ω) = 1l[0,p] (ω).
2
Définition 1.14 On dit qu’une loi Q sur (Rd ,B(Rd )) est discrète si c’est une combinaison
linéaire finie ou dénombrable à coefficients positifs ou nuls de masses de Dirac
X
Q= pj δxj , xj ∈ Rd , j ∈ J ⊂ N.
j∈J
P
Une variable aléatoire X est discrète si sa loi est PX = j∈J pj δxj . X ne prend (presque
sûrement) qu’un nombre fini ou dénombrablePde valeurs.
X est discrète si et seulement si X = j∈J xj 1lAj avec Aj = X −1 ({xj }) = {ω ∈ Ω :
X(ω) = xj } disjoints deux à deux et dont la réunion est Ω.
On dit qu’une loi Q sur (Rd ,B(Rd )) admet une densité s’il existe une fonction f
borélienne (presque sûrement) positive ou nulle, telle que
Z
Q(B) = f (x)1lB (x) dx, B ∈ B(Rd ).
Rd
On notera la densité de la loi d’une variable aléatoire X, par fX et on dira qu’elle est la
densité de X:
Z
PX (B) = P(X ∈ B) = fX (x)1lB (x) dx, B ∈ B(Rd ).
Rd
Remarque: (cas discret) On peut écrire P que pj = P(X = xj ) = pX (j) pour tous j ∈ J. Les
coefficients pj sont positifs ou nuls et j∈J pj = 1. 2
1.6. LOI D’UNE VARIABLE ALÉATOIRE 23
Remarque: (cas à densité) Si f est la densité d’une loi alors elle est presque sûrement
unique (c’est-à-dire, si g est aussi une densité de la même loi alors f = g p.p.). De plus
Z
f (x) dx = 1.
Rd
2
Remarque: On peut montrer que si f est une fonction borélienne positive p.p. sur Rd et
telle que son intégrale sur tout l’espace est égale à 1, alors il existe un espace de probabilité
(Ω,A,P) et une variable aléatoire X dont la loi admet f pour densité.
Une condition suffisante (et nécessaire) pour que la loi de X admette une densité est la
condition d’absolue continuité de la probabilité PX par rapport à la mesure de Lebesgue. 2
Remarque: Soit X une variable aléatoire dont la loi est discrète donnée par pX (j) = P(X =
xj ), j ∈ J et soit g : J → I une application mesurable de l’ensemble dénombrable J dans
l’ensemble dénombrable I. Alors Y = g(X) est une variable aléatoire dont la loi est discrète
donnée par X
pY (i) = P(Y = yi ) = pX (j).
j∈J:g(xj )=yi
On verra que ce resultat ne se généralise pas tel quel à des fonctions de plusieurs variables
dans le cas discret. 2
Proposition 1.9 Soit X une variable aléatoire à valeurs dans Rd de densité fX et soit
g : Rd → Rd un difféomorphisme de Rd , c’est-à-dire, une bijection continûment différentiable
ainsi que son inverse. Alors Y = g(X) est une variable aléatoire à valeurs dans Rd qui admet
pour densité la fonction
Définition 1.15 Soit X une variable aléatoire réelle définie sur un espace de probabilité
(Ω,A,P). On appelle fonction de répartition de X ou de sa loi PX et on note FX , la
fonction sur R définie par
Preuve: 1) vient du fait que P est à valeurs dans [0,1]. La croissance découle de la croissance
de P.
La continuité à droite peut être vue comme une conséquence de la Proposition 8, 4) en
remarquant que
\ 1
{X 6 t} = {X 6 t + }
∗
n
n∈N
1
lim FX (t + h) = lim FX (t + ) = FX (t).
h↓0 n↑∞ n
tandis que
1 = P(Ω) = lim P(X 6 n),
n↑∞
Preuve: En effet, si FX = FY , alors PX et PY coı̈ncident sur les intervalles, donc sur la tribu
engendrée par l’ensemble E des intervalles; cette tribu est la tribu borélienne. De plus E est
stable par intersection finie. Donc, par le théorème de classe monotone M(E) = σ(E) = B(R).
Soit
M1 = {B ∈ B(R) : PX (B) = PY (B)}.
1.6. LOI D’UNE VARIABLE ALÉATOIRE 25
Par la propriété de continuité monotone de P on prouve que M1 est une classe monotone
contenant E. Le résultat s’ensuit. 2
Preuve: Soit Dn l’ensemble des points de discontinuité avec un saut d’amplitude plus grande
que 1/n:
1
Dn := {t ∈ R : F (t) − F (t−) > }.
n
Comme 0 6 F 6 1 on a nécessairement card(Dn ) 6 n. L’ensemble des points de discontinuité
est ∪n∈N∗ Dn , et donc est dénombrable. 2
Remarque: Supposons que la loi de X est discrète et que X ne prend qu’un nombre fini
de valeurs X(Ω) = {x1 , . . . ,xr }, avec x1 < . . . < xr . Alors
0, si t < x1
FX (t) = p1 + . . . + pj , si xj 6 t < xj+1 avec j < n, t ∈ R,
1, si t > xr
P(X = t) = 0, ∀t ∈ R.
De plus FX est dérivable p.p. sur R. Ainsi il y a une bijection entre l’ensemble des fonctions
boréliennes positives p.p. sur R et d’intégrale 1 et l’ensemble des fonctions de répartition
continues sur R et dérivables p.p. sur R. Si de plus fX est continue, alors FX est dérivable.2
Rappel : si f est une fonction continue et si F est une fonction continuement différentiable
on a Z x Z b
d
f (t)dt = f (x) et F 0 (t)dt = F (b) − F (a).
dx a a
Questions : La première égalité est-elle vraie pour des fonctions intégrables au sens de
Lebesgue? Quelle est la classe (aussi vaste que possible) des fonctions pour lesquelles la
deuxième égalité a lieu?
Rx
Le but est d’étudier les propriétés de l’intégrale de Lebesgue F (x) := a f (t)dt, comme
fonction de sa borne supérieure. Si f > 0 alors F est monotone non décroissante. On sait
26 CHAPITRE 1. ESPACE DE PROBABILITÉ
que toute fonction intégrable f est différence de deux fonctions intégrables non négatives
f = f + − f − donc F se décompose en une différence de deux fonctions monotones non
décroissantes. Ainsi l’étude de F peut être réduit à l’étude des fonctions monotones du même
type. Les propriétés 5 et 7 ci-dessous, donnent la réponse à la première question. La réponse
à la deuxième est contenue dans les propriétés 8, 11 et 12.
Définition 1.16 Une fonction g sur un intervalle [a,b] est dite monotone non décroissante
si t 6 t0 implique g(t) 6 g(t0 ). La limite limh↓0 g(t0 + h) (lorsqu’elle existe) s’appelle limite à
droite de g au point t0 et se note g(t0 +). De la même façon on définit la limite à gauche de g
en t0 notée g(t0 −). Le point où ces deux limites existent, mais sont inégales, s’appelle point
de discontinuité de première espèce. La différence g(t0 +) − g(t0 −) s’appelle saut de g en t0 .
Si g(t0 ) = g(t0 +) on dit que la fonction est continue à droite en t0 .
Propriété 1 Une fonction monotone non décroissante sur un intervalle [a,b] est borélienne
et bornée, donc intégrable.
En effet si g est monotone non décroissante sur [a,b], on a g(a) 6 g(t) 6 g(b) sur [a,b].
D’autre part {t : g(t) < c} est soit un segment, soit un intervalle semi-ouvert (soit l’ensemble
vide). En effet, supposons qu’il existe des points t tels que g(t) < c. On note α la borne
supérieure de ces points. Alors {t : g(t) < c} est soit [a,α], soit [a,α).
Propriété 2 Une fonction monotone ne peut avoir que des discontinuités de première espèce.
En effet, soit t0 un point quelconque de [a,b] et soit tn ↑ t0 . La suite {g(tn )} est bornée par
g(a) et g(b), donc elle a au moins un point d’accumulation. L’existence de plusieurs points
d’accumulation pour une telle suite est en contradiction avec la monotonie de g. Ainsi g(t0 −)
existe et on fait de la même façon pour g(t0 +).
Propriété 3 L’ensemble des points de discontinuité d’une fonction monotone est au plus
dénombrable.
En effet, la somme de tout nombre fini de sauts de g sur [a,b] ne dépasse pas g(b) − g(a).
Par conséquent, pour chaque n, le nombre de sauts plus grand que n1 est fini. En faisant
leur somme pour tous les n = 1,2, . . ., on trouve que le nombre total de sauts est fini ou
dénombrable.
Propriété 4 Toute fonction monotone continue à droite peut être représentée de façon unique
comme la somme d’une fonction continue monotone et d’une fonction de sauts (continue à
droite).
comme somme de l’accroissement de g sur [t0 ,t00 ] et la somme de ses sauts sur le même
intervalle. Pour t∗ un point arbitraire on a (voir!)
Propriété 5 Une fonction monotone sur un intervalle [a.b] admet presque partout sur cet
intervalle une dérivée finie.
g(t)−g(t0 )
On pose R(t) := t−t0 et on introduit les notations suivantes :
Λdr (t0 ) := lim sup R(t), λdr (t0 ) := lim inf R(t), Λga (t0 ) := lim sup R(t), λga (t0 ) := lim inf R(t).
t↓t0 t↓t0 t↑t0 t↑t0
On a toujours λdr 6 Λdr et λga 6 Λga . (Pour simplifier on ne fait pas apparaı̂tre la dépendance
en t0 .)
Il faut prouver que −∞ < λga = λdr = Λga = Λdr < ∞ a lieu pour presque tous t0 ∈ [a,b].
On commence par prouver le résultat pour g continue non décroissante. Il suffit de prouver
que, presque partout, on a
Λdr < ∞ et λga > Λdr .
En effet, si l’on pose ĝ(t) = −g(−t), g sera continue non décroissante sur [−b, − a]. Alors, on
peut voir que pour tout t0 ∈ (a,b), on a
Donc en appliquant la deuxième inégalité à ĝ on obtient λdr > Λga , d’où, presque partout,
Λdr 6 λga 6 Λga 6 λdr 6 Λdr .
Montrons d’abord que Λdr < ∞ presque partout. Supposons que Λdr = ∞ en un point t0 .
Alors, pour toute constante C il existe τ > t0 tel que R(τ ) > C ou
Soit la fonction continue h(t) = g(t) − Ct. On voit que t0 est un point invisible à droite pour
h (voir le lemme suivant admis) :
Lemme 1 (Riesz)
Soit h une fonction continue sur [a,b]. Un point t0 est dit invisible à droite pour h s’il existe un
point τ , t0 < τ 6 b tel que h(t0 ) < h(τ ). Alors, l’ensemble des points invisisbles à droite pour
h est un ouvert de [a,b] et, par conséquent est une réunion finie ou dénombrable d’intervalles
ouverts deux à deux disjoints (ak ,bk ) (et peut être un intervalle semi-ouvert d’extrémité a).
Pour chacun de ces intervalles on a h(ak ) 6 h(bk ).
d’où
X X g(bk ) − g(ak ) g(b) − g(a)
(bk − ak ) 6 6 .
C C
k k
Comme C peut être aussi grande que l’on veut, on en déduit que l’ensemble des points pour
lesquels Λdr peut être recouvert par une famille d’intervalles dont la somme des longueurs est
aussi petite que l’on veut. Par conséquent, cet ensemble est de mesure de Lebesgue nulle.
Montrons maintenant que λga > Λdr presque partout. On considère deux rationnels 0 <
c < C < ∞ et on pose ρ = c/C. On désigne par Ec,C l’ensemble des t pour lesquels Λdr > C
28 CHAPITRE 1. ESPACE DE PROBABILITÉ
et λga < c. On va montrer que Ec,C est de mesure de Lebesgue nulle et comme l’ensemble des
points pour lesquels λga < Λdr est une réunion finie ou dénombrable d’ensembles de la forme
Ec,C , on aura la conclusion. Pour montrer que `(Ec,C ) = 0 (la mesure de Lebesgue sur R sera
notée ici `) on a besoin du lemme suivant (admis) :
Lemme 2 Soit un sous ensemble E de l’intervalle [a,b] tel que pour tout intervalle (α,β) ⊂
[a,b] on a ` (E ∩ (α,β)) 6 ρ(β − α), où 0 < ρ < 1. Alors `(E) = 0.
Soit l’ensemble des t ∈ (α,β) pour lesquels λga > C. À tout point de cet ensemble on peut
associer un τ < t tel que
g(τ ) − g(t)
< c ⇔ g(τ ) − cg(τ ) > g(t) − cg(t).
τ −t
Ainsi t est invisible à gauche pour g(t) − ct (définition identique), donc d’après un résultat
similaire au Lemme 1, l’ensemble de tous ces t est une réunion finie ou dénombrable d’intervalles
(αk ,βk ) ⊂ (α,β) et g(βk ) − cβk 6 g(αk ) − cαk , c’est-à-dire
Sur chacun des intervalles (αk ,βk ) on considère l’ensemble Gk des points t pour lesquels
Λdr > C. On reprend un raisonnement identique et on déduit que Gk est une réunion finie ou
dénombrable d’intervalles (αkj ,βkj ) et que
1
βkj − αkj 6 [g(βkj ) − g(αkj )].
C
Il est clair qu’on peut recouvrir Ec,C ∩ (α,β) par des intervalles (αkj ,βkj ) et on a
X 1 X 1 X c X
(βkj − αkj ) 6 [g(βkj ) − g(αkj )] 6 [g(βk ) − g(αk )] 6 (βk − αk ) 6 ρ(β − α).
C C C
k,j k,j k k
Le Lemme 2 s’applique et le résultat est prouvé dans le cas d’une fonction g continue non
décroissante (à l’exception des Lemmes 1 et 2). Si g est monotone discontinue on peut utiliser
un résultat identique au Lemme 1 à condition de bien définir la notion de point t0 invisible à
droite dans ce cas : il existe τ > t0 tel que max{g(t0 −),g(t0 ),g(t0 +)} < g(τ ).
Propriété 6 La fonction de sauts d’une fonction monotone a une dérivée nulle presque
partout.
En effet, une telle fonction est la somme d’une série convergente de fonctions non décroissantes
de la forme qn (t) = pn 1l{t>tn } dont chacune a une dérivée presque partout nulle. Il reste à
utiliser le théorème de dérivation terme à terme d’une série de fonctions monotones (admis).
R
Soit ε > 0 et soit δ > 0 tel que | A f (t)dt| < ε, dès que `(A) < δ. On choisit l’ouvert
G ⊂ [a,b] tel que G ⊃ Eα,β et `(G) < `(Eα,β ) + δ. Si x ∈ Eα,β , alors pour tous les ξ > x
voisins de x,
F (ξ) − F (x)
> β ⇔ F (ξ) − βξ > F (x) − βx.
ξ−x
Donc x est un point invisible à droite pour la fonction F (x) − βx sur chacun des intervalles
composant G. Par le Lemme 1, on peut indiquer un ouvert S = ∪k (ak ,bk ) tel que Eα,β ⊂ S ⊂ G
et
Z bk
F (bk ) − βbk > F (ak ) − βak ⇔ F (bk ) − F (ak ) > β(bk − ak ) ⇔ f (t)dt > β(bk − ak ),
ak
d’où Z
f (t)dt > β`(S).
S
D’autre part
Z Z Z
f (t)dt = f (t)dt + f (t)dt 6 α`(Eα,β ) + ε 6 α`(S) + ε + |α|δ.
S Eα,β S\Eα,β
On en déduit
ε + |α|δ
α`(S) + ε + |α|δ > β`(S) ⇔ `(S) 6 .
β−α
Ainsi, l’ensemble Eα,β peut être enfermé dans un ensemble ouvert de mesure arbitrairement
petite donc `(Eα,β ) = 0.
Nous avons prouvé que f (x) > F 0 (x) presque partout. En remplaçant f (x) par −f (x) on
peut montrer que −f (x) > −F 0 (x) donc f (x) 6 F 0 (x) presque partout. L’égalité est prouvée.
Propriété 8 La dérivée 0
R b 0 F d’une fonction monotone non décroissante F est intégrable au
sens de Lebesgue et a F (x)dx 6 F (b) − F (a).
Le membre de droite tend vers F (b) − F (a+) quand h ↓ 0. Par le lemme de Fatou on obtient
Z b Z b
0
F (x)dx 6 lim Φh (x)dx = F (b) − F (a+) 6 F (b) − F (a)
a h→0 a
(l’existence de l’intégrale de F 0 est assurée également par le lemme de Fatou). Il est facile de
voir que F : [0,1] → R donnée par F (x) = 1l( 1 ,1] (x) satisfait l’inégalité stricte!
2
Définition 1.17 Une fonction F sur un intervalle [a,b] est dite à variation bornée s’il existe
une constante C telle quePpour toute subdivision a = x0 < x1 < . . . < xn = b on ait la
variation totale Vba [F ] := k |F (xk ) − F (xk−1 )| 6 C.
30 CHAPITRE 1. ESPACE DE PROBABILITÉ
Propriété 9 (admise)
Toute fonction monotone est à variation bornée. Toute fonction à variation bornée est différence
de deux fonctions monotones non décroissantes.
Définition 1.18 Une fonction F sur un intervalle [a,b] est dite absolument continue sur [a,b],
si pour tout ε > 0 il existe δ > 0 tel que pour
P toute famille au plusPdénombrable d’intervalles
deux à deux disjoints (ak ,bk ) satisfaisant k (bk − ak ) < δ, on a k |F (bk ) − F (ak )| < ε.
Propriété 10 (admise)
Toute fonction absolument continue est uniformément continue. Toute fonction absolument
continue est à variation bornée. Toute fonction absolument continue est différence de deux
fonctions absolument continues monotones non décroissantes.
Rx
Propriété 11 Si f est une fonction intégrable au sens de Lebesgue alors F (x) = a f (t)dt
est une fonction absolument continue.
Si {(ak ,bk )} est une famille quelconque d’intervalles deux à deux disjoints alors
bk bk
XZ
X X Z
Z
|F (bk ) − F (ak )| =
f (t)dt 6 |f (t)|dt = |f (t)|dt.
k k ak k ak ∪k (ak ,bk )
Il suffit de prouver
R x 0 le résultat pour le cas où F est monotone 00non 0décroissante. Alors
Φ(x) = F (x) − a F (t)dt est aussi monotone non décroissante : si x > x on a
Z x00
Φ(x00 ) − Φ(x0 ) = F (x00 ) − F (x0 ) − F 0 (t)dt > 0.
x0
D’autre part Φ est absolument continue comme différence de deux fonctions absolument
continues et Φ0 (x) = 0 presque partout (par 7). On a besoin d’un lemme (admis) :
Lemme 3 Si la dérivée d’une fonction absolument continue monotone non décroissante est
nulle presque partout, alors cette fonction est une constante.
On en déduit que Φ est une constante. En faisant x = a dans sa définition on trouve que
cette constante est égale à F (a).
Exemples: i) Soit λ > 0 et F (t) = (1 − e−λt )1l[0,∞[ (t). C’est une fonction de répartition
dérivable et la densité est f (t) = λe−λt 1l[0,∞[ (t) (loi exponentielle).
ii) F = 1l[x,∞[ est la fonction de répartition de la masse de Dirac en x, δx .
1.6. LOI D’UNE VARIABLE ALÉATOIRE 31
On écrit Y ∼ N (m,σ 2 ).
Cette dernière assertion est satisfaite dès que F (t) > U . Autrement dit on a {U < F (t)} ⊂
{G(U ) 6 t}. D’autre part si l’inégalité inf{s : F (s) > U } 6 t est vérifiée, alors F (s) > U
32 CHAPITRE 1. ESPACE DE PROBABILITÉ
pour tout s > t, c’est-à-dire on a {G(U ) 6 t} ⊂ {U < F (s)}. Comme U suit la loi uniforme,
il en découle des deux inclusions que, pour tout s > t
Comme F est continue à droite, en faisant tendre s vers t, on obtient P(G(U ) 6 t) = F (t)
pour tout t ∈ R, ce qui est le résultat. 2
Remarque: On peut voir que G est croissante, continue à droite et admet une limite à
gauche en tout point de ]0,1[. Pour voir la continuité à droite il suffit de remarquer que
{t : F (t) > u} = ∪n∈N∗ {t : F (t) > u+ n1 }. On peut aussi prouver que F (t) = inf{u : G(u) > t}
(d’ici aussi le nom, inverse continue à droite de F ). On peut vérifier que si F est inversible,
G est l’inverse de F au sens usuel. La proposition précédente permet de générer des variables
aléatoires de loi arbitraire à partir d’une variable uniforme (fournie par l’ordinateur sous
forme des nombres pseudo-aléatoires). 2
Définition 1.19 Soit X = (X1 , . . . ,Xd ) un vecteur aleátoire à valeurs dans Rd . On appelle
fonction de répartition de X ou de sa loi PX , la fonction sur Rd définie par
La loi de la variable aléatoire réelle Xj est appelée la j-ème marginale de X. Elle est donnée
par sa fonction de répartition:
Remarque: La loi d’un vecteur aléatoire détermine chacune des lois marginales, mais la
réciproque est fausse en général. Voici un exemple: soit deux couples aléatoires (X,Y ) et
(U,V ) dont les lois discrètes sont données par
1 1 1 5
PX,Y = δ(0,0) + δ(0,1) + δ(1,0) + δ(1,1)
6 3 12 12
et
1 1 1
PU,V = δ(0,0) + δ(0,1) + + δ(1,1) .
4 4 2
Les lois marginales sont données par
1 1 1 3
PX = δ0 + δ1 = PU et PY = δ0 + δ1 = PV .
2 2 4 4
On produit deux couples aléatoires de lois différentes mais ayant les mêmes lois marginales.2
Remarque: Supposons que la loi du couple (X,Y ) est discrète à valeurs dans {xi : i ∈
I} × {yj : j ∈ J}:
pi,j = P(X = xi ,Y = yj ), i ∈ I,j ∈ J.
Alors les lois de X et de Y sont données par:
X X
pi = P(X = xi ) = pi,j et qj = P(Y = yj ) = pi,j .
j∈J i∈I
1.7. LOIS DE PROBABILITÉS USUELLES 33
En effet
pi = P(X = xi ) = P(X = xi ,Y ∈ {yj : j ∈ J})
[ X
= P (X = xi ,Y = yj ) = P(X = xi ,Y = yj ).
j∈J j∈J
2
Remarque: Supposons que la loi du couple (X,Y ) admet une densité fX,Y . Alors les deux
lois marginales admettent des densités :
Z Z
fX (x) = fX,Y (x,y) dy et fY (y) = fX,Y (x,y) dx.
R R
En effet,
PX (A) = P(X ∈ A) = P((X,Y ) ∈ A × R)
ZZ Z Z
= 1lA (x)fX,Y (x,y) dx dy = 1lA (x) fX,Y (x,y) dy dx.
R2 R R
2
2. Loi binomiale.
n
X
Q= Cnk pk (1 − p)n−k δk , p ∈]0,1[.
k=0
et P(X = k) = 0 sinon.
Il s’agit de répeter n fois l’expérience à deux issues possibles dont probabilité de succès
vaut p, en assurant chaque fois les mêmes conditions initiales (indépendence des repetitions).
Le nombre X de succès obtenus suit la loi binomiale.
3. Loi uniforme.
r
1X
Q= δ xj , r ∈ N ∗
r
j=1
34 CHAPITRE 1. ESPACE DE PROBABILITÉ
4. Loi géométrique.
∞
X
Q= p(1 − p)k−1 δk , p ∈]0,1[.
k=1
On reprend la modélisation de la loi binomiale, mais cette fois-ci X note la première fois
où le succès est obtenu. Alors X suit la loi géométrique.
5. Loi de Poisson.
∞
X λk
Q= e−λ δk , λ > 0.
k!
k=0
λk
P(X = k) = e−λ , k ∈ N.
k!
6. Loi hypergéométrique.
X suit la loi hypergéométrique, notée H(N,n,p), N ∈ N∗ , 1 6 n 6 N , p ∈]0,1[, si
k C n−k
CN p N (1−p)
P(X = k) = n , si max{0,n − N (1 − p)} 6 k 6 min{n,N p}
CN
et = 0 sinon.
Si on tire n boules en une seule fois, sans remise, dans une urne contenant N boules dont
N p sont blanches et N (1 − p) sont rouges, le nombre X de boules blanches tirées suit la loi
hypergéométrique.
7. Loi multinomiale.
(X1 , . . . ,Xd ) à valeurs dans Nd , suit la loi multinomiale, notée M(n,p1 , . . . ,pn ), n ∈ N,
p1 + . . . + pd = 1, p1 , . . . ,pd ∈ [0,1]:
n!
P((X1 , . . . ,Xd ) = (n1 , . . . ,nd )) = pn1 . . . pnd d , si n1 + . . . nd = n
n1 ! . . . n d ! 1
et = 0 sinon.
Si l’on dispose de n boules que l’on jette une par une aléatoirement dans d boı̂tes différentes,
chaque boule ayant la probabilité pi d’être jetée dans la i-ème boı̂te, les nombres (X1 , . . . ,Xd )
de boules dans les boı̂tes suivent la loi multinomiale.
1.7. LOIS DE PROBABILITÉS USUELLES 35
8. Loi uniforme.
Une variable aléatoire réelle X suit une loi uniforme sur [a,b], a < b, notée U[a,b] , si sa densité
par rapport à la mesure de Lebesgue est
1
f (x) := 1 (x).
b − a [a,b]
9. Loi exponentielle.
Une variable aléatoire réelle X suit une loi exponentielle de paramètre λ > 0, notée E(λ), si
sa densité par rapport à la mesure de Lebesgue est
(x − m)2
1
f (x) := √ exp − .
2πσ 2 2σ 2
1.8 Exercices
1.1. Montrer que P(Ω) est une tribu et dire combien d’éléments elle a si Ω possède r éléments.
1.2. Montrer qu’une tribu est stable par intersection dénombrable, par réunion finie, par
intersection finie. Montrer qu’on peut remplacer l’axiome de stabilité par réunion dénombrable
par l’axiome de stabilité par intersection dénombrable.
1.3. Montrer que l’intersection d’un nombre quelconque de tribus est une tribu; en déduire
qu’il existe une seule tribu, minimale pour l’inclusion, dans l’ensemble des tribus contenant
un sous-ensemble donné E de P(Ω).
1.5. Montrer que sur R, la tribu engendrée par les parties fermées est égale à B(R).
1.6. Montrer que la tribu borélienne coı̈ncide avec la tribu engendrée par les intervalles ]a,b[
ou par les intervalles ] − ∞,b], où −∞ < a < b < ∞. Même question lorsqu’on suppose
seulement a,b ∈ Q , a < b.
1.7. On considère sur R la tribu engendrée par les singletons. Montrer que cette tribu coı̈ncide
avec la tribu
T = {A ⊂ R : A ou Ac soit au plus dénombrable}.
1.8. Montrer qu’une fonction réelle est une variable aléatoire par rapport à la tribu triviale
(sur Ω) si et seulement si elle est constante.
1.9. Soit X une fonction de l’espace mesurable (Ω,A) dans l’espace mesurable (E,B). Montrer
que A0 = {X −1 (B) : B ∈ B} et B 0 = {B : X −1 (B) ∈ A} sont des tribus mais que
X(A) = {X(A) : A ∈ A} n’est pas une tribu en général.
1.8. EXERCICES 37
1.10. Soit (Xn )n∈N une suite bornée de variables aléatoires réelles définies sur un espace
mesurable (Ω,A). Montrer que supn∈N Xn , inf n∈N Xn , lim supn→∞ Xn et lim inf n→∞ Xn sont
des variables aléatoires. En déduire que l’ensemble
1.12. Montrer que si (Aj )j∈N est une famille d’événements, alors pour tout r ∈ N∗ ,
Xr X [ Xr
P(Aj ) − P(Aj ∩ Ak ) 6 P Aj 6 P(Aj ).
j=0 06j<k6r 06j6r j=0
1.13. Soit l’espace mesurable (Ω,A) et P : A → [0,∞[ une application additive (c’est-à-dire
P(A ∪ B) = P(A) + P(B), lorsque A,B ∈ A et A ∩ B = ∅), telle que P(Ω) = 1. Montrer que
les quatre affirmations suivantes sont équivalentes:
(i) P est une probabilité (c’est-á-dire elle est σ-additive);
(ii) P est continue sur des suites croissantes :
1.14. Soit (Ω,A,P) un espace de probabilité. On considère une suite d’ensembles mesurables
(An )n∈N ⊂ A et on note
[ \ \ [
lim inf An := Am , lim sup An := Am .
n n
n∈N m>n n∈N m>n
Montrer que:
P(lim inf An ) 6 lim inf P(An ) 6 lim sup P(An ) 6 P(lim sup An ).
n n→∞ n→∞ n
On dit que la suite (An )n∈N est convergente si lim inf n An = lim supn An . Montrer que si la
suite est croissante (respectivement décroissante) alors elle est convergente et
[ \
lim An = An (respectivement lim An = An ).
n n
n∈N n∈N
38 CHAPITRE 1. ESPACE DE PROBABILITÉ
Montrer que si la suite (An )n∈N est convergente on a la propriété de continuité de la mesure
µ:
P(lim An ) = lim P(An ).
n n→∞
1.15. On dit qu’un événement A ∈ A est presque sûr si A est presque sûrement égal Ω,
c’est-à-dire Ω = A ∪ N , avec N un ensemble négligeable. Soit (Aj )j∈J , J ⊂ N, une famille
d’événements presque sûrs. Montrer que ∩j∈J Aj est presque sûr.
(i) Montrer que AP = σ(A ∪ N ), où N est la classe des ensembles P-négligeables.
(ii) On définit P̄ sur AP par P̄(C) = P(A1 ) = P(A2 ). Montrer que P̄ est bien définie (c’est-
à-dire que sa valeur ne dépend pas du choix de A1 et A2 . Montrer que P̄ est la seule mesure
finie sur AP = σ(A ∪ N ) qui prolonge P (c’est-à-dire qui coı̈ncide avec P sur A).
(iii) Montrer que pour toute fonction X réelle AP -mesurable, il existe deux variables aléatoires
U,V réelles telles que U 6 X 6 V et V − U = 0 P − p.s.
1.17. Soient X, Y deux variables aléatoires réelles sur un espace de probabilité (Ω,A,P).
(i) {X 6= Y } est-il un événement? Montrer que pour tout B ∈ B(R) on a
(ii) On suppose que X et Y sont presque sûrement égales. Montrer qu’elles ont la même loi.
1.18. (i) Soient X, Y deux variables aléatoires réelles sur un espace de probabilité (Ω,A,P)
telles que
P(Y 6 t < X) = 0, ∀t ∈ R.
Montrer que P(Y < X) = 0.
(ii) On suppose cette fois que X et Y ont la même loi. Montrer que si X > Y p.s. alors X et
Y sont presque sûrement égales.
1.19. Une urne contient des boules noires et des boules rouges. On tire au hasard et avec
remise à chaque fois, une boule de l’urne. On effectue une série “infinie” de tirages. Montrer
que l’événement “obtenir à chaque fois une boule de couleur noire” est négligeable.
1.21. Soit l’ espace de probabilité (Ω,A,P) = ([0,1],B([0,1]),λ). Montrer que les applications
suivantes sont des variables aléatoires et calculer leur fonction de répartition:
(i) X1 (ω) = 2ω.
(ii) X2 (ω) = 2 − 2ω.
1.8. EXERCICES 39
(iii) Y (ω) = ω 2 .
(iv) Z1 = X1 + X2 .
(v) Z2 = X1 + Y .
(vi) Z3 = X1 ∧ 1.
(vii) W (ω) = [10ω] ([·] désigne la partie entière).
(viii)* Un (ω) = f (nω), avec f : R → R une fonction borélienne et périodique de période 1.
Montrer de plus que les Un ont toutes la même loi.
Y (ω) := a, ∀ω ∈ Ω.
(ii) Supposons que pour tout événement A ∈ A, P(A) = 0 ou P(A) = 1. Montrer alors que
toute variable aléatoire réelle définie sur (Ω,A,P) est p.s. constante.
1.23. (i) Montrer qu’il existe une variable aléatoire X à valeurs dans N telle que:
e−2 2k
P(X = k) = (1 + ak), ∀k ∈ N,
4 k!
pour une unique valeur de a que l’on déterminera.
(ii) Soit Y une variable aléatoire de loi de Poisson de paramètre λ > 0. On lui associe la
variable aléatoire Y
2, si Y est pair,
Z :=
1−Y
2 , si Y est impair.
Trouver la loi de Z.
(iii) Soit T une variable aléatoire de loi géométrique de paramètre p ∈]0,1[. On considère
U = 4[T /2] − 2T + 1, où [·] désigne la partie entière. Trouver la loi de U .
1.25. Montrer qu’il existe une variable aléatoire X dont la fonction de répartition vaut
1
F (t) = , ∀t ∈ R.
1 + e−t
Calculer la densité de X. On pose Y = eX , Z = X1l{0<X<1} et U = 1l{0<X<1} . Trouver les
lois de Y , Z et U .
1.26. La durée T d’une communication téléphonique est une variable aléatoire de fonction de
répartition
F (t) = (1 − e−λt )1l[0,∞[ (t), où λ > 0.
40 CHAPITRE 1. ESPACE DE PROBABILITÉ
Calculer, pour a,b > 0, P(T < 0), P(a 6 T ), P(a 6 T 6 b). T possède-t-elle une densité?
1.27. Soit X variable aléatoire positive de densité f telle que f (x) > 0 si x > 0, et de
fonction de répartition F . On regarde X comme la durée de vie d’un composant; son taux de
panne à l’instant t > 0 est défini par
P(t 6 X < t + h)
r(t) := lim .
h↓0 hP(t 6 X)
(i) Calculer r en termes de F et f et réciproquement. Donner une condition nécessaire et
suffisante sur r pour que limt→∞ F (t) = 1.
(ii) Déterminer les densités correspondant aux taux de panne constants.
(iii) Calculer f et F lorsque r(t) = ktα−1 , t > 0, k,α > 0 (loi de Weibull).
1.30. On jette un point D au hasard sur le cercle centré en O0 = ( 12 ,0) de rayon 21 , c’est-à-dire,
que pour tout arc A, P(D ∈ A) est proportionnel à la longueur de A. On note aussi le point
C = (1,0).
(i) Calculer le coefficient de proportionnalité. On note Θ la mesure de l’angle (O0\ C,O0 D) qui
appartient à ] − π,π]. Quelle est la loi de Θ?
(ii) On pose D = (X,Y ). Trouver la loi de X (loi arcsinus).
1.31. Soient f, g deux fonctions boréliennes, bornées, définies sur [0,1]. On suppose que pour
tout intervalle I ⊂ [0,1],
Z 1 Z 1
1lI (x)f (x)dx = 1lI (x)g(x)dx.
0 0
Montrer que f = g presque partout. Que peut-on dire lorsque f, g sont continues (à droite)?
1.32. Soient n > 1 un entier fixé et p1 , p2 , p3 trois réels positifs tels que p1 + p2 + p3 = 1. On
note : (
n! i j n−i−j ,
pij = i!j!(n−i−j)! p1 p2 p3 si i + j 6 n,
0, sinon .
(i) Montrer qu’il existe un couple (X,Y ) tel que P(X = i,Y = j) = pij .
(ii) Trouver les lois de X et de Y .
1.33. Le couple aléatoire (X,Y ) a la densité, par rapport à la mesure de Lebesgue sur R2 ,
f (x,y) = cy1l[0,1] (x)1l[0,1] (y).
(i) Calculer c.
(ii) Trouver les densités marginales de X et de Y .
Mêmes questions pour
g(x,y) = c(x + 3y)e−x−2y 1l[0,∞[ (x)1l[0,∞[ (y).
1.8. EXERCICES 41
1.34. Le couple aléatoire (X,Y ) a la densité, par rapport à la mesure de Lebesgue sur R2 ,
1
f (x,y) = 1lD (x,y), où D = {(x,y) ∈ R2 : x2 + y 2 6 1}.
π
(i) Calculer P(X > √12 ), P(Y > √12 ), puis P(X > √12 ,Y > √12 ).
(ii) Calculer P(X > Y ) et P(X > λY ).
(iii) Trouver les marginales de X et de Y .
(iv) Soient a, b deux réels égaux à ±1. Montrer que (X,Y ) a la même loi que (aX,bY ). Montrer
que (X,Y ) a la même loi que (Y,X).
(v) On note (R,Θ) les coordonnées polaires de (X,Y ). Trouver la loi du couple (R,Θ) et ses
marginales.
1.35. Soit le couple aléatoire (X,Y ). On note ϕ(x,y) = f (x)g(y), avec f, g boréliennes
positives. Quelles hypothèses doivent vérifier f et g pour que ϕ puisse être la densité du
couple (X,Y )? Calculer alors les densités marginales de X et Y et vérifier que ϕ est le produit
de ces densités.
1.36. Soit Z x
1 2 /2
Φ(x) := √ e−t dt.
2π −∞
Chapitre 2
Remarque: On peut vérifier la linéarité de l’espérance sur les variables aléatoires étagées
positives. 2
Définition 2.3 Soit X une variable aléatoire positive sur (Ω,A,P). On définit et on note son
espérance par: Z Z
E(X) = X dP = X(ω)P(dω)
Ω Ω
Preuve: L’idée est d’établir la proposition sur des variables aléatoires étagées, puis passer
au supremum pour les variables positives. Prouvons, suivant ce schéma, (iii). On voit que si
X = rj=1 aj 1lAj , alors
P
r
X r
X
E(αX) = αaj P(Aj ) = α aj P(Aj ) = αE(X).
j=1 j=1
2
Théorème 2.1 (convergence monotone)
1) Soit (Xn )n∈N une suite croissante de variables aléatoires positives sur (Ω,A,P), convergeant
ponctuellement vers X. Alors l’espérance de la variable aléatoire positive X satisfait:
Preuve: X est une variable aléatoire par le Théorème 1.1. Comme Xn est croissante positive,
d’après la Proposition 2.1 E(Xn ) est une suite croissante et positive, donc admet une limite
` > 0 (éventuellement +∞). Comme Xn 6 X, par la Proposition 2.1 on voit que ` 6 E(X).
Soit
Xr
06Y = bj 1lBj 6 X
j=1
r
X
=c bj P(Bj ) = cE(Y ),
j=1
la seconde égalité résultant de la Proposition 1.8 3) et du fait que ∪n {Xn > cY } = Ω. Mais c
était arbitraire dans [0,1[, donc ` > E(Y ) pour toute variable étagée 0 6 Y 6 X. Donc, par
définition ` > E(X) et le théorème est prouvé. 2
Preuve: On note Yn = inf m>n Xm . Cette suite est croissante et converge simplement vers
lim inf n→∞ Xn . De plus Yn 6 Xn . Il suffit d’appliquer le Théorème 2.1 et d’utiliser la Proposition
2.1 (i). 2
Définition 2.4 Soit X = X + −X − une variable aléatoire réelle. On dit que X est intégrable
si E(X + ) < ∞ et E(X − ) < ∞, ou, equivalent, si E(|X|) < ∞. Dans ce cas, son espérance
est:
E(X) := E(X + ) − E(X − ).
Une variable aléatoire d’espérance 0 est dite centrée.
Exemple: Soit l’espace de probabilité (Ω,A,δω0 ) où δω0 est la masse de Dirac dans un point
(quelconque) fixé ω0 ∈ Ω. Soit X une variable aléatoire quelconque. Alors X est intégrable
par rapport à la masse de Dirac et
Z
X(ω) δω0 (dω) = X(ω0 ).
Pr Pr
Plus
Pr généralement, si P = j=1 aj δωj avec aj > 0, j=1 aj = 1 et ωj ∈ Ω, alors E(X) =
j=1 aj X(ωj ).
Définition 2.4 Soit X un vecteur aléatoire à valeurs dans Rd , X = (X1 , . . . ,Xd ). X est
intégrable si et seulemement si Xj sont intégrables, j = 1, . . . ,d, et
Preuve: On suppose d’abord X,Y > 0 et α,β > 0. D’après la Proposition 1.6 il existe des
suites {Xn }n∈N et {Yn }n∈N de variables aléatoires étagées qui convergent en croissant vers
X et Y respectivement. Alors la suite αXn + βYn converge en croissant vers αX + βY , et
le résultat se déduit du théorème de convergence monotone. En général on sépare les parties
positive et négative et on distingue selon les signes de α et β. Si X 6 Y , alors Y − X > 0,
donc d’après la Propostion 2.1, E(Y − X) > 0 et la conclusion s’ensuit par linéarité. 2
Proposition 2.3 Soit Y intégrable et soit {Xn }n∈N une suite de variables aléatoires intégrables.
i) Si Y 6 Xn , alors E(lim inf n→∞ Xn ) 6 lim inf n→∞ E(Xn ).
46 CHAPITRE 2. ESPÉRANCE DES VARIABLES ALÉATOIRES
ϕ (E(X)) 6 E (ϕ(X)) .
Preuve: La convexité de ϕ assure q’en tout point son graphe est au-dessus de sa tangente:
pour tout t ∈ R, il existe δ (on peut prendre pour δ la dérivée à gauche ou à droite de ϕ en
t) tel que
ϕ(x) > ϕ(t) + δ(x − t).
On applique cette inégalité à t = E(X) et x = X(ω), pour tout ω, et on intégre les deux
membres. Par la Proposition 2.2 on déduit la conclusion. 2
Remarque: Si ϕ est strictement convexe, l’égalité ϕ (E(X)) = E (ϕ(X)) n’a lieu que si X est
p.s. constante. De plus, si l’égalité a lieu pour toute variable aléatoire X, alors ϕ est linéaire.2
Remarque: Dans la pratique, l’inégalité de Jensen est le plus souvent utilisée pour les
fonctions ϕ(x) = |x|, x2 , et 1/x lorsque x > 0. En particulier, une variable aléatoire dont
le carré est intégrable est intégrable, et si X est à valeurs strictement positives,
1 1
E > .
X E(X)
2
2.2. THÉORÈME DE TRANSPORT 47
et la formule est vraie dans ce cas. Si φ est une fonction étagée, la formule est valide par
linéarité par rapport à P. Si φ est positive, soit (φn )n∈N une suite de fonctions positives
étagées covergeant en croissant vers φ (Proposition 1.6). Alors φn ◦X est une suite de variables
aléatoires étagées qui converge ponctuellement en croissant vers φ◦X. En utilisant le théorème
de convergence monotone pour l’intégrale par rapport à PX et pour l’espérance,
Z Z
φ(t)PX (dt) = lim φn (t)PX (dt)
R n→∞ R
et donc φ ◦ X est intégrable par rapport à P si et seulement si φ est intégrable par rapport à
PX . En posant φ = φ+ − φ− , on conclut que
Z Z Z
φ(t)PX (dt) = +
φ (t)PX (dt) − φ− (t)PX (dt)
R R R
= E φ+ ◦ X − E φ− ◦ X = E(φ ◦ X).
Proposition 2.5 Si X est une variable aléatoire discrète de loi donée par :
X
PX = pj δ xj ,
j∈J
alors, X
E(|φ(X)|) < ∞
|φ(xj )|pj < ∞,
j∈J
X
= φ(xj )P(X = xj ).
j∈J
Proposition 2.6 Si X est une variable aléatoire à densité fX par rapport à la mesure de
Lebesgue sur Rd : Z
PX (B) = fX (t) dt, B ∈ B(Rd ),
B
alors, Z
E(|φ(X)|) < ∞
|φ(t)|fX (t)dt < ∞,
Rd
et, sous cette condition,
Z Z
E (φ(X)) = φ(t)PX (dt) = φ(t)fX (t)dt.
Rd Rd
Proposition 2.7 Supposons qu’il existe une fonction borélienne positive f telle que pour
toute fonction φ borélienne positive (ou borélienne bornée) on ait
Z
E (φ(X)) = φ(t)f (t)dt.
Rd
Remarque: Soit X un vecteur aléatoire à valeurs dans Rd admettant une densité fX . Soit g
un difféomorphisme sur Rd , de jacobien Jac g (x). Alors le vecteur Y = g(X) a pour densité
En effet, si φ est une fonction borélienne bornée (par exemple une indicatrice d’un borélien),
par la Proposition 2.6 et la formule de changement de variables pour des intégrales de
Lebesgue, on a Z
E ((φ ◦ g)(X)) = (φ ◦ g)(t)fX (t)dt
Rd
Z
= φ(y)(fX ◦ g −1 )(y) |Jac g −1 (y)|dy,
Rd
et il reste à appliquer la Proposition 2.7. 2
Proposition 2.8 Si X est une variable aléatoire réelle positive de fonction de répartition
FX , alors Z ∞ Z ∞
E(X) = P(X > t)dt = (1 − FX (t)) dt.
0 0
De plus, E(X) < ∞ si et seulement si, pour un ou tout ε > 0,
X X
P(X > εn) < ∞ ou 2n P(X > ε2n ) < ∞.
n>0 n>0
X
61+ 2n P(X > 2n ).
n>0
E(X + ) E(|X|)
P(X > t) 6 6 .
t t
Preuve: On observe que
X X+ |X|
1l[t,∞[ (X) 6 1l[t,∞[ (X) 6 6
t t t
et on intégre cette inégalité par rapport à P. 2
Remarque: Cette inégalité est utilisée généralement soit pour X positive, soit pour |X|.
Elle n’est intéressante que si le second membre est plus petit que 1. 2
Remarque: On peut reformuler le point (iv) de la Proposition 2.1:
(iv’) E(X) = 0
X = 0 p.s. 2
Définition 2.5 Soit X une variable aléatoire réelle. On dit que X admet un moment
d’ordre k, où k ∈ N∗ , si E(|X|k ) < ∞. Sous cette condition le moment d’ordre k de X
est
µk (X) = E(X k ), k ∈ N∗ .
En particulier, µ1 (X) = E(X).
Proposition 2.10 Supposons que la variable aléatoire réelle X admet un moment d’ordre k,
k ∈ N∗ . Alors Z
µk (X) = tk PX (dt).
R
2.3. MOMENTS, VARIANCE ET COVARIANCE 51
Définition 2.6 Soit X une variable aléatoire réelle dont le carré est intégrable (ayant un
moment d’ordre 2). On appelle variance de X, ou de sa loi, et on note Var(X), la quantité
Var(X) = E (X − E(X))2 .
p
La racine Var(X) est appelée écart type, parfois noté σ(X). Une variable aléatoire de
variance 1 est dite réduite.
Proposition 2.11 Supposons que la variable aléatoire réelle X a le carré intégrable. Alors
Exemple: (loi gaussienne) Soit X ∼ N (0,1). Alors X admet des moments de tous ordres;
tous les moments impairs sont nuls et
(2k)!
µ2k (X) = , k ∈ N∗
2k k!
par intégration par parties. Par exemple, le moment d’ordre deux est
µ2 (X) = 1,
52 CHAPITRE 2. ESPÉRANCE DES VARIABLES ALÉATOIRES
E(|X|k )
P(X > t) 6 .
tk
2
Preuve: Si X est une variable aléatoire réelle dont le carré est intégrable, alors par l’inégalité
de Markov
E(|X|2 )
P(X > t) 6 ,
t2
pour tout t > 0, puisque {X > t} ⊂ {|X|2 > t2 }. De la même façon on vérifie la remarque
ci-dessus.
Il suffit maintenant d’appliquer cette inégalité à la variable |X − E(X)| pour obtenir
l’inégalité de Tchebytchev. 2
La fonction génératrice est une fonction continue sur {|s| 6 1}, indéfiniment différentiable sur
{|s| < 1} et elle détermine la loi qui a servi à la définir, puisque, pour tout n ∈ N,
n
d
GX (s) = n! P(X = n).
dsn s=0
E[X(X − 1)] = G00X (1), d’où µ2 (X) = G0X (1) + G00X (1).
2.3. MOMENTS, VARIANCE ET COVARIANCE 53
Plus généralement,
dk
E[X(X − 1) . . . (X − k + 1)] = GX (s) .
dsk s↑1
Définition 2.7 Soient X et Y deux variables aléatoires réelles dont les carrés sont intégrables.
On appelle la covariance de X et Y la quantité
= E(XY ) − E(X)E(Y ).
En particulier, si X = Y , Cov(X,X) = Var(X). On appelle coefficient de corrélation
linéaire la quantité
Cov(X,Y )
ρ(X,Y ) = p p ,
Var(X) Var(Y )
lorsque les deux variables ne sont pas presque sûrement constantes.
Remarque: Comme |xy| 6 12 (x2 + y 2 ), la variable XY est intégrable et la covariance est bien
définie. 2
|ρ(X,Y )| 6 1
KX = E(XX ∗ ) − E(X)E(X)∗ ,
Elle est définie positive si aucune combinaison linéaire des composantes Xj n’est p.s. constante.
2
54 CHAPITRE 2. ESPÉRANCE DES VARIABLES ALÉATOIRES
2.4 Espaces Lp
Nous avons défini la classe des variables aléatoires (réelles) intégrables sur un espace de
probabilité (Ω,A,P), notée dorénavant par L1 (Ω,A,P). Pour 0 < p < ∞, on note Lp (Ω,A,P)
(ou simplement Lp si le contexte est clair) l’ensemble des variables aléatoires X telles que
E(|X|p ) < ∞. L0 est simplement l’ensemble des variables aléatoires. Enfin, on définit L∞
l’ensembles des variables aléatoires pour lesquelles il existe c > 0 avec
Pour X ∈ L∞ , on pose
kXk∞ := inf {c > 0 : P(|X| > c) = 0}
(supremum essentiel de X).
1 1
Deux réels p,q > 1 sont conjugués si p + q = 1. On convient que 1 et ∞ sont conjugués.
kXY k1 6 kXkp kY kq .
qui est une conséquence de l’inégalité de Jensen pour la fonction convexe ϕ(x) = xp , car
(1 − q)p = −q. 2
2.4. ESPACES LP 55
Remarque: Les variables aléatoires p.s. constantes appartiennent à tous les espace Lp ,
1 6 p 6 ∞ et (par l’inégalité de Jensen ou de Hölder),
0
Lp (Ω,A,P) ⊂ Lp (Ω,A,P), lorsque 1 6 p 6 p0 6 ∞.
De plus
lim kXkp = kXk∞ .
p→∞
En effet, on voit d’abord que |X| 6 kXk∞ , d’où kXkp 6 kXk∞ . mais par la croissance de
p 7→ k · kp on déduit que limp→∞ kXkp 6 kXk∞ .
Soit ensuite a arbitraire tel que a < kXk∞ . Alors l’événement A := {|X| > a} est de
1
probabilité strictement positive. En particulier P(A) p → 1, lorsque p → ∞. On a |X|p > ap 1lA ,
1
d’où kXkp > aP(A) p , donc limp→∞ kXkp > a, pour tout a < kXk∞ . Comme a était
arbitraire, on obtient limp→∞ kXkp > kXk∞ . 2
kX + Y kp 6 kXkp + kY kp .
p
Preuve: On observe que p et p−1 sont conjugués. En utilisant l’inégalité triangulaire et
l’inégalité de Hölder,
kX + Y kpp = E (|X + Y |p )
6 E |X| |X + Y |p−1 + |Y | |X + Y |p−1
6 (kXkp + kY kq )
|X + Y |p−1
p
p−1
= (kXkp + kY kq ) kX + Y kpp−1 .
C’est le résultat si kX + Y kp 6= 0. L’inégalité est triviale si kX + Y kp = 0. 2
Remarque: De l’inégalité de Minkowski on déduit que k · kp est une semi-norme (pas norme)
sur Lp (en effet kXkp = 0 n’implique pas X = 0, mais seulement X = 0 p.s.). 2
X ∼ Y
X = Y p.s.
{X 6= Y } est négligeable.
56 CHAPITRE 2. ESPÉRANCE DES VARIABLES ALÉATOIRES
Proposition 2.15 Pour tout p > 1, l’espace Lp est un espace vectoriel normé complet (de
Banach).
Remarque: Pour p et q conjugués et 1 6 p < ∞ le dual de Lp est Lq . Autrement dit, les formes
linéaires continues sur Lp sont les variables aléatoires de la forme Lp 3 X 7→ E(XY ) ∈ R,
pour Y ∈ Lq . De plus kXkp = sup{E(XY ) : kY kq 6 1}. On prendera garde au fait que L1
n’est pas en général le dual de L∞ . 2
On pourra utiliser des arguments géométriques dans les espaces L2 par le suivant :
Proposition 2.16 L’espace L2 est un espace de Hilbert pour le produit scalaire < X,Y >=
E(XY ).
Il s’ensuit (par convergence dominée) que la donnée de E(φ(X)) pour toute fonction continue
bornée φ sur R caractérise PX . On peut approcher les fonctions indicatrices par des fonctions
C∞ bornées; donc la donnée de E(φ(X)) pour toute fonction infinement dérivable bornée
caractérise PX . Dans ce paragraphe on prendra la famille des fonctions sinus et cosinus.
Définition 2.8 Soit X un vecteur aléatoire sur (Ω,A,P) à valeurs dans Rd . On appelle
fonction caractéristique de X ou transformée de Fourier de sa loi, et on note ϕX ,
la fonction à valeurs complexes
Z
d i<t,X>
ei<t,x> PX (dx)
R 3 t 7→ ϕX (t) = E e =
Rd
Remarque: La fonction caractéristique est bien définie car x 7→ ei<t,x> est bornée donc
intégrable par rapport à PX . 2
fonction complexe
Z zx−x2 /2
e
C 3 z 7→ √ dx ∈ C
R 2π
est holomorphe (on peut dériver sous le signe intégrale). En calculant cette intégrale pour z
réel, par exemple z = a on trouve
2
eax−x /2
Z
2
√ dx = ea /2 .
R 2π
Comme la fonction complexe
2 /2
C 3 z 7→ ez ∈C
est aussi holomorphe et coı̈ncidant sur R à celle introduite ci-dessus, elles coı̈cident sur tout
C: Z zx−x2 /2
e 2
√ dx = ez /2 ,∀z ∈ C.
R 2π
En particulier, pour z = it on trouve la fonction caractéristique de la loi gaussienne standard.
Si Y ∼ N (m,σ 2 ), alors Y = σX + m, où X ∼ N (0,1), et on trouve
t2 σ 2
ϕY (t) = E eitY = eitm E eitσX = eitm− 2 .
Preuve: Supposons, pour simplifier, que X et Y sont deux variables aléatoires réelles. On va
noter, pour σ > 0,
1 2 2 t2 σ 2
fσ (x) = √ e−x /2σ , fˆσ (t) = e− 2 .
2πσ 2
D’après l’exemple précédent Z
fσ (x)eitx dx = fˆσ (t),
R
58 CHAPITRE 2. ESPÉRANCE DES VARIABLES ALÉATOIRES
donc
1 t−s
fσ (t − s) = √ fˆσ
2πσ 2 σ2
Z
1 2
=√ fσ (x)ei(t−s)x/σ dx.
2πσ 2 R
Supposons maintenant que ϕX = ϕY . En admettant qu’on puisse échanger l’intégration en
dx et l’espérance, on peut écrire
Z
1 i(X−s)x/σ 2
E [fσ (X − s)] = E √ fσ (x)e dx
2πσ 2 R
Z
1 x 2
= fσ (x) √ ϕX 2
e−isx/σ dx.
R 2πσ 2 σ
La même égalité est vraie pour Y . Donc
E [f (X)] = E [f (Y )] ,
pour toute fonction de la forme f (t) = fσ (t−s) pour s ∈ R et σ > 0 arbitraires. Par conséquent
aussi pour toute fonction f dans l’espace vectoriel engendré par ces fonctions. D’après le
théorème Stone-Weierstrass, cet espace est dense dans l’espace C0 des fonctions continues sur
R et ayant une limite nulle à l’infini, pour la topologie de la convergence uniforme. Ainsi
E [f (X)] = E [f (Y )] , ∀f ∈ C0 .
Mais si O est un ouvert, 1lO est limite croissante de fonctions de C0 . On en déduit que
ce qui implique PX = PY . 2
Une autre preuve: On suppose toujours que X et Y sont deux variables aléatoires réelles.
Par calcul direct (voir aussi la loi de Laplace)
Z
1 1 2λ
eitx e−λ|x| dx = + = 2 .
R λ − it λ + it λ + t2
On peut écrire Z
2λ 2λ
E 2 2
= 2
P (dy)
2 X
λ + (X − s) R λ + (y − s)
Z Z Z
= PX (dy) dx ei(t−s)x e−λ|x| = e−isx e−λ|x| ϕX (x)dx
R R R
où dans la dernière égalité on a utilisé le théorème de Fubini. Soit f une fonction continue
à support compact. En appliquant à nouveau le théorème de Fubini et un changement de
variable, on en déduit Z Z
2λ
ds f (s) PX (dy) 2
R R λ + (y − s)2
Z Z
2
= PX (dy) du f (y − λu)
R R 1 + u2
2.5. FONCTIONS CARACTÉRISTIQUES 59
2
R
Pour λ ↓ 0, l’intégrant R f (y − λu) 1+u 2 du converge vers 2πf (y) en restant dominé par
2πkf k∞ . Ainsi, par convergence dominée
Z
E [f (X)] = f (y)PX (dy)
R
Z Z
dx
= lim ds f (s) e−isx e−λ|x| ϕX (x) .
λ↓0 R R 2π
Le terme de droite est une fonction de f et de ϕX , et donc ϕX caractérise bien la loi PX . 2
λ
ii) Si X ∼ γ(p,λ) alors ϕX (t) = λ−it .
i) |ϕX (t)| 6 1.
ii) ϕX (−t) = ϕX (t).
iii) ϕX (0) = 1.
iv) ϕX est uniformément continue.
v) ϕX est “de type positif ”:
n
X
ϕX (tk − tj )zk z̄j > 0.
j,k=1
= E ei<−t,X> = ϕX (−t).
h i
i i
i
= E ei<t,X> e 2 <h,X> e 2 <h,X> − e− 2 <h,X>
i<t,X> 2i <h,X> < h,X >
=E e e 2i sin ,
2
d’où
< h,X >
|ϕX (t + h) − ϕX (t)| 6 E 2| sin | 6 [(|h| |X|) ∧ 2] .
2
60 CHAPITRE 2. ESPÉRANCE DES VARIABLES ALÉATOIRES
Le membre de droite de cette dernière inégalité tend vers zéro quand |h| tend vers zéro
indépendament de t.
Enfin, pour (v),
n
X n
X
E ei<tk −tj ,X> zk z̄j
ϕX (tk − tj )zk z̄j =
j,k=1 j,k=1
! n
n
X X
= E ei<tk ,X> zk ei<−tj ,X> z̄j
k=1 j=1
n
! n
X i<tk ,X> X
= E e zk ei<tj ,X> zj
k=1 j=1
2
Xn
= E ei<tk ,X> zk > 0.
k=1
Remarque: L’intérêt de la proposition précédente réside surtout dans le fait qu’elle admet
la réciproque suivante (théorème de Bochner) : une fonction ϕ vérifiant les conditions iii)-v)
est la fonction caractéristique d’un vecteur aléatoire. 2
(`)
En particulier, ϕX (0) = i` E(X ` ).
ii) Si ϕX est k fois dérivable en 0, k ∈ N∗ , alors X admet des moments d’ordres plus petits
ou égaux à 2` 6 k.
R u ix
R u effet, f1 (u) = i 0 e dx est de module plusn petit que |u| et par récurrence, fn (u) =
En
i 0 fn−1 (x)dx est de module plus petit que |u| /(n!). On suppose que E(|X|) < ∞ et on
prouve que ϕX est dérivable en tout point t ∈ R. Pour tout h 6= 0
ϕX (t + h) − ϕX (t) eihx − 1
Z
= eitx PX (dx).
h R h
itx eihx − 1
e 6 |x|
h
Remarque: En général, une loi n’est pas caractérisée par ses moments. 2
Définition 2.11 Soit X un vecteur aléatoire sur (Ω,A,P) à valeurs dans Rd . On appelle
fonction génératrice des moments de X ou transformée de Laplace de sa loi, et on
note
`X (s) = E e−<s,X> ,
la fonction définie pour les valeurs de s pour lesquelles e−<s,X> est intégrable.
Proposition 2.19 Soit X une variable aléatoire réelle telle que e−sX est intégrable pour s
dans un intérvalle contenant 0. Alors la transformée de Laplace `X est définie sur un intérvalle
contenant 0. De plus elle est analytique sur un voisinage de 0 et
X (−1)n sn
`X (s) = E(X n ),
n!
n>0
2. Loi binomiale.
Si X ∼ B(n,p), alors
E(X) = np, Var(X) = np(1 − p)
et
ϕX (t) = (1 − p + peit )n
3. Loi uniforme.
Si X ∼ U(1, . . . ,r), alors
r+1 r2 − 1
E(X) = , Var(X) =
2 12
2.6. RETOUR SUR LES LOIS DE PROBABILITÉS USUELLES 63
et
1 1 − eirt
ϕX (t) = eit
r 1 − eit
4. Loi géométrique.
Si X ∼ G(p), alors
1 1−p
E(X) = , Var(X) =
p p2
et
peit
ϕX (t) =
1 − (1 − p)eit
5. Loi de Poisson.
Si X ∼ P(λ), alors
E(X) = λ, Var(X) = λ
et
ϕX (t) = exp λ(eit − 1)
6. Loi hypergéométrique.
Si X ∼ H(N,n,p), alors
N −n
E(X) = np, Var(X) = np(1 − p).
N −1
7. Loi multinomiale.
Si (X1 , . . . ,Xd ) ∼ M(n,p1 , . . . ,pn ), n ∈ N, alors
8. Loi uniforme.
Si X ∼ U[a,b] , alors
a+b (b − a)2
E(X) = , Var(X) =
2 12
et
eitb − eita
ϕX (t) =
it(b − a)
9. Loi exponentielle.
Si X ∼ E(λ), alors
1 1
E(X) = , Var(X) = 2
λ λ
64 CHAPITRE 2. ESPÉRANCE DES VARIABLES ALÉATOIRES
et
λ
ϕX (t) =
λ − it
2.7 Exercices
2.1. Calculer l’espérance, la variance, la fonction caractéristique et éventuellement la fonction
génératrice et la fonction génératrice des moments pour les lois de probabilités usuelles.
2.2. Deux joueurs A et B jouent à un jeu d’argent. A gagne avec probabilité p, 0 < p < 1, et
il mise une somme de s, tandis que B gagne avec une probabilité 1 − p, en misant une somme
s0 . Le vainqueur empoche le total des enjeux. Trouver une condition portant sur p,s,s0 pour
que le jeu soit équitable.
2.4. Une urne contient r boules dont 2 rouges et r − 2 noires. On effectue r tirages sans
remise et on note X le rang du premier tirage d’une boule rouge et Y le rang du second
tirage.
(i) Trouver la loi de (X,Y ) et de ses marginales.
(ii) Calculer Cov(X,Y ).
2.5. (i) Une personne a n clés dans sa poche et veut ouvrir sa porte dans l’obscurité. Elle
prend au hasard les clés les unes après les autres et les essaye. On note X le nombre de clés
qu’elle essaye avant de trouver la bonne. En supposant qu’une clé une fois essayée est ensuite
mise de côté, quelle est la probabilité que cette personne tire la bonne clé à la k-ème tentative?
Quelle est la loi de X, son espérance, sa variance?
(ii) Une urne contient N boules numérotées de 1 à N . On extrait ces boules de l’urne les
unes après les autres, au hasard et sans remise, et on note Rk le numéro porté par la k-ème
boule tirée de l’urne. Donner la loi de Rk , son espérance et sa variance.
(iii) On note WN = R1 + . . . + RN . Calculer l’espérance de WN . Trouver la loi du couple
(Rj ,Rk ), j 6= k, et montrer qu’elle ne dépend pas de (j,k). Calculer E(WN2 ), E(Rj Rk ), puis la
variance de WN .
2.6. Calculer l’espérance de la variable aléatoire X décrite dans l’exercice 1.23 (i) en remarquant
que
1 3
P(X = k) = P(ξ = k) + P(η = k), ∀k ∈ N,
4 4
où η = ζ + 1 et où ξ et ζ sont deux variables de loi P(2).
2.7. Soit Y une variable aléatoire uniforme sur {a,a + 1, . . . ,b}. A partir des expressions
de l’espérance et de la variance de la loi U(1,2, . . . ,r) déduire E(Y ) et Var(Y ).
2.9. Soit X une variable aléatoire positive de fonction de répartition FX . Soit φ une fonction
positive, croissante de classe C1 sur [0,∞[, nulle en 0.
(i) Montrer que
Z ∞
E(φ(X)) = φ0 (t)(1 − FX (t))dt.
0
2.11. (i) Soit X un vecteur aléatoire à valeurs dans Rd d’espérance E(X) et de matrice
de covariance KX . Soit A une matrice p × d et u ∈ Rp . Montrer que
Vérifier que la matrice K est semi-définie positive et ensite calculer l’espérance et la matrice
de covariance de (X + 1,X − Y,X + Y ).
2.12. On a étudié la glycémie des individus et on a observé qu’elle suit la loi normale.
Sur un échantillon de 300 individus on a constaté que 20% des glycémies sont inférieures à
0,82g/l et que 30% des glycémies sont supérieures à 0,98g/l. Déterminer la glycémie moyenne
et l’écart-type par rapport à cette moyenne de la glycémie d’un individu.
2.14. On pose
c 1
f (x,y) = exp − (3x2 − 3xy + y 2 ) .
2π 2
(i) Déterminer c pour que f soit la densité d’un couple aléatoire (X,Y ).
(ii) Trouver les lois marginales et calculer le vecteur espérance et la matrice de covariance de
(X,Y ).
/ L∞ .
2.15. (i) Soit X ∼ γ(p,λ). Montrer que X ∈ Lr , pour 1 6 r < ∞, mais que X ∈
2.7. EXERCICES 67
2.16. Soit X une variable aléatoire réelle telle que pour tout t > 1,
c
P(|X| > t) 6 α ,
t
où c > 0 et α > 1. Montrer que X admet un moment d’ordre k, pour tout k ∈ N∗ , k < α.
1 1
2.17. Soient p,q,r ∈]0,∞[ tels que r = p + 1q . Montrer que si X ∈ Lp et Y ∈ Lq , alors
XY ∈ Lr et on a
kXY kr 6 kXkp kY kq .
2.19. Montrer que la conjuguée et la partie réelle d’une fonction caractéristique sont aussi
des fonctions caractéristiques.
2.22. Soit X une variable aléatoire telle que E(eλX ) < ∞, pour λ > 0 (ou seulement
0 < λ < λ0 ). Montrer que, pour tout t ∈ R,
P(X > t) 6 e−I(t) ,
où I(t) := supλ λt − ln E(eλX ) .
Chapitre 3
Indépendance
3.1 Indépendance
Définition 3.1 Sur un espace de probabilité (Ω,A,P), deux événements A,B sont dits indépendants
si
P(A ∩ B) = P(A)P(B).
Exemple. On jette deux dés, un rouge et un noir. Les événements
A = { le dé rouge montre un nombre strictement supérieur à 4 }
et
B = { le dé noir montre un 4}.
sont indépendants, car les deux dé le sont. Pour modéliser on considère
(Ω,A,P) = ({(i,j) : i,j = 1,2,3,4,5,6},P(Ω),P), P la probabilité uniforme.
Alors,
1
A = {(5,1), . . . ,(5,6),(6,1), . . . ,(6,6)}, P(A) =
3
1
B = {(1,4), . . . ,(6,4)}, P(B) =
6
donc
1
A ∩ B = {(5,4),(6,4)}, P(A ∩ B) = = P(A)P(B).
18
Remarque. Si A,B sont deux événements indépendants, alors A,B c , Ac ,B et Ac ,B c sont des
paires d’événements indépendants. Ainsi on peut dire que les tribus σ({A}) et σ({B}) sont
indépendantes.
Par la suite par le mot “indépendance” on désigne “indépendance mutuelle” (et toute
autre forme d’indépendance, plus faible, sera précisée explicitement).
Proposition 3.1 Si E1 ,E2 sont deux familles d’ensembles stables par intersection finie (ou
deux algèbres) indépendantes, dans l’espace de probabilité (Ω,A,P), alors les tribus σ(E1 ),
σ(E2 ) sont indépendantes.
Preuve. Soit A1 ∈ E1 . La classe monotone
des événements indépendants de A1 contient E2 . Elle contient donc la classe monotone engendrée
par E2 et par le théorème de classe monotone, elle contient σ(E2 ). Soit maintenant A2 ∈ σ(E2 ).
La classe monotone
X1 (i,j) = i, X2 (i,j) = j,
A = A1 × {1,2,3,4,5,6}, B = {1,2,3,4,5,6} × B2
et
X 1 X 1 X 1
P(A ∩ B) = P(A1 × B2 ) = = = P(A1 )P(B2 ) = P(A)P(B).
36 6 6
(i,j)∈A1 ×B2 i∈A1 j∈B2
de [0,1] dans {0,1} est indépendante. La loi commune des Xn est une loi de Bernoulli de
paramètre 12 .
Remarque : Lorsque les tribus Bi , i ∈ I sont engendrées par des familles Ei , i ∈ I stables
par intersection finie il suffit de prendre les ensembles Bj , j ∈ J dans chaque famille de
générateurs Ej , j ∈ J.
Il est utile de reformuler l’indépendance des variables aléatoires en terme de lois de ces
variables. On a vu que lorsqu’on donne un vecteur aléatoire X = (X1 , . . . ,Xd ), sa loi détermine
toutes les lois marginales, c’est-à-dire la loi de chacune des Xj . On a aussi vu que la réciproque
est fausse en général; néanmoins si les coordonnées sont (mutuelement) indépendantes, les lois
marginales déterminent la loi du vecteur.
Proposition 3.2 Soit (X1 , . . . ,Xd ) une famille finie de variables aléatoires indépendantes
sur (Ω,A,P) à valeurs dans Rr . La loi P(X1 ,...,Xd ) du vecteur aléatoire sur (Rrd ,B(Rrd )) est
72 CHAPITRE 3. INDÉPENDANCE
égale au produit des lois marginales PX1 ⊗ . . . ⊗ PXd . Réciproquement, si la loi du vecteur est
égale au produit des marginales, alors les variables sont indépendantes.
Preuve. Pour simplifier on va supposer d = 2 et r = 1. Par définition PX1 ⊗ PX2 est l’unique
probabilité sur R2 = R × R telle que
PX1 ⊗ PX2 (B1 × B2 ) = PX1 (B1 )PX2 (B2 ), ∀B1 ,B2 ∈ B(R).
P(X1 ,X2 ) (B1 × B2 ) = P(X1−1 (B1 ) ∩ X2−1 (B2 )) = P(X1−1 (B1 ))P(X2−1 (B2 ))
L’égalité s’étend à la famille des réunions finies disjointes de pavés (fermée à l’intersection
finie) laquelle engendre B(R2 ). La réciproque se déduit de l’identité précédente et de la
définition de la loi, car
équivaut à
P(X1−1 (B1 ) ∩ X2−1 (B2 )) = P(X1−1 (B1 ))P(X2−1 (B2 )). 2
Remarque : Supposons que les densités marginales de X1 et X2 sont à densité fXi alors la
probabilité produit a la densité fX1 fX2 . La proposition précédente montre que si les variables
aléatoires X1 ,X2 sont indépendantes alors le couple a une densité donnée par
f(X1 ,X2 ) (x1 ,x2 ) = fX1 (x1 )fX2 (x2 ), ∀x1 ,x2 ∈ R.
où g,h sont deux fonctions intégrables positives, alors g et h sont, à des facteurs positifs près,
les densités marginales de X1 et X2 et X1 ,X2 sont indépendantes. Cette propriété se généralise
au cas de plusieurs variables aléatoires.
Remarque : Pour deux variables réelle discrètes, X1 ,X2 sont indépendantes si et seulement
si
P(X1 = x1 ,X2 = x2 ) = P(X1 = x1 )P(X2 = x2 ), ∀x1 ,x2 ∈ R.
Proposition 3.3 Une famille quelconque de variables aléatoires {Xi : i ∈ I} sur (Ω,A,P) à
valeurs dans (BBrd ,B(Rd ) est indépendante si et seulement si pour toute famille finie J ⊂ I
et toute famille finie de fonctions réelles boréliennes bornées ou positives φj j ∈ J,
Y Y
E φj (Xj ) = E(φj (Xj )).
j∈J j∈J
3.1. INDÉPENDANCE 73
Preuve. Supposons la famille {Xi : i ∈ I} indépendante et soit J ⊂ I une partie finie, par
exemple J = {1, . . . ,n}. Par le théorème de Fubini et la définition de la mesure produit
Yn Z Yn
E φj (Xj ) =
φj (xj )dP(X1 ,...,Xn ) (x1 , . . . ,xn )
j=1 j=1
n
Z Y n Z
Y n
Y
= φj (xj )dPX1 (x1 ) ⊗ . . . dPXn (xn ) = φj (xj )dPXj (xj ) = E (φj (Xj )) .
j=1 j=1 j=1
Proposition 3.4 La famille (X1 , . . . ,Xd ) de variables aléatoires à valeurs dans respectivement
Rr1 , . . . ,Rrd est indépendante si et seulement si pour tout (t1 , . . . ,td ) ∈ Rr1 × . . . × Rrd ,
ou, pour r1 = . . . = rd = 1,
Preuve. Le produit ϕX1 . . . ϕXd est la fonction caractéristique de la loi produit PX1 ⊗. . .⊗PXd
et le résultat s’ensuit car la fonction caractéristique caractérise la loi. Une autre preuve serait
de prendre les fonctions bornées ei<tj ,xj > dans la version complexe de la Proposition 3.3.
Pour les fonctions de répartition on applique la Proposition 3.3 avec les fonctions bornées
1l]−∞,tj ] (xj ). 2
Remarque. Un cas particulier de la Proposition 3.3 est que si X1 , . . . ,Xd sont indépendantes
et intégrables alors
E(X1 . . . Xd ) = E(X1 ) . . . E(Xd ).
Cette propriété ne caractérise pas l’indépendance. Elle décrit une propriété plus faible:
Définition 3.4 Deux variables aléatoires réelles X,Y ∈ L2 (Ω,A,P) sont dites non corrélées
si
E(XY ) = E(X)E(Y ) ⇔ E((X − E(X)))(Y − E(Y ))) = 0.
On dit aussi que les variables centrées X −E(X) et Y −E(Y ) sont orthogonales dans L2 (pour
son produit scalaire).
Exemples. i) Deux variable aléatoires indépendantes de carré intégrable sont non corrélées.
ii) Soit X ∼ N (0,1) et on note Y = X 2 . Alors X et Y sont non corrélées. En effet, elles sont
de carré intégrable et
E(XY ) = E(X 3 ) = 0 = E(X)E(Y ),
par les calculs des moments des variables gaussiennes centrées. Toutefois X,Y ne sont pas
indépendantes car
P(X > 1,Y > 1) = P(X > 1) 6= P(X > 1)P(Y > 1),
74 CHAPITRE 3. INDÉPENDANCE
X d
X d
X
= E ((Xj − E(Xj ))(Xk − E(Xk ))) = E (Xj − E(Xj ))2 = Var(Xj ).
16j,k6d j=1 j=1
Proposition 3.6 Soient X et Y deux variables aléatoires réelles indépendantes sur (Ω,A,P).
La loi de la somme X + Y est donnée par le produit de convolution PX ? PY des lois PX
et PY , défini pour toute fonction borélienne bornée φ : R → R, par
Z ZZ
φ(t)(PX ? PY )(dt) = φ(x + y)PX (dx)PY (dy).
R R2
3.2. SOMMES DE VARIABLES ALÉATOIRES INDÉPENDANTES 75
Remarque: Soient X et Y deux variables aléatoires réelles indépendantes ayant les densités
par rapport à la mesure de Lebesgue f et g. Alors la somme X + Y a une densité h par
rapport à la mesure de Lebesgue, donnée par le produit de convolution des fonctions f,g
Z Z
h(x) := (f ? g)(x) = f (x − y)g(y)dy = g(x − y)f (y)dy = (g ? f )(x), x ∈ R.
R R
Ce produit de convolution a un effet “régularisant” car la fonction h est continue bien que f
et g sont seulement mesurables (et positives d’intégrale 1). 2
76 CHAPITRE 3. INDÉPENDANCE
Proposition 3.7 Si X et Y sont deux variables aléatoires réelles indépendantes sur (Ω,A,P),
la fonction caractéristique de leur somme est donnée par le produit des fonctions caractéristiques
Remarque: Il ne faut pas confondre la fonction caractéristique d’un couple aléatoire dont
les coordonnées sont indépendantes
X + Y = a + b, p.s. ⇔ δa ? δb = δa+b .
Donc la probabilité que Snn s’écarte de sa valeur moyenne tend vers 0 lorsque n tend vers
l’infini. Cela signifie que si nous lançons un grand nombre de fois une pièce non truquée la
proportion de pile sera avec un grande probabilité 21 .
3.3. APPLICATIONS DE L’INDÉPENDANCE 77
Définition 3.5 Soit {Tn : n ∈ N} une famille indépendante de tribus sur (Ω,A,P) (par
exemple, on peut prendre Tn = σ(Xn ) avec {Xn : n ∈ N} variables aléatoires indépendantes).
On désigne par An la tribu engendrée par Tn ,Tn+1 , . . . (dans l’exemple la tribu est engendrée
par Xn ,Xn+1 , . . .) et on note la tribu asymptotique ou terminale:
\
A∞ := An
n∈N
est un événement terminal pour la suite de tribus Tn = σ(An ) = {∅,An ,Acn ,Ω}. Donc P(A) = 0
ou 1.
On abrège “An se réalise une infinité de fois” par “An infiniment souvent” ou “An i.s.”.
Notons que P(An i.s.) = 0 signifie que p.s. seulement un nombre fini d’événements An se
réalisent: pour presque tous ω ∈ Ω, il existe n(ω) ∈ N (dépend de ω) tel que si n > n(ω),
alors ω ∈/ An , c’est-à-dire An ne se réalise pas.
P
Par l’hypothèse, losque N → ∞, n6m6N P(Am ) → ∞, pour tout n. Donc P (∪m>n Am ) = 1
et il suffit de remarquer que P(A) = limn→∞ P (∪m>n Am ). 2
Exemple. On lance une pièce équilibrée une infinité de fois. Quelle est la probabilité d’obtenir
une infinité de fois deux pile consécutifs? Si {Xn : n ∈ N} une suite de variables aléatoires
indépendantes de Bernoulli de paramètre 21 et si on pose An = {Xn = Xn+1 = 1} on s’intéresse
à P(An i.s. ). {An : n ∈ N} n’est pas une suite indépendante car Xn+1 détermine à la fois
An et An+1 , mais {A2n : n ∈ N} est indépendante, avec P(A2n ) = 41 , pour tout n. On peut
appliquer la deuxième partie du lemme de Borel-Cantelli, donc P(A2n i.s. ) = 1. Comme
{A2n i.s. } ⊂ {An i.s. }, on conclut que P(An i.s. ) = 1.
Définition 3.6 Le vecteur aléatoire X = (X1 , . . . ,Xd ) : (Ω,A,P) → (Rd ,B(Rd )) suit une loi
gaussienne si pour tout α = (α1 , . . . ,αd ) ∈ Rd , la variable aléatoire réelle
d
X
< α,X >= αj Xj
j=1
est gaussienne.
Dans cette définition la variable < α,X > est caractérisée par son espérance
Xd X d
E αj Xj =
αj E(Xj )
j=1 j=1
et par sa variance
d
X X
Var αj Xj = αj αk E ((Xj − E(Xj ))(Xk − E(Xk ))) .
j=1 16j,k6d
Ainsi le vecteur gaussien X = (X1 , . . . ,Xd ) est caractérisé par son vecteur espérance
et sa matrice covariance
Proposition 3.8 (facultatif ) Soit X = (X1 , . . . ,Xd ) un vecteur gaussien centré de matrice
de covariance Σ = AA∗ , où A est une matrice carrée. Alors X a la même loi que AG, où
G ∼ Nd (0,Id ).
Remarque. Pour simuler un vecteur gaussien général il suffit de simuler des variables gaussiennes
standard indépendantes (voir aussi l’exercice 3.16 (ii)). On peut être encore plus précis: on
peut toujours écrire Σ = Q∆Q∗ , où Q est une matrice orthogonale (Q−1 = Q∗ ) et ∆ est une
matrice diagonale positive (avec éventuellement des zéros sur la diagonale). Par changement de
base on voit que le vecteur ∗
√ gaussien Q X a pour matrice de covariance la matrice diagonale ∆,
donc la même loi que ∆G. La diagonalisation de la matrice de covariance de X nous a donc
permis de trouver une nouvelle base dans laquelle les composantes de X sont orthogonales:
P({ω} ∩ Ωimpair )
P(Ωimpair )
Définition 3.7 Soit (Ω,A,P) un espace de probabilité et soit B ∈ A un événement tel que
P(B) > 0.
i) On appelle probabilité conditionnelle de A sachant B le nombre
P(A ∩ B)
P(A | B) := .
P(B)
P(A ∩ B)
A 3 A 7→ .
P(B)
Remarque: Les égalités suivantes sont vraies pour tous les événements A et B (de probabilité
positive ou pas):
P(A ∩ B) = P(A | B)P(B) = P(B | A)P(A).
Remarque: Soit X une variable aléatoire réelle intégrable. On peut calculer son espérance
par rapport à la probabilité (conditionnelle) P(· | B), nommée espérance conditionnelle
sachant B:
Z Z
1 1
E(X | B) := X(ω)P(· | B)(dω) = X(ω)P(dω) = E(X1lB ).
Ω P(B) B P(B)
Exemples. i) Soit X ∼ E(λ). Par calcul direct on voit que, pour tout s,t > 0 P(X >
s + t | X > s) = P(X > t). On dit que la loi exponentielle n’a pas de mémoire. On peut
82 CHAPITRE 3. INDÉPENDANCE
P(U1 6 u1 , . . . Un 6 un | a 6 mn 6 Mn 6 b) = P(V1 6 u1 , . . . Vn 6 un ),
où V1 , . . . ,Vn sont variables aléatoires indépendantes de même loi uniforme sur [a,b].
Définition 3.8 Soit (Ω,A,P) un espace de probabilité. Une famille d’événements (Bj )j∈J ,
J ⊂ N, est système complet d’événements si les Bj sont disjoints et P(∪j∈J Bj ) = 1.
Ainsi (Bj )j∈J forme une partition de Ω quitte à ajouter un événement négligéable.
Proposition 3.10 Soit (Bj )j∈J un système complet d’événements sur (Ω,A,P).
1. Pour tout A ∈ A la formule des probabilités totales a lieu:
X X
P(A) = P(A | Bj )P(Bj ) = P(A | Bj )P(Bj ),
j∈J j∈J ∗
P(A | Bk )P(Bk )
P(Bk | A) = P .
j∈J ∗ P(A | Bj )P(Bj )
P
Preuve. C’est immédiat car P(A) = j∈J ∗ P(A ∩ Bj ) et pour tout k,
2
Remarque: (facultatif)
On observe que la tribu engendrée par une partition (Bj )j∈J est décrite comme la collection de
toutes les unions possibles d’événements Bj et de leurs complémentaires. Ainsi tout événement
peut être fractionné sur l’ensembles élémentaires Bj .
Définition 3.9 (facultatif ) Un événement B d’une tribu B est un atome si pour tout événement
C ∈ B tel que C ⊂ B, soit C = ∅ soit C = B.
Remarque: (facultatif)
Ainsi si (Bj )j∈J est une partition mesurable de Ω, alors Bj sont les atomes de la tribu
engendrée par les Bj , B = σ(Bj : j ∈ J).
Définition 3.10 (facultatif ) Soit B = σ(Bj : j ∈ J), où (Bj )j∈J est une partition mesurable
sur (Ω,A,P) et soit J ∗ = {j ∈ J : P(Bj ) > 0}. On appelle probabilité conditionnelle de
A ∈ A sachant B, la variable aléatoire
X
P(A | B) = P(A | Bj )1lBj .
j∈J ∗
3.6. EXERCICES 83
Remarque: (facultatif)
La probabilité conditionnelle de A sachant B est donc une variable aléatoire constante sur les
atomes de B, donc mesurable par rapport à B. Pour tout ω ∈ Ω l’application A 3 A 7→ P(A |
B)(ω) est une probabilité telle que P(Bj | B)(ω) = 1 si ω ∈ Bj et P(A | B)(ω) = 0, si ω ∈ Bj
et P(A ∩ Bj ) = 0. On peut aussi remarquer que, pour tout B ∈ B tel que P(B) > 0,
Définition 3.11 (facultatif ) Soit B = σ(Bj : j ∈ J), où (Bj )j∈J est une partition mesurable
sur (Ω,A,P) et soit J ∗ = {j ∈ J : P(Bj ) > 0}. Soit X une variable aléatoire intégrable.
On appelle espérance conditionnelle de X sachant B la variable aléatoire B-mesurable,
définie P-p.s.
X 1
E(X | B) = E X1lBj 1lBj .
∗
P(Bj )
j∈J
Si B est engedrée par une variable aléatoire discrète Z on note E(X | B) = E(X | Z).
3.6 Exercices
3.1. Montrer les équivalences suivantes:
(i) pour A événement
⇔ Ac ,B c ,C c indépendants
Montrer que sous une de ces conditions A est indépendent de B ∪ C, de B \ C.
(iv) On lance deux fois de suite un dé et on considère
3.3. Étudier l’indépendance des coordonnées des couples aléatoires (X,Y ) des exercices 1.32,
1.33, 1.34, 1.35, 2.4, 2.11, 2.14, 2.21.
3.4. Soit les variables aléatoires indépendantes X,Y . Calculer la loi de la somme X + Y
lorsque:
(i) X ∼ B(n,p), Y ∼ B(m,p);
(ii) X ∼ P(λ), Y ∼ P(µ);
(iii) X ∼ γ(p,λ), Y ∼ γ(q,λ);
(iv) X ∼ N (m,σ 2 ), Y ∼ N (n,τ 2 );
(v) Quelle est la loi de X 2 + Y 2 lorsque X ∼ N (0,1), Y ∼ N (0,1)?
3.5. Soit les variables aléatoires indépendantes X, Y de même loi U(1,2, . . . ,n).
(i) Calculer P(X = Y ).
(ii) Trouver la loi de X + Y .
(iii) On pose U = min{X,Y } et V = max{X,Y }. Trouver les lois de (U,V ), U et V .
(iv) U et V sont-elles indépendantes?
3.6. Soit les variables aléatoires indépendantes X, Y de même loi G(p), 0 < p < 1. On
pose U = min{X,Y } et V = max{X,Y } − U . Trouver les lois de U et V et étudier leur
indépendance.
3.7. Deux personnes ont rendez-vous à 14h00 mais elles sont peu ponctuelles: les instants
X et Y de leur arrivées sont deux variables aléatoires indépendantes uniformément répartis
dans [14,15]. Calculer la loi de la variable T durée d’attente du premier arrivé.
3.8. Soient X et Y deux variables aléatoires centrées ayant seulement les valeurs ±1. Trouver
leurs lois et donner une condition nécéssaire et suffisante pour qu’elles soient non corrélées.
3.10. Soient X1 , . . . ,Xn variables aléatoires réelles indépendantes de même loi. On note
U = min16j6n Xj et V = max16j6n Xj .
(i) Calculer les fonction de répartition de U et V à l’aide de la fonction de répartition commune
3.6. EXERCICES 85
des Xj .
(ii) Si la loi commune des Xj admet une densité, montrer que U et V admettent des densités
et les calculer.
3.12. Une urne contient b boules blanches et r rouges; une boule étant tirée, on la remet
b c
et avec elle encore c boules de la couleur tirée. On pose p = b+r , q = 1 − p, γ = b+r . On note
et Sn = X1 + . . . + Xn .
(i) Trouver les lois de X1 et X2 en fonction de p,q,γ.
(ii) Exprimer le coefficient de corrélation de X1 et X2 en fonction de p,q,γ.
(iii) Trouver la loi conditionnelle de Xn sachant Sn−1 = k.
(iv) Exprimer la loi de Xn en fonction de p,q,γ et E(Sn−1 ). En déduire la loi de Xn par
récurrence.
3.14. Soient X,Y deux variables aléatoires indépendantes de même loi uniforme sur [0,1].
(i)Trouver la loi de X + Y , son espérance et sa variance.
(ii) Soit Z une variable aléatoire de même loi que X + Y . Calculer la loi de 1 − Y et déduire
que X − Y a la même loi que Z − 1. Quelle est la densité de X − Y ?
(iii) Les variables X + Y et X − Y sont-elles indépendantes?
3.15. Soient X,Y deux variables aléatoires indépendantes dont les densités sont
2 x2
fX (x) = √ 1l[0,1[ (x), fY (x) = xe− 2 1l]0,∞[ .
π 1 − x2
Trouver la loi de XY .
3.16. (i) Soient X,Y deux variables aléatoires indépendantes de même loi N (0,1). On note
U = cos θX − sin θY et V = sin θX + cos θY . Trouver la loi de (U,V ) et de ses marginales.
U,V sont-elles indépendantes?
(ii) Soient R et Θ deux variables aléatoires indépendantes telles que Θ ∼ U[0,2π] et R > 0
avec R2 ∼ E(1/2). On note X = R cos Θ et Y = R sin Θ. Trouver leurs lois et étudier leur
indépendance.
3.17. Soit X une variable aléatoire réelle gaussienne centrée réduite et ε une autre variable
aléatoire indépendante de X, prenant seulement les valeurs ±1.
(i) Montrer que Y := εX est une variable aléatoire réelle gaussienne centrée réduite.
(ii) Calculer Cov(X,Y ).
86 CHAPITRE 3. INDÉPENDANCE
3.18. Montrer que le carré et le carré du module d’une fonction caractéristique sont aussi des
fonctions caractéristiques.
3.19. Soient X et Y deux variables aléatoires indépendantes de même loi. (i) Montrer que
si X et Y sont deux variables gaussiennes centrées réduites, alors X + Y et X − Y sont
indépendantes.
(ii) Théorème de Bernstein. Réciproquement, on suppose que X et Y sont de carré intégrable
et que X + Y et X − Y sont indépendantes. On veut montrer que X et Y sont deux variables
gaussiennes. Pour cela :
(a) Montrer qu’on peut supposer que X et Y sont centrées, de variance 1.
(b) Montrer que ϕ, la fonction caractéristique commune de X et de Y , satisfait l’égalité
ϕ(2t) = ϕ(t)3 ϕ(−t). En déduire que ϕ ne s’annule nulle part.
(c) On pose ψ(t) := ϕ(t)/ϕ(−t). Montrer que ψ(2t) = ψ(t)2 et que ψ(t) = 1 + o(t2 ), lorsque
t ↓ 0. En déduire que, pour tout t, ψ(t) = 1 et que ϕ(t) = ϕ(t/2)4 . Conclure.
3.20. Un examen consiste en 20 questions auxquelles il faut répondre par oui ou par non;
chaque réponse juste est notée 1 point et chaque réponse fausse, 0 points. Un étudiant répond
entièrement au hasard et sa note finale est une variable aléatoire X.
(i) Soit Xj la note qu’il obtient à la j-ème question. Trouver la loi de Xj , son espérance, sa
variance.
(ii) Exprimer X en fonction des Xj , donner sa loi, son espérance et sa variance.
(iii) Calculer la probabilité d’avoir une note inférieure à 5. Donner un majorant de cette
probabilité à l’aide de l’inégalité de Bienaymé-Thcebytchev.
(iv) Un étudiant sérieux estime qu’il donnera une réponse exacte à chaque question avec
une probabilité de 0,8. Quelle est la loi de sa note, l’espérance et la variance. Donner une
minoration pour la probabilité qu’il ait plus de 12.
Chapitre 4
Les differentes notions de convergence de variables aléatoires sont essentielles pour les
applications. Voici un exemple : la fréquence observée du nombre de faces pile obtenu au
cours d’un jeu de pile ou face, après n lancers est “proche” de la probabilité p d’obtenir pile,
pourvu que n soit grand. Donc, si p est inconnue (on ne sait pas si la pièce est truquée), nous
avons un moyen de l’approximer.
Dans tout ce chapitre les suites de variables aléatoires sont supposées construites sur un
espace de probabilité (Ω,A,P). Pour simplifier on ne considère que des variables aléatoires
réelles, mais les énoncés et les résultats sont vrais pour des vecteurs aléatoires à valeurs dans
Rd .
Définition 4.1 Une suite de variables aléatoires réelles (Xn )n∈N converge presque sûrement
(p.s.) vers la variable aléatoire réelle X si
P {ω ∈ Ω : lim Xn (ω) = X(ω)} = 1.
n→∞
p.s.
Dans ce cas on note limn→∞ Xn = X p.s. ou Xn −→ X, lorsque n → ∞.
On voit que pour une suite d’événements (Ar )r>1 , P(∩r>1 Ar ) = 1 si et seulement si P(Ar ) = 1
pour tout r. Donc Xn converge vers X p.s. si et seulement si
[ \
∀ε > 0, P {|Xn − X| < ε} = 1,
m∈N n>m
88 CHAPITRE 4. CONVERGENCE DES SUITES DE VARIABLES ALÉATOIRES
ou, équivalent à
Enfin on peut aussi dire que Xn converge vers X p.s. si Xn converge ponctuellement vers X,
quitte à enlever un ensemble de mesure nulle (celui pour lequel Xn (ω) ne converge pas vers
X(ω)).
Remarque. Il est clair qu’on peut prendre des variables à valeurs dans Rd . Il suffit alors
de remplacer | · | par une norme quelconque k · k sur Rd . De plus il est facile de voir que
p.s. p.s.
(Xn1 , . . . ,Xnd ) −→ (X 1 , . . . ,X d ) Xnj −→ X j , j = 1, . . . ,d.
On applique le lemme de Borel-Cantelli 3.3 aux An . On déduit P(An i.s. ) = 0 ce qui fournit
le résultat d’après (*). La deuxième partie se démontre de façon analogue à partir de la partie
indépendantes du lemme de Borel-Cantelli 3.3. Remarquer qu’il convient de supposer X nulle
ou constante x, sans quoi les événements An ne sont pas nécessairement indépendants. 2
Exemple: Soit (Xn )n∈N une suite de variables aléatoires indépendantes et de même loi de
4.2. CONVERGENCE EN PROBABILITÉ 89
Bernoulli B(1,p). On montre que Yn = nj=1 2−j Xj converge presque sûrement en vérifiant le
P
[ \ [ \
{ω ∈ Ω : |Yn (ω) − Ym (ω)| < ε} ⊃ {ω ∈ Ω : 2−m < ε}
m∈N n>m m∈N n>m
[
= {ω ∈ Ω : 2−m < ε} = Ω
m∈N
Proposition 4.2 Soient (Xn )n∈N et (Yn )n∈N deux suites de variables aléatoires réelles telles
que Xn converge p.s. vers une variable aléatoire X et Yn converge p.s. vers la variable aléatoire
Y . Alors on peut voir que:
1) si g : R → R est continue, alors g(Xn ) converge p.s. vers g(X).
2) pour tous α,β ∈ R, αXn + βYn converge p.s. vers αX + βY .
3) Xn Yn converge p.s. vers XY .
Preuve. Pour prouver 1), soit C = {ω ∈ Ω : limn→∞ Xn (ω) = X(ω)}. Alors, pour tout ω ∈ C,
limn→∞ g(Xn (ω)) = g(X(ω)) par la continuité de g. Ainsi {ω ∈ Ω : limn→∞ g(Xn (ω)) =
g(X(ω))} ⊃ C, donc c’est un événement de probabilité 1. Pour les autres parties on peut
utiliser la convergence presque sûre du vecteur (Xn ,Yn ) et les fonctions continues (x,y) 7→
(αx + βy,xy) et les projections. 2
prob
Dans ce cas on note limn→∞ Xn = X en probabilité ou Xn −→ X, lorsque n → ∞.
Remarque: A nouveau on peut prendre des vecteurs aléatoires dans Rd avec une norme
quelconque à la place de | · | et une fois de plus il y a équivalence avec la convergence des
coordonnées grâce aux inégalités suivantes:
X
P max |Xn − X | > ε 6 P ∪16j6d {|Xnj − X j | > ε} 6
j j
P |Xnj − X j | > ε .
16j6d
16j6d
Preuve. On voit la différence par rapport à la convergence p.s. qui exige un supremum (**).
Plus précisement, soit A l’événement de probabilité 1 qui apparaı̂t dans la définition de la
convergence presque sûre. On fixe ε > 0 et pour chaque entier n on considère
et
X2n +j = Y2n ,j , 0 6 j 6 2n − 1, n > 1.
Alors, pour tout ω ∈ [0,1], lim inf n→∞ Xn (ω) = 0 et lim supn→∞ Xn (ω) = 1, donc Xn ne
converge pas presque sûrement. Cependant, pour tout ε ∈]0,1[ et m = 2n + j, 0 6 j 6 2n − 1,
P(|Xm | > ε) = 2−n . Donc Xn converge en probabilité vers 0.
Exemples: i) Soit (Xn )n∈N une suite de variables aléatoires P réelles non-corrélées, centrées,
telles que Var(Xn ) = σ 2 . Alors leurs moyennes partielles n1 16j6n Xj convergent en probabilité
vers 0. En effet, par l’inégalité de Tchebytchev,
σ2
X
1 1 X
P Xj > ε 6 2 2 Var Xj = 2
n 16j6n n ε
16j6n
nε
De point de vue modélisation, il suffit de lancer une cinquantaine de fois une pièce non truquée
pour voir que la proportion de pile se stabilise vers 0,5.
ii) Soit (Xn )n∈N une suite de variables aléatoires indépendantes telle que Xn ∼ B(n,pn ). Alors
prob
Xn −→ 0 ⇐⇒ lim pn = 0.
n→∞
P
ce qui est équivalent à n pn < ∞, puisque P(|Xn | > ε) = pn si 0 < ε < 1.
Remarque: Il est possible de définir une métrique sur L0 (Ω,A,P) définissant la convergence
en probabilité des variables aléatoires:
d(Xn ,X)
P(|Xn − X| > ε) = P(|Xn − X|∧ > ε) 6 .
ε
Par ailleurs,
d(Xn ,X) = E (|Xn − X| ∧ 1)1l{|Xn −X|>ε} + E (|Xn − X| ∧ 1)1l{|Xn −X|<ε}
6 P(|Xn − X| > ε) + ε.
prob
Si Xn −→ X, il existe n0 tel que si n > n0 , P(|Xn − X| > ε) 6 ε. Donc d(Xn ,X) 6 2ε, pour
n > n0 , d’où la conclusion. 2
Remarque: Par unicité de la limite dans tout espace métrique on déduit que la limite en
probabilité est unique p.s.
prob
Proposition 4.5 Soit X et (Xn )n∈N des variables aléatoires réelles. Alors Xn −→ X si et
seulement si de toute suite croissante d’entiers (n0 ) on peut extraire une sous-suite (n0k ) telle
p.s.
que Xn0k −→ X.
Preuve:
“=⇒”: par la convergence en probabilité, pour tout k ∈ N∗ , soit n0k le plus petit entier tel que
1 1
P(|Xn0k − X| > ) < k.
k 2
Alors,
X 1
P(|Xn0k − X| > ) < ∞.
k
k∈N∗
92 CHAPITRE 4. CONVERGENCE DES SUITES DE VARIABLES ALÉATOIRES
En particulier, pour tout ε > 0, il existe un k tel que P(|Xn0k − X| > ε) 6 P(|Xn0k − X| > k1 ),
d’où X
P(|Xn0k − X| > ε) < ∞,
k∈N∗
et donc, par le lemme de Borel-Cantelli (Proposition 4.1), limk→∞ Xn0k = X p.s.
“⇐=”: supposons le contraire, c’est-à-dire que Xn ne converge pas vers X en probabilité.
Alors il existe une suite croissante (n0 ), il existe δ > 0 et ε > 0 tels que P(|Xn0 − X| > ε) > δ.
Mais, par l’hypothèse, on peut extraire une sous-suite (n0k ) telle que Xn0k converge p.s. vers
X, et par la Proposition 4.3 en probabilité. Mais ceci est absurde car P(|Xn0k − X| > ε) > δ.
2
Remarque: De cette proposition on voit que la convergence presque sûre n’est pas une
convergence métrique, car si c’etait le cas, elle coı̈nciderait avec la convergence en probabilité.
Proposition 4.6 Soient (Xn )n∈N et (Yn )n∈N deux suites de variables aléatoires réelles telles
que Xn converge en probabilité vers une variable aléatoire X et Yn converge en probabilité
vers la variable aléatoire Y .
1) Si g : R → R est continue, alors g(Xn ) converge en probabilité vers g(X).
2) Pour tous α,β ∈ R, αXn + βYn converge en probabilité vers αX + βY .
3) De plus Xn Yn converge en probabilité vers XY .
Preuve: Prouvons 3): soit (n0 ) une suite extraite croissante et on extrait une sous-suite (n00 )
telle que Xn00 → X p.s. De (n00 ) on peut extraire une sous-suite (n000 ) telle que Yn000 → Y p.s.
Alors Xn000 Yn000 → XY p.s. On conclut à l’aide des Proposition 4.2 et 4.5. 2
Proposition 4.7 Soit (Xn )n∈N une suite de variables aléatoires réelles telle qu’elle vérifie le
critère de Cauchy en probabilité, c’est-à-dire que
∀ε > 0, ∃n0 , ∀n > m > n0 P(|Xn − Xm | > ε) < ε,
ou de façon équivalente, que
∀ε > 0, ∃n0 , ∀n > m > n0 d(Xn ,Xm ) < ε.
Alors Xn converge en probabilité si et seulement si Xn est de Cauchy en probabilité. Autrement
dit, l’espace L0 (Ω,A,P) est complet pour la distance d métrisant la convergence en probabilité.
Preuve: Supposons que Xn est convergente en probabilité vers X. Ainsi, pour tout ε > 0, il
existe n0 tel que dès que n > n0 on ait P(|Xn − X| > ε) < ε. Par l’inégalité triangulaire on
peut écrire, pour tout n > m > n0
{|Xn − Xm | > ε} ⊂ {|Xn − X| > ε} ∪ {|Xm − X| > ε}.
D’ici on déduit le critère de Cauchy en probabilité. Réciproquement, soit ε = 2−k dans la
condition de Cauchy en probabilité. On pose n1 = 1 et soit nk le plus petit entier tel que
P(|Xn − Xm | > 2−k ) < 2−k :
nk = min{N > nk−1 : P(|Xn − Xm | > 2−k ) < 2−k ∀n,m > N }
4.3. CONVERGENCE DANS LP 93
Ainsi nk 6 nk+1 et
P(|Xnk+1 − Xnk | > 2−k ) < 2−k .
Par le lemme de Borel-Cantelli 3.3, pour presque tout ω, il existe un entier k(ω) < ∞ tel que
si m > k(ω), |Xnm+1 (ω) − Xnm (ω)| 6 2−m . Alors la suite de réels Xnm (ω) est de Cauchy. En
effet, soit ε > 0 et p > l; on a
X X X
|Xnp (ω) − Xnl (ω)| 6 |Xnm+1 (ω) − Xnm (ω)| 6 2−m 6 2−m 6 2−l+1 .
l6m6p−1 l6m6p−1 m>l
Puisque pour tout p > l > l0 , 2−l+1 6 ε, donc |Xnp (ω) − Xnl (ω)| 6 ε. Ainsi Xnk converge
p.s. vers une limite X et en particulier cette sous-suite converge en probabilité vers X. Pour
conclure on écrit :
ε ε
P(|Xn − X| > ε) 6 P |Xn − Xnk | > + P |Xnk − X| >
2 2
et on fait petit chaque terme en utilisant la condition de Cauchy et la précédente convergence
en proba de la sous-suite Xnk . 2
Lp
Dans ce cas on note Xn −→ X, lorsque n → ∞.
1
Pour tout ε ∈]0,1[, P(|Xn | > ε) = n, / Lp , dès que
d’où Xn → 0 en probabilité. Or, Xn ∈
αp > 1 car
Z 1
n
E(Xnp ) = ω −αp dω.
0
94 CHAPITRE 4. CONVERGENCE DES SUITES DE VARIABLES ALÉATOIRES
Définition 4.4 Une suite de variables aléatoires intégrables (Xn )n∈N est dite uniformément
intégrable si
lim sup E |Xn |1l{|Xn |>c} = 0.
c→∞ n∈N
Remarque: Une famille de variables aléatoires avec un seul élément est uniformément intégrable
par convergence dominée.
Une suite de variables aléatoires dominée par une variable Y intégrable, c’est-à-dire, si
|Xn | 6 Y pour tout n, alors la suite est uniformément intégrable:
lim sup E |Xn |1l{|Xn |>c} 6 lim E Y 1l{Y >c} = 0.
c→∞ n∈N c→∞
En effet
p p p
sup E |Xn | 1l{|Xn |p >c} = sup E |Xn | 1l{| Xn |>1} = sup E |Xn | · 1 · 1l |Xn |δ
n n c1/p n { >1}
cδ/p
|Xn |δ
6 sup E |Xn |p δ/p 6 c−δ/p sup E |Xn |p+δ .
n c n
Remarque: Montrons que:
X intégrable =⇒ ∀ε > 0, ∃η > 0, t.q. si A ∈ A avec P(A) < η alors E (|X|1lA ) 6 ε.
D’une part, par le théorème de convergence dominée, pour c suffisament grand,
ε
E |X|1l{|X|>c} 6 .
2
ε
D’autre part, pour η 6 2c ,
ε ε
E (|X|1lA ) = E |X|1lA∩{|X|>c} + E |X|1lA∩{|X|6c} 6 + cP(A) 6 + cη 6 ε.
2 2
Proposition 4.9 La suite (Xn )n∈N de variables aléatoires réelles intégrables est uniformément
intégrable si et seulement si:
a) ∀ε > 0, ∃η > 0, t.q. si A ∈ A avec P(A) < η alors ∀n ∈ N E (|Xn |1lA ) 6 ε
et
4.3. CONVERGENCE DANS LP 95
Proposition 4.10 Soit (Xn )n∈N une suite de variables aléatoires intégrables. Il y a équivalence
entre:
1) (Xn )n∈N converge dans L1 ;
2) (Xn )n∈N est une suite de Cauchy dans L1 , c’est-à-dire E(|Xn − Xm |) → 0, lorsque
n,m → ∞;
3) (Xn )n∈N est une suite uniformément intégrable et (Xn )n∈N converge en probabilité.
Preuve:
1) =⇒ 2):
La convergence dans L1 implique la condition de Cauchy dans L1 par l’inégalité triangulaire.
2) =⇒ 3):
Par la condition de Cauchy, pour tout ε > 0, il existe n0 (ε) tel que si n > m > n0 , E(|Xn −
Xm |) 6 2ε . Alors, pour tout A ∈ A et tout n > n0
ε
E (|Xn |1lA ) = E (|Xn − Xn0 + Xn0 |1lA ) 6 E (|Xn0 |1lA ) + E(|Xn − Xn0 |) 6 E (|Xn0 |1lA ) + .
2
Donc
ε ε
sup E (|Xn |1lA ) 6 E (|Xn0 |1lA ) + , d’où sup E (|Xn |1lA ) 6 sup E (|Xj |1lA ) + .
n>n0 2 n>n0 j6n0 2
Si A = Ω,
ε
sup E (|Xn |1lA ) 6 sup E (|Xj |1lA ) + < ∞,
n>n0 j6n0 2
96 CHAPITRE 4. CONVERGENCE DES SUITES DE VARIABLES ALÉATOIRES
donc la partie b) de la Proposition 4.9 est vérifiée. Par ailleurs la famille finie {Xj : j 6 n0 }
est uniformément intégrable, donc, pour tout ε > 0, il existe un η > 0 tel que si P(A) < η,
on ait supj6n0 E (|Xj |1lA ) 6 2ε . On déduit alors
ε ε
sup E (|Xn |1lA ) 6 + = ε,
n 2 2
c’est-à-dire la partie a) de la Proposition 4.9. Donc la suite est uniformément intégrable.
Enfin, par l’inégalité de Markov
E(|Xn − Xm |)
P(|Xn − Xm | > ε) 6 → 0, n,m → ∞,
ε
donc la suite est de Cauchy en probabilité. Par la Proposition 4.7 la suite est convergente en
probabilité.
3) =⇒ 1):
Comme Xn converge en probabilité vers une variable X, de toute suite croissante (n0 ) on peut
extraire une sous-suite (n0k ) telle que Xn0k converge p.s. vers X (Proposition 4.5). Alors, par
le lemme de Fatou
E(|X|) = E(lim inf |Xn0k |) 6 lim inf E(|Xn0k |) 6 sup E(|Xn |) < ∞,
k→∞ k→∞ n∈N
Proposition 4.11 Soit p > 1 et soit (Xn )n∈N une suite de variables aléatoires dans Lp . Il y
a équivalence entre:
1) (Xn )n∈N converge dans Lp ;
2) (Xn )n∈N est une suite de Cauchy dans Lp , c’est-à-dire kXn −Xm kp → 0, lorsque n,m →
∞;
3) (|Xn |p )n∈N est une suite uniformément intégrable et (Xn )n∈N converge en probabilité.
Remarque: Par ce résultat la preuve de la Proposition 2.15 est complète. Par ailleurs, pour
assurer l’uniforme intégrabilité de (|Xn |p )n∈N il suffit de vérifier que la suite (Xn )n∈N est
bornée dans Lp+δ , δ > 0.
Preuve. Cette preuve est similaire à celle de la Proposition 4.10. On donne les idées.
4.4. CONVERGENCE EN LOI 97
1) =⇒ 2):
La condition de Cauchy dans Lp s’obtient de la convergence dans Lp par l’inégalité de
Minkowski (Proposition 2.14).
2) =⇒ 3):
Si (Xn )n∈N est de Cauchy dans Lp elle est de Cauchy en probabilité (par l’inégalité de Markov),
donc convergente en probabilité vers une variable aléatoire X. A nouveau par l’inégalité de
Minkowski
|kXn kp − kXm kp | 6 kXn − Xm kp → 0, n,m → ∞.
Donc la suite réelle (kXn kp )n∈N est de Cauchy, donc convergente, donc supn kXn kp < ∞
(condition b) dans la Proposition 4.9). De plus par le lemme de Fatou on peut déduire aussi
que la limite en probabilité satisfait aussi kXkp < ∞, donc X ∈ Lp . Enfin
P(|Xn − c| 6 ε) = P(c − ε 6 Xn 6 c + ε)
(i)
=⇒ : en effet, pour k ∈ N, soient s,t des points de continuité de FX , tels que k − 1 < s < k <
t < k + 1, d’où, lorsque n → ∞,
(i)
⇐= : soit g une fonction continue à support compact dans [0,N ]. On a
N
X N
X
E[g(Xn )] = g(k)P(Xn = k) → g(k)P(X = k) = E[g(X)]
k=0 k=0
(ii)
=⇒ : on utilise le même argument que ci-dessus en ajoutant la convergence dominée.
(ii)
⇐= : on a besoin d’un résultat classique sur la convergence des fonctions holomorphes:
Soit une suite des fonctions holomorphes sur le disque unité (fn )n∈N , ayant, pour chaque
n, tous les coefficients de chaque série entière positifs, et qui converge simplement sur [0,1];
alors la suite converge simplement sur tout le disque unité et la limite f est une fonction
holomorphe sur le disque unité; de plus pour tout entier k, la k-ième dérivée de fn converge
simplement vers la k-ième dérivée de f (sur le disque ouvert).
On prend ici fn = GXn dont (la limite de) la k-ième dérivée au point 1 est (k!)P(Xn = k).
On obtient la conclusion.
et
E[gε (Xn )] > E[1l]−∞,t] (Xn )] = P(Xn 6 t) = FXn (t),
donc lim supn→∞ FXn (t) 6 FX (t + ε) et par continuité à droite, lim supn→∞ FXn (t) 6 FX (t)
en prenant ε arbitrairement petit. Soit ensuite hε : R → [0,1] telle que hε (x) = 1 si x 6 t − ε
et hε (x) = 0 si x > t. On a
lim E[hε (Xn )] = E[hε (X)] > E[1l]−∞,t−ε] (X)] = P(X 6 t − ε) = FX (t − ε)
n→∞
et
E[hε (Xn )] 6 E[1l]−∞,t] (Xn )] = P(Xn 6 t) = FXn (t),
donc lim inf n→∞ FXn (t) > FX (t − ε). Par hypothèse FX (t−) = FX (t) et pour ε arbitairement
petit on trouve lim inf n→∞ FXn (t) > FX (t).
2) =⇒ 1):
Pas a)
Soit d’abord g : R → R de classe C1 à support compact; en particulier g 0 est bornée à support
compact. Par le théorème de Fubini, on a
Z Z x Z
E[g(Xn )] = PXn (dx) g (y)dy = (1 − FXn (y))g 0 (y)dy.
0
R −∞ R
On sait que l’ensemble des points de discontinuité de FX est au plus dénombrable, donc de
mesure de Lebesgue nulle; hors de ces points 1 − FXn converge vers 1 − FX tout en restant
bornée par 1, car toute fonction de répartition est à valeurs dans [0,1]. La mesure positive
|g 0 (y)|dy a sa masse totale finie, c’est-à-dire:
Z
|g 0 (y)|dy 6 sup |g 0 (y)| × λLeb supp(g 0 ) < ∞,
R y∈supp(g 0 )
100 CHAPITRE 4. CONVERGENCE DES SUITES DE VARIABLES ALÉATOIRES
Pas b)
Soit ensuite g continue à support compact, mais pas nécéssairement dérivable. Pour tout
ε > 0, il existe une fonction h de classe C1 à support compact telle que |g(x) − h(x)| 6 4ε ,
pour tout t ∈ R (par exemple la convolée de g par l’approximation de l’unité de classe
C1 à support compact). Par ce qu’on vient de voir, on sait trouver un entier n0 , tel que
|E[h(Xn )] − E[h(X)]| 6 2ε dès que n > n0 . Donc, pour n > n0 ,
Pas c)
Enfin soit g continue bornée et ε > 0. On peut supposer que |g| 6 1. Il existe une fonction
ǧ continue à support compact 0 6 ǧ 6 1, telle que E[ǧ(X)] > 1 − 5ε . On déduit qu’il existe
un entier n1 tel que E[ǧ(Xn )] > 1 − 4ε dès que n > n1 . La fonction gǧ est continue à support
compact, donc il existe un entier n2 tel que |E[(gǧ)(Xn )] − E[(gǧ)(X)]| 6 2ε dès que n > n2 .
On a alors, pour tout n > max{n1 ,n2 },
ϕXn (t) = E[g1 (Xn )] + iE[g2 (Xn )] → E[g1 (X)] + iE[g2 (X)] = ϕX (t).
3) =⇒ 1):
Pas a)
Supposons d’abord
R itx que g : R → R est continue à support compact, avec sa transformée de
Fourier ĝ(t) 1
1
R =−itxR e g(x)dx est dans L (R,B(R),λ). On sait, par inversion de Fourier que
g(x) = 2π R e ĝ(t)dt. Par le théorème de Fubini,
Z Z Z
1 −itXn 1 −itXn 1
E[g(Xn )] = E e ĝ(t)dt = E e ĝ(t)dt = ϕXn (−t)ĝ(t)dt.
2π R 2π R 2π R
Mais, ϕXn (−t) converge vers ϕX (−t) pour chaque t et de plus, on sait que |ϕXn (−t)| 6 1,
pour tout t ∈ R. Comme ĝ est intégrable, par convergence dominée on trouve
Z
1
lim E[g(Xn )] = ϕX (−t)ĝ(t)dt = E[g(X)].
n→∞ 2π R
Pas b)
On peut voir que la condition ĝ ∈ L1 (R) est satisfaite pour toute fonction g de classe C2
à support compact. En effet, la transformée de Fourier ĝ est bornée et la transformée de
Fourier de la fonction à support compact g 00 est bornée et est égale à t2 ĝ(t). D’où pour
4.5. LES LOIS DES GRANDS NOMBRES ET LE THÉORÈME CENTRAL LIMITE 101
|t| → ∞, ĝ(t) = O( t12 ). Comme ĝ est bornée, elle est donc intégrable sur R. Ainsi l’affirmation
est vérifiée pour g de classe C2 à support compact.
Pas c)
Pour g juste continue à support compact et ensuite g continue bornée on peut répéter les
mêmes arguments que dans la preuve 2) =⇒ 1) (les pas b) et c)).
La preuve du théorème est complète. 2
Remarque: (facultatif )
En fait l’implication 3) =⇒ 1) peut être énoncée aussi comme le théorème de Lévy:
Soit (Xn )n∈N uns suite de variables aléatoires de fonctions caractéristiques ϕXn . Supposons
que la suite ϕXn converge ponctuellement vers une fonction ψ continue en 0. Alors ψ est la
fonction caractéristique d’une variable aléatoire X et la suite Xn converge en loi vers X.
Ce résultat repose sur une question intéressante : savoir si d’une suite de variables aléatoires
on peut extraire une sous suite convergente en loi (on dira que la suite est relativement
compacte pour la convergence étroite).
Ce n’est pas toujours le cas: soit la suite de variables aléatoires Xn = n. Pour toute
fonction g continue tendant vers 0 à l’infini on a E[g(Xn )] = g(n) → 0, donc on ne peut pas
extraire une sous suite convergente en loi. Il s’agit du fait que “la masse est partie à l’infini”.
Lorsqu’on évite ce phénomène alors la suite est relativement compacte et réciproquement.
La formulation du phénomène de ne pas perdre de masse est la suivante:
Une suite de lois Pn sur R est dite tendue si
aléatoires.
Comme les variables X1 , . . . ,Xn sont indépendantes et de même loi que X, la fonction
caractéristique de Sn est ϕSn = ϕnX . Donc lorsque n → ∞,
t n
t t 1
ϕ Sn (t) = ϕSn ( ) = ϕX ( )n = 1 + itE(X) + o( ) .
n n n n n
Par convergence dominée, on voit que, lorsque n → ∞,
t t
n |ϕX ( ) − (1 + i E(X))| → 0.
n n
En effet on a 1 2
t |X|2 2t|X|
t t
|ϕX ( ) − (1 + i E(X))| 6 E ∧ ,
n n 2n2 n
avec
t2 |X|2 2t|X| t2 |X|2 2t|X| t2 |X|2
n ∧ 6 2t|X| ∈ L1 et n ∧ 6 → 0.
2n2 n 2n2 n 2n
1. Par la formule de Taylor au reste integral on a
n
(ix)k in+1 x
X Z
eix = + (x − s)n eis ds,
k! n! 0
k=0
d’où
n
X (ix)k xn+1
|eix − |6 .
k! (n + 1)!
k=0
Par ailleurs, un calcul simple montre que
n Z x
X (ix)k in (ix)n
eix − = (x − s)n−1 eis ds − ,
k! (n − 1)! 0 n!
k=0
d’où
n
X (ix)k |x|n |x|n 2|x|n
|eix − |6 + = .
k! n! n! n!
k=0
Ainsi
n
X (ix)k xn+1 2|x|n
|eix − |6 ∧ .
k! (n + 1)! n!
k=0
Enfin on déduit
n
(it)k |tX|n+1 2|tX|n
X
|ϕX (t) − E(X k )| 6 E ∧ .
k! (n + 1)! n!
k=0
t itE(X) n t t
|ϕX ( )n − (1 + ) | 6 n|ϕX ( ) − (1 + i E(X))| → 0.
n n n n
On en déduit
lim ϕ Sn (t) = eitE(X) ,
n→∞ n
où le membre droit est la fonction caractéristique de la variable aléatoire constante E(X). Par
la Définition 4.5 on déduit que Snn converge en loi vers la constante E(X), et par la Proposition
4.14 on tire la conclusion. 2
Preuve:
2) =⇒ 1):
Si la suite Snn converge p.s., alors la suite Xnn converge p.s. vers 0. Par le lemme de Borel-
Cantelli (Proposition 4.1, 2)), puisque les Xj sont indépendantes et toutes de même loi que
X, pour tout (ou seulement un) ε > 0,
X Xn X X
P(| | > ε) = P(|Xn | > εn) = P(|X| > εn) < ∞.
n
n>1 n>1 n>1
Sn4 1 Var(X)
P(| 4
− m| > ) 6 .
n n n2
2. On a pour i = 1, . . . ,n et ai ,bi ∈ C, |ai |,|bi | 6 1
n n
n
Y Y X
ai − bi 6 |ai − bi |
i=1 i=1 i=1
P Sn4 1
On déduit que la série n>1 P(| n4 − m| > n) converge. Par le lemme de Borel-Cantelli on
a presque sûrement,
Sn4 1
4
− m| 6 , sauf pour un nombre fini d’entiers n.
|
n n
On fixe un ω pour lequel l’événement ci-dessus est réalisé et on prend n suffisament grand.
Comme la suite Sn est croissante, pour tout entier k tel que n4 6 k 6 (n + 1)4 , on a
S(n+1)4 (ω) n + 1 4 S(n+1)4 (ω) n+1 4
Sk (ω) 1
6 4
= 4
6 (m + ).
k n n (n + 1) n n+1
Ainsi,
Sk (ω)
lim sup 6 m.
k→∞ k
De même 4 4
Sk (ω) S 4 (ω) n Sn4 (ω) n 1
> n = > (m − ).
k (n + 1)4 n+1 n4 n+1 n
On déduit
Sk (ω)
lim inf > m.
k→∞ k
En conséquence, on a pour presque tout ω, limk→∞ Skk(ω) = m.
Pas b)
Supposons maintenant X intégrable. Quitte à remplacer les variables Xj par Xj − E(Xj ), on
peut supposer que m = E(X) = 0. On fixe ε > 0. Comme E(|X|) < ∞, il existe des variables
Yj , bornées, centrées indépendantes et de même loi, telles que E(|Xj − Yj |) 6 ε. 3
On note Tn = Y1 + . . . + Yn et on a
n
|Sn | 1X |Tn |
6 |Xj − Yj | + .
n n n
j=1
|Tn |
D’après les pas a), n converge presque sûrement vers 0. On va montrer que pour ε suffisament
petit,
n
1X
(*) lim sup |Xj − Yj | 6 2E(|X1 − Y1 |),
n→∞ n
j=1
3. Il existe c > 0 assez grand tel que E(|X|1l{|X|>c} ) 6 ε. On prend Y 0 = X1l{|X|>c} et Y = Y 0 − E(Y 0 )
qui est centrée bornée par 2c. Alors E(|X − Y |) 6 E(|X − Y 0 |) + E(Y 0 ) = E(|X − Y 0 |) + |E(X) − E(Y 0 )| 6
2E(|X − Y 0 |) 6 2ε. On prend ε/2 au lieu de ε et ensuite on fait des copies indépendantes de même loi de Y .
4.5. LES LOIS DES GRANDS NOMBRES ET LE THÉORÈME CENTRAL LIMITE 105
n
1 X
6 P ∃j ∈ {1, . . . ,2k+1 } : Zj > 2k + P max Zj 1l[0,2k ] (Zj ) > 2E(Z) + δ
2k <n62k+1 n
j=1
k+1
2X
6 2k+1 P(X > 2k ) + P Zj 1l[0,2k ] (Zj ) > 2k+1 E(Z) + δ2k
j=1
k+1
2X
6 2k+1 P(X > 2k ) + P Zj 1l[0,2k ] (Zj ) − E(Zj 1l[0,2k ] (Zj )) > δ2k .
j=1
2
6 2k+1 P(X > 2k ) + E Z 2
1
l k
[0,2 ] (Z)
δ 2 2k
Pour tout entier k,
Z 2k+1
P(X > t)dt > 2k P(X > 2k+1 ),
2k
d’où
X X
2−k E Z 2 1l[0,2k ] (Z) = E Z 2 2−k 1l[0,2k ] (Z) 6 4E(Z).
k>0 k>0
Donc, finalement,
n
X 1X 2
P max Zj > 2E(Z) + δ 6 4(1 + 2 )E(Z) < ∞.
2k <n62k+1 n δ
k>0 j=1
106 CHAPITRE 4. CONVERGENCE DES SUITES DE VARIABLES ALÉATOIRES
D’après le lemme de Borel-Cantelli (Théorème 3.3 a)), presque sûrement pour tout k assez
grand
n
1X
max Zj < 2E(Z) + δ,
2k <n62k+1 n
j=1
Remarque: Une autre façon d’énoncer la loi forte des grands nombres est de dire que
si E(|X|) < ∞ alors Snn = E(X) + o(1) p.s. lorsque n → ∞. Le théorème limite central
donne, en un certain sens, un terme de plus dans le développement asymptotique, précisant
le comportement limite en loi du terme o(1), sous une hypothèse suplémentaire sur la loi
commune des Xj . On a ainsi une estimation trés précise de l’erreur commise en approchant
l’espérance mathématique par la moyenne empirique. Le résultat permet d’approximer la loi
de Snn lorsque n est grand.
On en déduit
2 /2
lim ϕSn /√n (t) = e−t .
n→∞
Le membre de droite est la fonction caractéristique de la loi N (0,1) et le théorème est établi.
2
n−1
X
6 E g(Tnk ) − g(T̂nk ) + g(T̂nk ) − g(Tnk+1 ) .
k=0
Pour chaque différence on écrit le développement de Taylor de g au point T̂nk . On voit que
√ √
Tnk = T̂nk + Xk / n et Tnk+1 = T̂nk + Nk / n:
Xk 2
k k 0 k Xk 1 00 k
g(Tn ) − g(T̂n ) = g (T̂n ) √ + g (T̂n ) √ + Rnk
n 2 n
et 2
Nk 1 N
g(Tnk+1 ) − g(T̂nk ) = g 0 (T̂nk ) √ + g 00 (T̂nk ) √k + R̂nk .
n 2 n
On sait que T̂nk est indépendante de Nk et aussi de Xk et que ces deux dernieres variables
sont centrées et ont la même variance. Quand on prend la somme des deux développements
et l’espérance, tout s’annule sauf les restes, E(Rnk ) et E(R̂nk ). Or
|Xk |3 |Nk |3
|Rnk | 6 (sup |g 000 (x)|) et |R̂ k
n | 6 (sup |g 000
(x)|) .
x∈R n3/2 x∈R n3/2
On trouve
n−1
X 1 1
|E[g(Tn )] − E[g(T̄n )]| 6 c =c .
k=0
n3/2 n1/2
2
108 CHAPITRE 4. CONVERGENCE DES SUITES DE VARIABLES ALÉATOIRES
4.6 Exercices
4.1. Soit (Xn )n∈N une suite de variables
P aléatoires réelles indépendantes. Montrer que le rayon
n
de convergence de la série entière n∈N Xn z à coefficients aléatoires est p.s. constant.
4.2. Soit (Xn )n∈N une suite de variables aléatoires réelles indépendantes de loi donnée par
P(Xn = 1) = p, P(Xn = −1) = 1 − p, 0 < p < 1, p 6= 21 . On pose S0 = 0 et pour n > 1,
Sn = X1 + . . . + Xn . L’événement An = {Sn = 0} s’appelle un retour à 0.
(i) Que représente l’événement lim supn An ?
(ii) Montrer que P(lim supn An ) = 0.
4.5. Soit (Xn )n∈N∗ une suite de variables aléatoires réelles indépendantes. La loi de Xn est:
1 2
PXn = 2 (δn4 + δn−4 ) + 1 − 2 δ0 .
n n
P
Montrer que la série n∈N∗ Xn converge presque sûrement.
4.6.* Soit (Xn )n∈N∗ une suite de variables aléatoires réelles indépendantes de loi exponentielle
de paramètre 1. On note Mn = max16j6n Xj .
(i) Montrer que pour tout ε > 0
P(Mn 6 (1 − ε) ln n) = exp(n ln(1 − nε−1 )).
(ii) Par le lemme de Borel-Cantelli, en déduire
Mn
> 1 − ε p.s. pour n assez grand.
ln n
(iii) Montrer que pour tout ε > 0
P(Mn > (1 + ε) ln n) = 1 − exp(n ln(1 − n−ε−1 )).
(iv) Soit la sous-suite nk = [(k + 1)δ ], k ∈ N, εδ > 1, où [·] note la partie entière. Par le
lemme de Borel-Cantelli, en déduire
Mnk
lim sup 6 1, p.s.
k→∞ ln nk
Mn
Quelle est la limite presque sûre de ln nkk ?
(v) Pour tout entier n > 0 il existe k ∈ N tel que nk 6 n < nk+1 . Montrer que
ln nk Mnk Mn Mnk+1 ln nk+1
· 6 6 · .
ln nk+1 ln nk ln n ln nk+1 ln nk
4.6. EXERCICES 109
4.7. Soit (Xn )n∈N une suite de variables aléatoires réelles indépendantes centrées uniformément
bornées.
(i) Montrer que E[(X1 + . . . + Xn )4 ] 6 cste.n2 .
(ii) En déduire que, lorsque n → ∞
X1 + . . . + Xn p.s.
−→ 0.
n
4.8. Montrer que l’espace L0 peut être muni d’une structure d’espace métrique complet. En
déduire l’unicité de la limite en probabilité.
4.9. Soit (Xn )n∈N une suite de variables aléatoires réelles admettant un moment d’ordre
deux et telles que limn→∞ E(Xn ) = c et limn→∞ Var(Xn ) = 0. Montrer que Xn converge en
probabilité vers c.
4.10. Soient (Xn )n∈N et (Yn )n∈N deux suites de variables aléatoires telles que Xn converge
vers une variable X en probabilité et Yn converge vers une variable Y en probabilité. Soit
g : R2 → R une fonction uniformément continue.
(i) Montrer que g(Xn ,Yn ) converge en probabilité vers g(X,Y ).
(ii) Montrer que Xn + Yn converge en probabilité vers X + Y .
4.11. Soit (Xn )n∈N une suite de variables aléatoires réelles indépendantes de loi de Bernoulli
telles que E(Xn ) = n1 . Étudier la convergence en probabilité et presque sûre de cette suite.
4.12. Soit (Xn )n∈N une suite de variables aléatoires réelles de même loi admetant un moment
d’ordre deux, indépendantes. Montrer que, lorsque n → ∞
1 prob
√ max |Xj | −→ 0.
n 06j6n
4.13. Soit (Xn )n∈N une suite de variables aléatoires réelles indépendantes telles que Xn suit
la loi uniforme sur {±nα }, α > 0. Montrer que si 0 < α < 12 alors la suite satisfait la loi faible
des grands nombres. Est-ce que la réciproque de cette affirmation est vraie?
4.14. Montrer que si Xn converge vers une variable X dans L1 , alors limn→∞ E(Xn ) = E(X).
4.15. Soit (Xn )n∈N une suite de variables aléatoires réelles et il existe un réel M > 0 tel
que, pour tout entier n, |Xn | 6 M p.s. Montrer que, lorsque n → ∞
proba L1
Xn −→ 0 ⇐⇒ Xn −→ 0.
110 CHAPITRE 4. CONVERGENCE DES SUITES DE VARIABLES ALÉATOIRES
4.16. Soit (Xn )n∈N une suite de variables aléatoires réelles qui converge en probabilité vers
L1
une constante c. Soit g : R → R une fonction continue bornée. Montrer que g(Xn ) −→ g(c).
4.17. Soit (Xn )n∈N∗ une suite de variables aléatoires réelles deux-à-deux non corréllées telles
que supn∈N∗ E(|Xn2 |) < ∞. On note Sn = X1 + . . . + Xn .
(i) On suppose que les Xn ont toutes la même espérance m. Montrer que, lorsque n → ∞
Sn L2
−→ m.
n
E(X1 )+...+E(Xn )
(ii) On suppose que limn→∞ n = m. Montrer que, lorsque n → ∞
Sn prob
−→ m.
n
P
(iii) On suppose que les Xn sont toutes centrées et que de plus n∈N∗ Var(Xn ) < ∞. Montrer
que Sn converge dans L2 .
4.18. Soit (Xn )n∈N∗ une suite de variables aléatoires réelles indépendantes de loi binomiale
Xn ∼ B(n, nλ ) (0 < λ < 1). Montrer que Xn converge en loi vers une variable aléatoire de loi
de Poisson de paramètre λ.
4.19. Soit (Xn )n∈N∗ une suite de variables aléatoires réelles indépendantes de loi uniforme
Xn ∼ U(1, . . . ,n). Montrer que Xnn converge en loi vers une variable aléatoire de loi U[0,1] .
4.20. Soit (Xn )n∈N∗ une suite de variables aléatoires réelles indépendantes de loi géométrique
Xn ∼ G( np ) (0 < p < 1). Montrer que Xnn converge en loi (à l’aide des fonctions caractéristiques
et des fonctions de répartition).
4.21. Soient (Xn )n∈N et (Yn )n∈N deux suites de variables aléatoires réelles telles que pour
tout n Xn et Yn sont indépendantes. On suppose que Xn converge en loi vers une variable X
et Yn converge en loi vers une variable Y . Montrer que la suite des couples (Xn ,Yn ) converge
en loi.
4.22. Soit (Xn )n∈N∗ une suite de variables aléatoires réelles indépendantes de loi de Bernoulli
de paramètre 21 et soit U ∼ U[0,1] . On pose
n
X Xk
Yn = .
2k
k=1
(i) Montrer que la fonction caractéristique de Yn peut se mettre sous les deux formes suivantes:
it − it t t t t it − it 1 n sin( 2t )
ϕYn (t) = e e
2 2n+1 cos( ) cos( ) cos( ) . . . cos( n+1 ) = e e
2 2 n+1 ( ) t .
4 8 16 2 2 sin( 2n+1 )
4.23. Soit ψ : [0,1] → [0,1] et soit (Un )n∈N une suite de variables aléatoires réelles indépendantes
de loi uniforme sur [0,1]. On pose
Z 1
1 si ψ(U2k ) > U2k+1
I= ψ(x)dx, Yk =
0 0 sinon
(i) Montrer que les variables aléatoires Yk sont indépendantes et trouver leurs lois.
(ii) Montrer que, lorsque n → ∞
1 p.s.
Ȳn = (Y1 + . . . + Yn ) −→ I.
n
(iii) (méthode de Monte-Carlo simple)
On veut estimer I à l’aide de Ȳn et l’erreur relative est
|Ȳn − I|
εn = .
I
Donner un majorant de P(εn > α) en termes de α,I,n.
(iv) Supposons que des estimations ont permis par ailleurs de voir que I > 0,5. À partir de
quelle valeur de n s’assure-t-on 19 chances sur 20 de faire une erreur relative inférieure à 1%
en estimant I?
4.24. Soit f : R → [0,∞[ une densité de probabilité et soit ψ : R → R une fonction intégrable
par rapport à la mesure de Lebesgue. On pose
Z
I= ψ(x)f (x)dx.
R
n Z
cX p.s.
ψ(Xj )1lg(Xj )<cUj f (Xj ) −→ ψ(x)g(x)dx.
n R
j=1
Montrer que la suite (Zn )n∈N est une suite de variables aléatoires indépendantes de densité
g. En déduire que, lorsque n → ∞
Z
1 p.s.
(ψ(Z1 ) + . . . + ψ(Zn )) −→ ψ(x)g(x)dx.
n R
(i) Soit (Xn )n∈N une suite de variables aléatoires réelles indépendantes de même loi exponentielle
E( x1 ). Quelle sont les densités de Sn = X1 + . . . + Xn et de Snn .
(ii) Montrer que g est indéfinement dérivable sur ]ε,∞[, pour tout ε > 0, de dérivée n-ième
donnée sur ]0,∞[ par Z ∞
g (n) (s) = (−1)n xn e−sx f (x)dx.
0
(−1)n−1 nn g (n−1) ( nx )
lim = f (x),
n→∞ xn (n − 1)!
4.26. Soit (Xn )n∈N∗ une suite de variables aléatoires réelles indépendantes de loi de Poisson
Xn ∼ P(an ) (an > 0). On note sn = a1 + . . . + an et Sn = X1 + . . . + Xn . On suppose que
limn→∞ sn = ∞.
(i) Montrer que, lorsque n → ∞
Sn − sn loi
√ −→ G ∼ N (0,1).
sn
n −n
S√
(ii)* On suppose que tous les an = 1 et on pose Tn = n
. Pourquoi pour tout x > 0,
limn→∞ P(x 6 Tn ) = P(x 6 G)? À l’aide de l’inégalité Bienaymé-Tchebytchev montrer que
on peut dominer P(x 6 Tn ) par une fonction intégrable sur ]0,∞[. En déduire,
1
lim E(Tn+ ) = E(G+ ) = √ .
n→∞ 2π
4.6. EXERCICES 113
4.27 Une usine fabrique des pièces dont 3% ont des défauts.
(i) On prélève 1000 pièces au hasard. Quelle est la probabilité d’avoir plus de 50 pièces
défectueuses? d’avoir entre 20 et 40 pièces défectueuses?
(ii) On veut 1950 pièces sans défaut. Par prudence on prélève 2000 au hasard. Quelle est la
probabilité d’avoir suffisament de pièces en bon état?
4.28. Deux sondages effectués l’un auprès de 800 Françaises, l’autre auprès de 800 Français
donnet 51% de fumeuses et 49% de fumeurs. Est-il raisonnable d’en déduire que les femmes
fument plus que les hommes en France?
4.29. Dans une population de 56680 familles lapins ayant 8 petits chacunes (donc 429440
lapereaux au total) il y a 221023 mâles et 208417 femelles. On se demande si le nombre de
lapereaux mâles est significativement plus élevé que celui de lapereaux femelles? Autrement
dit on voudrait tester l’hypothèse : les chances sont égale d’avoir un mâle ou une femelle avec
un risque d’erreur de 5%.
4.30. Suivant l’hypothèse de Mendel sur la couleur des yeux (bleu récessif, marron dominant)
une personne prise au hasard a une chance sur quatre d’avoir les yeux bleus. Si cette hypothèse
est valide, combien de personnes doit-on observer pour être quasi-certain avec une probabilité
de 99,8% que la proportion de personnes aux yeux marron sera comprise entre 0,7 et 0,8?
114 CHAPITRE 4. CONVERGENCE DES SUITES DE VARIABLES ALÉATOIRES
115
Chapitre 5
Exercice I.
Sur l’espace de probabilité (]0,1],B(]0,1]),λ), où λ note la mesure de Lebesgue sur ]0,1], on
considère la variable aléatoire S(ω) = [1/ω], où [·] note la fonction partie entière.
1) Trouver la loi de S (on pourra chercher les valeurs possibles de S et les probabilités avec
lesquelles sont prises ces valeurs);
2) Étudier l’existence des moments d’ordre un et deux de S.
3) Que vaut P(S > 100)?
Exercice II.
Le vecteur aléatoire (X,Y ) a la densité de probabilité donnée par
−x−y
e , x > 0, y > 0
fX,Y (x,y) =
0 sinon.
Trouver :
1) les densités marginales de X et de Y et leurs lois;
2) les fonctions de répartition F(X,Y ) , FX et FY du vecteur et de ses coordonées;
3) les fonctions caractéristiques ϕ(X,Y ) , ϕX et ϕY du vecteur et de ses coordonées;
4) l’espérance et la matrice de covariance du vecteur (X,Y );
5) la densité du vecteur (Z,W ) = (X,X + Y ) et les lois des variables aléatoires X + Y et
U = X/(X + Y ) (on pourra calculer successivement les densités de (Z,W ) = (X,X + Y )
et (U,V ) = (Z/W,W ) = (X/(X +Y ),X +Y ), ensuite déduire les marginales en question).
Exercice III.
Une urne contient des boules rouges et noires. La proportion de boules rouges est p ∈]0,1[.
On effectue des tirages avec remise dans l’urne en notant à chaque fois la couleur obtenue.
116 CHAPITRE 5. SUJETS D’EXAMENS 2001-2003
On dit avoir obtenu un “succès” si une boule rouge est sortie. On cesse les tirages après avoir
noté l’obtention de n boules rouges, n > 1 (n succès). Soit T la variable aléatoire nombre
total de boules tirées.
1) Dire quel est l’ensemble de valeurs possibles de T .
2) Calculer P(T = n) et P(T = n + 1).
3) Donner une explication précise et succincte de la formule suivante :
n−1 n
P(T = k) = Ck−1 p (1 − p)k−n .
Exercice IV.
Soient (Ω,A,P) un espace de probabilité, T une sous-tribu de A et X : Ω → R une variable
aléatoire réelle intégrable. On rappelle qu’une variable aléatoire réelle Z est T -mesurable si :
On admet qu’il existe une variable aléatoire réelle Z T -mesurable, intégrable et satisfaisant :
Montrer que :
1) E(Z) = E(X);
2) si X > 0 p.s. alors Z > 0 p.s. (on justifiera qu’on peut prendre dans (5.1) A = {Z < 0}
et on montrera que P(A) = 0);
3) la variable Z est unique p.s., c’est-à-dire que si Ẑ est une autre variable aléatoire réelle
T -mesurable, intégrable telle que :
E Ẑ1lA = E (X1lA ) , pour tout A ∈ T , (5.2)
alors Z = Ẑ p.s. (on justifiera qu’on peut prendre dans une égalité déduite à partir de
(5.1) et (5.2), d’abord A = {Z > Ẑ} et ensuite A = {Z < Ẑ}).
Exercice V.
Soit (Ω,A,P) un espace de probabilité et soient A, B ∈ A deux événements quelconques.
Montrer que :
1
|P(A ∩ B) − P(A)P(B)| 6
4
(on pourra déduire une inégalité utile en étudiant le maximum de la fonction x 7→ x(1 − x)
définie sur [0,1] à valeurs dans R).
117
Sujet d’examen
Licence de Mathématiques - Probabilités
jeudi 31 mai 2001 - durée 3 heures - calculatrice interdite
documents (cours manuscrit ou polycopié) autorisés
Exercice I.
Un point aléatoire (X,Y ) est uniformément distribué dans le carré R de sommets (1,0), (0,1),
(-1,0) et (0,-1); ainsi la densité est de la forme f(X,Y ) (x,y) = c 1lR (x,y). Trouver la constante
c et étudier l’indépendance et la corrélation des coordonnées X,Y .
Exercice II.
Soient c > 0 et f,g : [0,1] → R deux fonctions continues telles que pour tout x ∈]0,1[,
0 < f (x) 6 c g(x).
1) Soit (Un )n>1 une suite de variables aléatoires indépendantes uniformément distribuées
sur [0,1]. Justifier la convergence presque sûre et préciser les valeurs des limites des
suites suivantes:
n n
1X 1X
Xn = f (Uj ) et Yn = g(Uj ).
n n
j=1 j=1
1 1
R1
f (x)dx
Z Z
f (x1 ) + . . . + f (xn )
lim ... dx1 . . . dxn = R01 .
n→∞ 0 0 g(x1 ) + . . . + g(xn ) 0 g(x)dx
| {z }
n fois
5) Calculer :
1 1
x21 + . . . + x2n
Z Z
lim ... dx1 . . . dxn
n→∞ 0 0 x1 + . . . + xn
| {z }
n fois
Exercice III.
Soient X1 , . . . ,Xn variables aléatoires strictement positives indépendantes et de même loi.
Calculer, pour k ∈ {1, . . . ,n},
X1 + . . . + Xk
E .
X1 + . . . + Xn
Xj
On pourra justifier d’abord que les variables X1 +...+Xn , j = 1, . . . ,n, ont la même loi.
Exercice IV.
Soient D1 ,D2 , . . . des variables aléatoires indépendantes de même loi E(λ), λ > 0. On regarde
les variables Dj comme les durées de temps entre deux arrivées de clients devant un guichet.
On s’intéresse au nombre Nt de clients arrivés jusqu’au moment t.
On définit N0 = 0 et pour t > 0 :
(λt)n
P(Nt = n) = e−λt .
n!
Quelle est la loi de Nt ? Calculer le nombre moyen de clients arrivés jusqu’au temps t.
Que vaut et que signifie E(Nt /t)? Montrer (par calcul et passage à la limite) que
t
lim E = E(D1 ).
t→∞ 1 + Nt
Nn √
5) Calculer la limite en loi de la suite ( √ n
− λ n)n>1 , lorsque n → ∞.
119
Exercice I.
Soient X et Y deux variables aléatoires indépendantes de même loi exponentielle d’espérance
1.
1) Trouver la densité de la variable aléatoire Z = X −Y (on pourra commencer par étudier
le couple aléatoire (X,Z) ). S’agit-il d’une loi remarquable?
2) Effectuer le calcul de la fonction caractéristique ϕX . Que vaut ϕY ? En déduire la fonction
caractéristique de Z (ne pas calculer d’intégrale mais utiliser les fonctions ϕX et ϕY ).
3) Trouver la fonction de répartition FZ .
4) Calculer l’espérance et la variance de Z.
5) Soit W ∼ U[0,e2 −1] une variable aléatoire indépendante du couple (X,Y ). Dire pourquoi
W est indépendante de Z. En déduire que Var(Z) = (e2 − 1)E e−W |Z| (on pourra
Exercice II.
Soient X et Y deux variables aléatoires discrètes telles que
a
P(X = n,Y = m) = , n,m = 1,2,3, . . . .
(n + m − 1)(n + m)(n + m + 1)
1) Trouver les lois marginales de X et Y et calculer ensuite la valeur de la constante a.
2) Calculer P( 12 < X < 3) et P(Y > r), où r ∈ N∗ .
3) Pour quelles valeurs de p, X ∈ Lp ? X est-elle intégrable?
4) X et Y sont elles indépendantes? non corrélées?
5) Calculer P(X + Y = r) pour r entier supérieur à une valeur que l’on indiquera.
Exercice III.
Soit (Xn )n>1 et X des variables aléatoires telles que la série n>1 kXn −Xkpp soit convergente
P
p.s.
pour un p > 1. Prouver que Xn −→ X, lorsque n → ∞.
Exercice IV.
On considère (Xn )n>1 une suite de variables aléatoires indépendantes de même loi donnée
par :
e−1
P(Xn = `) = , ` = −1,0,1,2,3, . . .
(` + 1)!
1) Trouver les lois de 1 + X1 et de n + Sn , où Sn = X1 + . . . + Xn .
2) Peut-on utiliser le théorème central limite? Enoncer et appliquer ce résultat.
3) En déduire que les suites P(Sn 6 0) et P(Sn > 0) convergent vers 12 et que :
n
!
−n
X nk 1
lim e = .
n→∞ k! 2
k=0
120 CHAPITRE 5. SUJETS D’EXAMENS 2001-2003
Exercice I.
1) Sur l’espace de probabilité (]0,1],B(]0,1]),λ), où λ est la mesure de Lebesgue sur ]0,1],
on considère la variable aléatoire X(ω) = −2 ln ω.
a) Trouver la fonction de répartition de X et montrer qu’il s’agit d’une loi exponentielle
de variance 4.
b) Montrer que pour tous u,v > 0, P(X > u + v) = P(X > u)P(X > v).
2) Soit Y une variable aléatoire sur un espace de probabilité (Ω,A,P) de même loi que X.
On pose Z = 1 + [Y ], où [·] note la fonction partie entière.
a) Calculer P(Z = 1) et P(Z = 2). Trouver la loi de Z.
b) Sur une cible
p de surface 1 ayant la forme d’un disque, la partie centrale (noire) est
de rayon p/π, 0 < p < 1. On tire T fois sur cette cible jusqu’à ce qu’on touche
la première fois la partie centrale. Pour quel choix particulier de p les variables
aléatoires T et Z ont la même loi?
c) Enoncer et prouver une égalite pour Z similaire à celle du point 1b) pour u,v ∈ N∗ .
d) Calculer GZ (s) = E(sZ ). En déduire E(Z) et Var(Z).
3) On rappelle que Y est de même loi que X et on note W = Y − [Y ].
a) Montrer que {W 6 t} = ∪n>0 {n 6 Y 6 n+t}. En déduire la fonction de répartition
de W . Possède-t-elle une densité?
b) Calculer ϕW (t) = E(eitW ) et étudier l’existence des moments de la variable W .
Exercice II.
Soient (Ω,A,P) un espace de probabilité et {An : n > 1} une suite d’événements.
1) Montrer que si Bn := ∪m>n Am , la suite d’événements {Bn : n > 1} est décroissante et
converge, lorsque n → ∞, vers l’événement { ∞
P
m=1 Am = ∞}.
1l
P
2) Supposons que la série n>1 P(An ) est convergente. Calculer limn→∞ P(Bn ).
3) En utilisant les points précédents, vérifier l’implication
∞
X ∞
X
P(An ) < ∞ =⇒ 1lAn < ∞ p.s.
n=1 n=1
Exercice III.
Soient X et Y deux variables aléatoires réelles admettant des moments d’ordre deux, centrées,
réduites, de covariance ρ.
1) Montrer que |ρ| 6 1. A quelle condition sur X et Y a-t-on l’égalité dans cette inégalité?
2) Justifier que max{X 2 ,Y 2 } est une variable aléatoire. Pourquoi est-elle intégrable?
p
3) Montrer que E max{X 2 ,Y 2 } 6 1 + 1 − ρ2 (on remarquera que max{u,v} = 12 (u +
v + |u − v|) ).
121
Exercice IV.
1) Soit le vecteur aléatoire (X,Y ) de fonction de répartition F (s,t) = P(X 6 s,Y 6 t).
Soient les réels a < b, c < d et on considère les événements A = {a < X 6 b,Y 6 d} et
B = {X 6 b,c < Y 6 d}.
a) Exprimer les probabilités P(A), P(B) et P(A ∪ B) à l’aide de la fonction F (on
pourra faire un dessin).
b) En déduire P(A ∩ B) et montrer que
a) Montrer qu’il existe un couple aléatoire (X,Y ) ayant pour fonction de répartition
F (on pourra dériver F , sur le domaine où elle est dérivable et voir si on peut
obtenir une densité de probabilité).
b) Trouver, lorsqu’elles existent, fX , fY . Que peut-on remarquer?
c) En utilisant des résultats sur deux lois remarquables, calculer ϕX et ϕY . En déduire
(quand ces quantités existent) E(X), E(Y ) et Var(X), Var(Y ).
d) Quelles sont les lois de X/2, Y /2 et 2/Y ?
122 CHAPITRE 5. SUJETS D’EXAMENS 2001-2003
Sujet d’examen
Licence de Mathématiques - Probabilités
lundi 10 juin 2002 - durée 3 heures - calculatrice interdite
documents (cours manuscrit ou polycopié) autorisés
Exercice I.
Soient X1 ,X2 ,X3 ,X4 quatre variables aléatoires réelles indépendantes de même loi N (0,1).
1. Déterminer la fonction caractéristique de X1 X4 .
X1 X2
2. Trouver la fonction caractéristique et loi de la variable aléatoire D = det .
X3 X4
3. En déduire la loi de la variable |D|.
Exercice II.
Soient X et Y deux variables aléatoires réelles indépendantes de même loi, centrées et
réduites. On notera ϕ la fonction caractéristique commune.
1. Supposons que la loi commune est N (0,1). Montrer que X+Y √
2
∼X ∼Y.
2. On ne suppose plus connue la loi commune mais seulement X+Y √
2
∼X ∼Y.
√
a) Montrer que ϕ2 (t/ 2) = ϕ(t). Que vaut ϕ4 (t/2)?
b) En déduire que si X1 ,X2 ,X3 ,X4 sont quatre variables aléatoires indépendantes de
X1 + X2 + X3 + X4
même loi que X et Y , alors ∼ X1 ∼ X2 ∼ X3 ∼ X4 .
2
c) Soit (Xn )n>1 une suite de variables aléatoires indépendantes et√ de même loi que
X et Y . On note Sn = X1 + . . . + Xn . Quelle est la loi de S2n / 2n ?
d) En utilisant un résultat important de convergence en loi, énoncer et prouver la
phrase réciproque de 1.
Exercice III.
Supposons que les variables (Xn )n>1 sont indépendantes de loi U]−1,1[ .
1. Montrer que n1 ni=1 Xi2 → 31 en probabilité quand n → ∞.
P
2. On note X le vecteur aléatoire (X1 , . . . ,Xn ) et kXk(n) sa norme euclidienne ( ni=1 Xi2 )1/2 .
P
√
Que vaut la limite en probabilité de kXk(n) / n ?
q q
1 kxk(n)
3. Pour ε > 0 on note Cn,ε la couronne {x ∈ R : 3 − ε <n √
n
< 13 + ε} et soit Dn
le cube {x ∈ Rn : max16i6n |xi | < 1}. Montrer que
1
lim λn (Cn,ε ∩ Dn ) = 1,
n→∞ 2n
Exercice IV.
Soit (Xi )i>1 une suite de variables aléatoires à valeurs dans N, indépendantes,P
de même loi
et de fonction génératrice commune : G(s) = E(s ), |s| 6 1, i > 1. On pose Tn = ni=1 Xi . On
X i
considère N une autre variable aléatoire à valeurs dans N, indépendante de la suite (Xi )i>1 ,
123
ayant la fonction génératrice GN (s) = E(sN ). On note TN la variable aléatoire définie par
PN (ω)
TN (ω) := i=1 Xi (ω).
1. Montrer que la fonction génératrice de TN est donnée par
2. En déduire que E(TN ) = E(N )E(X1 ) et Var(TN ) = Var(N )[E(X1 )]2 + E(N )Var(X1 ).
3. Le nombre d’accidents de moto en un an sur une portion de route est une variable
aléatoire de Poisson de paramètre θ > 0. A chaque accident, le motocycliste est blessé
avec une probabilité p ∈]0,1[ (et sort indemne avec une probabilité 1 − p). Tous ces
phénomènes aléatoires sont indépendants les uns des autres. Trouver la loi du nombre
de motocyclistes blessés en un an et aussi le nombre moyen.
Exercice V.
X X
On note Z = |Y | et Zn = 1
+|Y |
, n > 1, où X ∼ Y ∼ N (0,1) indépendantes.
n
1. Montrer que Z est définie presque sûrement et que limn→∞ Zn = Z presque sûrement.
/ L1 et que Zn ∈ L1 pour tout n > 1. Calculer E(Zn ).
2. Vérifier que Z ∈
3. Montrer que Zn ne converge pas vers Z dans L1 quand n → ∞.
La suite (Zn )n>1 est-elle uniformément intégrable?
4. Prouver que Z est une variable aléatoire de loi de Cauchy.
124 CHAPITRE 5. SUJETS D’EXAMENS 2001-2003
Exercice I.
Soient X et Y deux variables aléatoires indépendantes à valeurs dans N∗ et de même loi
donnée par la suite pn = 2−n , n = 1,2, . . ..
1) Identifier la loi commune et calculer sa fonction caractéristique. Calculer pour tout t
réel, P(X > t). Quelle est la loi de min{X,Y }?
2) Calculer P(X > kY ) pour un entier positif donné k. Que vaut P(X > Y )?
3) Calculer P(X = rY ) pour une rationnel positif r. Que valent P(X = Y ), P(X > Y ) et
P(X < Y )?
4) Calculer P(X divise Y ).
Exercice II.
Soit ρ une constante vérifiant −1 < ρ < 1. (X,Y ) est un couple aléatoire de densité f : R2 →
R:
1 1 2 2
fX,Y (x,y) = exp − (x − 2ρxy + y ) .
2(1 − ρ2 )
p
2π 1 − ρ2
1) Montrer que les variables X et Y ont la même loi et que le coefficient de corrélation
entre X et Y est ρ.
2) Calculer le produit des densités marginales fX et fY . En déduire une condition nécessaire
et suffisante qui porte sur ρ pour que les variables
p X et Y soient indépendantes.
3) Montrer que les variables X et Z = (Y − ρX)/ 1 − ρ2 sont p indépendantes1 de même
loi N (0,1). En déduire P(X > 0,Y > 0) = 14 + 2π 1
arctan(ρ/ 1 − ρ2 ) = 41 + 2π arcsin ρ.
4) Supposons que les variables X et Y sont non-corrélées. Calculer de deux façons la
probabilité P(X > 0,Y > 0).
Exercice III.
La probabilité qu’une pièce montre pile lors d’un lancer est p ∈]0,1[. On lance cette pièce
n ∈ N∗ fois et on note respectivement P et F les nombres de piles et de faces obtenus lors de
ces lancers.
1) On fixe le nombre de lancers. Montrer que P ∼ B(n,p). Que vaut P + F ? Calculer
GP,F (s,t) := E sP tF . En déduire les fonctions génératrices GP (s) et GF (t). Calculer
4) On suppose enfin que p = nλ (0 < λ < n). Montrer alors que Pn converge en loi, lorsque
n → ∞, vers une variable aléatoire
de
loi de Poisson de paramètre λ. Calculer par deux
1
méthodes la limite limn→∞ E 1+Pn .
125
1
X = 1l{V 6g(U )} , Y = g(U ) et Z = [g(U ) + g(1 − U )].
2
Montrer que E(X) = E(Y ) = E(Z) = I et que Var(X) > Var(Y ) > Var(Z).
N N
6 2kf k∞ P(| − p| > ε) + %(ε; f )P(| − p| < ε).
n n
On a noté ici par %(ε; f ) := sup{|f (t) − f (s)| : 0 6 s < t 6 1 avec t − s < ε} le module
de continuité de f .
6) Appliquer l’inégalité de Tchebytchev pour montrer que pour tout p ∈ [0,1] et tout ε > 0,
kf k∞
|f (p) − Bn (p)| 6 + %(ε; f ).
2nε2
(On pourra justifier et utiliser l’inégalité p(1 − p) 6 14 .)
7) En déduire que limn→∞ kf − Bn k∞ = 0. (On justifiera soigneusement les passages à la
limite.) Quel résultat d’approximation concernant des fonctions continues a-t-on obtenu?
127
Sujet d’examen
Licence de Mathématiques - Probabilités
mercredi 4 juin 2003 - durée 3 heures - calculatrice interdite
documents (cours manuscrit ou polycopié) autorisés
Exercice I. Soient a,b > 0 et on désigne par Za et Zb deux variables aléatoires indépendantes
de lois γ(a,1) et γ(b,1) respectivement.
1) Trouver la densité du vecteur (U,V ) := Za + Zb , ZaZ+Z
a
b
.
2) Les variables U,V sont-elles indépendantes? Montrer que leurs lois sont deux lois remarquables.
3) On suppose dans cette question que a = b = 12 . Montrer que 1/V a la même loi que la
variable aléatoire 1 + C 2 , où C suit une loi de Cauchy. On pourra d’abord montrer que
pour toute fonction borélienne positive g, E[g(1/V )] = E[g(1 + C 2 )] et ensuite conclure.
Exercice II. Soit (X,Y ) un couple aléatoire tel que sa fonction caractéristique E[eisX+itY ]
est donnée par ϕX,Y (s,t) = exp[α(eis − 1) + β(eit − 1) + γ(ei(s+t) − 1)], avec α,β > 0 et γ > 0.
1) Déduire les fonctions caractéristiques des variables marginales X et Y , mais aussi celle
de la variable aléatoire X + Y .
2) Montrer que si γ = 0 alors les variables X et Y sont indépendantes. La réciproque
est-elle vraie?
3) On continue de supposer que γ = 0. Calculer P(X = k | X + Y = n), pour n ∈ N∗ et
k ∈ {0, . . . ,n}. Montrer que la loi conditionnelle de X sachant {X + Y = n} est une loi
binomiale dont on indiquera les paramètres.
4) On suppose que γ p = 1. Trouver la fonction caractéristique de la variable aléatoire
Zα := (X − E(X))/ Var(X). Peut-on indiquer la limite en loi de Zα lorsque α → ∞?
On pourra utiliser le développement limité à l’ordre deux de eix au voisinage de x = 0.
Exercice III. Soit {Xn : n > 1} une suite de variables aléatoires indépendantes identiquement
distribuées de loi de densité fλ (x) = eλ−x 1l[λ,∞[ (x), avec λ > 0.
1) Trouver l’espérance et la variance communes des variables Xn .
2) Calculer la limite `1 de la suite n1 ni=1 Xi et la limite `2 de la suite n1 ni=1 Xi2 , lorsque
P P
n → ∞, et préciser quels types de convergences ont lieu. On prendra dans la suite les
convergences au sens le plus fort.
2
3) Que vaut la limite de n1 ni=1 Xi ? On justifiera le résultat.
P
P
4) Combien de termes y a-t-il dans la somme 16i<j6n Xi Xj ? Calculer E(Xi Xj ) pour
i < j. Peut-on appliquer la loi forte des grands nombres pour calculer la limite de la
1 P
suite C2 16i<j6n Xi Xj , lorsque n → ∞?
n
n
!2 n
1 X n 1X 1 X
5) Vérifier que 2 Xi Xj = Xi − Xi2 .
Cn n−1 n n(n − 1)
16i<j6n i=1 i=1
6) Utiliser le résultat précédent pour calculer la limite de la suite C12 16i<j6n Xi Xj ,
P
n
lorsque n → ∞. On justifiera soigneusement les passages à la limite dans les opérations
avec des suites de variables aléatoires.
128 CHAPITRE 5. SUJETS D’EXAMENS 2001-2003
Exercice IV. Soient X et Y deux variables aléatoires à valeurs dans {0,1}. On note a =
P(X = 0,Y = 0), b = P(X = 0,Y = 1), c = P(X = 1,Y = 0) et d = P(X = 1,Y = 1), avec
a + b + c + d = 1.
1) Trouver une condition nécessaire et suffisante pour que X et Y soient non-corrélées.
2) Trouver une condition nécessaire et suffisante pour que X et Y soient indépendantes.
Montrer qu’une seule relation (sur les quatre) suffit pour exprimer la condition. On
pourra d’abord vérifier que si une relation a lieu, alors ad = bc. Comparer avec le
résultat du point précédent.
3) On suppose que a = b = c = d = 14 . Quelles sont les lois des variables X et Y ? Sont-elles
indépendantes?
4) On continue de supposer que a = b = c = d = 14 . Calculer P(X +Y = 0), P(|X −Y | = 0)
et P(X + Y = 0,|X − Y | = 0). Que peut-on déduire? Les variables aléatoires X + Y et
|X − Y | sont-elles non-corrélées?
129
Exercice I. Soit X une variable aléatoire discrète ayant ses valeurs dans N∗ . Montrer que
∞
X
E(X) = P(X > n).
n=0
Application: Une urne contient b boules bleues et r boules rouges. On effectue des tirages au
hasard en enlèvant chaque fois la boule tirée, jusqu’à ce qu’on tire la première boule bleue.
Montrer que le nombre moyen de tirages est (b + r + 1)/(b + 1).
r
X
b b+1
On pourra utiliser l’égalité combinatoire suivante: Cn+b = Cr+b+1 .
n=0
Exercice II. Trouver la densité de la variable aléatoire Z = X +Y , lorsque le couple aléatoire
√
(X,Y ) est de densité f (x,y) = 3√12π x + y e−(x+y)/2 , x,y > 0. Z a-t-elle une loi remarquable?
Exercice IV. Soient X et Y deux variables aléatoires indépendantes à densité. À une fonction
borélienne positive Ψ : R2 → [0,∞[, on associe
ψ1 (x) = E[Ψ(x,Y )] et ψ2 (y) = E[Ψ(X,y)], x ∈ R, y ∈ R.
Vérifier la double égalité: E[Ψ(X,Y )] = E[ψ1 (X)] = E[ψ2 (Y )].
Application: On suppose que les variables indépendantes sont telles que X ∼ E(λ) et Y ∼
E(µ), λ,µ > 0. Calculer P(X 6 Y ). Que vaut P(X = Y )?
Exercice V. Sur l’espace de probabilité ([0,1],B([0,1]),λ), où λ est la mesure de Lebesgue sur
[0,1], on considère la variable aléatoire U (ω) = ω − 1.
1) Trouver la fonction de répartition de U . Cette variable est-elle à densité? discrète?
2) Montrer que pour tout entier p > 1, U ∈ Lp et calculer les moments µp d’ordre p de U .
3) Soit {Un : n > 1} une suite de variables aléatoires indépendantes de même loi que U et
on pose
U 3 + . . . + Un3
Tn = 12 , n > 1.
U1 + . . . + Un2
Montrer que la suite de variables aléatoires {Tn : n > 1} converge presque sûrement
U 3 +...+U 3
vers une constante que l’on évaluera. On pourra étudier les deux suites Xn = 1 n n
U 2 +...+U 2
et Yn = 1 n n . Justifier soigneusement les passages à la limite.
√
4) Que vaut la limite en loi de la suite Zn = n(Xn + 41 ). On pourra utiliser un résultat
remarquable de convergence en loi.
130 CHAPITRE 5. SUJETS D’EXAMENS 2001-2003
BIBLIOGRAPHIE 131
Bibliographie