Cours PAAM2 MMTD
Cours PAAM2 MMTD
Cours PAAM2 MMTD
Cours : PAA
Espérance conditionnelle
1 Généralités
Rappelons quelques notions de base de théorie de la mesure et de probabilités.
—— Soit Ω un ensemble non vide contenant tous les aléas possibles. Une famille F de
parties de Ω est une tribu (ou σ-algèbre) si elle vérifie :
1. Ω ∈ F ;
2. A ∈ F ⇒ Ac ∈ F (stabilité par passage au complémentaire) ;
S
3. A0 , A1 , A2 , . . . ∈ F ⇒ n≥0 An ∈ F (une réunion dénombrable d’éléments de F
est dans F).
On dit que (Ω, F) forme un espace mesurable.
# On notera qu’une tribu F est un ensemble de parties. Ces parties sont appelées ”événements”.
µ : F → [0, +∞[,
—— Si µ(Ω) = 1, on dit que c’est une mesure de probabilité, qu’on notera souvent P.
1
—— Si (E, E) est un autre espace mesurable, une application
f :Ω→E
f −1 (A) ∈ F ∀A ∈ E.
—— Notons par B la tribu des boréliens. Toute fonction continue f : (R, B) → (R, B) est
mesurable.
♣ D’une manière générale, toute fonction (R, B) → (R, B) définie par une formule
est mesurable.
—— Une variable aléatoire à valeurs dans (E, E) sur un espace probabilisé (Ω, F, P) est
une application F-E-mesurable X : Ω → E.
P X −1 : E → [0, 1]
A 7→ P r {X −1 (A)} = P r{X ∈ A}.
2
2 Sous-tribus & Filtrations
Soit (Ω, F) un espace mesurable. Une sous-tribu de F est une sous-famille G ⊂ F qui
est également une tribu. On dit parfois que la tribu G est plus grossière que la tribu F, et
que F est plus fine que G.
# On notera que si X est une variable aléatoire réelle, on a l’implication :
X ⊆ G ⇒ X ⊆ F.
♣ Une fonction non mesurable peut donc être rendue mesurable en choisissant une tribu
plus fine.
F0 = {∅, Ω}.
Exemple 2.2. Soit X une variable aléatoire à valeurs dans un espace mesurable (E, E).
Ainsi
σ(X) := {X −1 (A) : A ∈ E},
où
X −1 (A) := {ω ∈ Ω : X(ω) ∈ A},
est une sous-tribu de F. C’est la plus petite sous-tribu de F par rapport à laquelle X soit
mesurable.
—— Soit une tribu G de Ω telle que X : (Ω, G) → (R, B(R)) est mesurable. On a, pour
tout y ∈ R, X −1 ({y}) ∈ G. Donc G contient {1, 2}, {3} et {4, 5}. Ainsi, la tribu
engendrée par X est σ(X) =< {1, 2}, {3}, {4, 5} >.
3
Définition 2.1. Soit (Ω, F, P) un espace probabilisé. Une filtration de (Ω, F, P) est une
suite croissante de sous-tribus :
F0 ⊂ F1 ⊂ . . . ⊂ Fn ⊂ . . . ⊂ F.
On dit alors que (Ω, F, {Fn }, P) est un espace probabilisé filtré.
Définition 2.2. Soit {Xn }n∈N un processus stochastique sur (Ω, F, P). On dit que le
processus {Xn }n∈N est adapté à la filtration {Fn } si Xn est mesurable par rapport à Fn
pour tout n.
3 Espérance conditionnelle
Étant donné un espace probabilisé (Ω, F, P) et une sous-tribu G ⊂ F.
Nous avons déjà vu que G représente une information partielle sur l’espace, obtenue par
exemple en observant une variable aléatoire Y . L’espérance conditionnelle d’une variable
aléatoire X par rapport à G représente la meilleure estimation que l’on puisse faire de la
valeur de X à l’aide de l’information contenue dans G.
Définition 3.1. Soit X une variable aléatoire réelle sur (Ω, F, P) telle que E [|X|] < ∞.
On appelle espérance conditionnelle de X sachant G, et on note E [X|G], toute variable
aléatoire Y satisfaisant les deux conditions suivantes :
1. Y ⊆ G, c-à-d Y est G-mesurable ;
2. Pour tout A ∈ G, on a : Z Z
XdP = Y dP.
A
A
♣ En fait, toute variable aléatoire Y satisfaisant la definition 3.1 est appelée une version
de E [X|G].
Attention! L’espérance conditionnelle est unique dans le sens que si Y1 et Y2 sont deux
versions de E [X|G], alors Y1 = Y2 presque sûrement.
# Si Z est une variable aléatoire réelle sur (Ω, F, P), nous abrégeons E [X|σ(Z)] par
E [X|Z]. Il faut noter qu’en général l’espérance conditionnelle E [X|Z] est une
variable aléatoire et non un nombre. On peut l’interpréter comme la valeur
moyenne prise par X lorsque l’on connaı̂t Z. Elle pourra donc s’écrire comme une
fonction de Z.
4
Il est dès lors naturel de vouloir définir dans le cas discret l’espérance conditionnelle de
X sous la condition Y = y, pour autant que pY (y) > 0, par :
X X
E[X | Y = y] = x P r{X = x | Y = y} = x pX|Y (x|y).
x x
♣ L’espérance conditionnelle E[X|Y ] est la variable aléatoire qui prend les valeurs E[X | Y =
y] avec les probabilités pY (y). On peut l’interpréter comme la valeur moyenne prise
par X lorsque l’on connaı̂t Y . Elle pourra donc s’écrire comme une fonction de Y .
Exemple 3.1. On considère deux variables aléatoires binomiales X et Y , indépendantes
et de mêmes paramètres n et p. On veut calculer l’espérance conditionnelle de X sachant
que X + Y = m.
—— Déterminons d’abord la loi de probabilité conditionnelle de X sachant que X + Y =
m. Pour k ≤ min(n, m), on a :
P r{X = k, X + Y = m}
P r{X = k|X + Y = m} =
P r{X + Y = m}
P r{X = k, Y = m − k}
=
P r{X + Y = m}
P r{X = k} P r{Y = m − k}
=
P r{X + Y = m}
Cnk pk (1 − p)n−k Cnm−k pm−k (1 − p)n−m+k
= m m
C2n p (1 − p)2n−m
Cnk Cnm−k
= m
,
C2n
où l’on a utilisé le fait que X + Y est une variable aléatoire de paramètres 2n et
p. On conclut que la distribution conditionnelle de X sachant que X + Y = m, est
hypergéométrique. Ainsi, on aura :
m
E[X | X + Y = m] = .
2
5
pour les valeurs de y telles que fY (y) > 0.
♣ L’espérance conditionnelle E[X|Y ] est la variable aléatoire qui prend les valeurs E[X | Y =
y] avec la densité fY (y).
Exemple 3.2. Supposons que la densité conjointe de X et Y soit :
1 −x/y −y
f (x, y) = e e 0 < x ≤ ∞, 0 < y < ∞.
y
On souhaite calculer E[X | Y = y].
et " #
n
X n
X
E Xi |Y = y = E [Xi |Y = y] .
i=1 i=1
6
3.4 Calcul d’espérances par conditionnement
Le théorème suivant énonce une propriété fondamentale de l’espérance conditionnelle.
Exemple 3.3. Soit Y ∼ P(α) et Z ∼ P(β) deux variables aléatoires de Poisson indépendantes.
On considère leur somme X = Y + Z, qui est elle même une variable aléatoire. On rappelle
que Y suit une loi de Poisson de paramètre α si Y est à valeurs dans N, avec :
−α αn
∀n ∈ N P r{Y = n} = e .
n!
7
—— Déterminer la loi de X ?
La variable aléatoire X est à valeurs dans N en tant que somme de variables aléatoires
à valeurs dans N. Soit n ∈ N fixé, alors :
( n )
[
P r{X = n} = P r{Y + Z = n} = P r {Y = k, Z = n − k}
k=0
n
X
= P r {Y = k, Z = n − k} .
k=0
P r{Y = k, X = n} P r{Y = k, Z = n − k}
P r{Y = k|X = n} = =
P r{X = n} P r{X = n}
β k n−k
P r{Y = k} P r{Z = n − k} e−α αk! e−β (n−k)!
= = n
P r{X = n} e−(α+β) (α+β)
n!
k n−k
k α β
= Cn .
α+β α+β
α
Ainsi, sachant X = n, Y suit une loi binômiale B n, α+β .
8
Puisque ceci est vrai pour tout n ≥ 0, l’espérance conditionnelle de Y sachant X est :
αX
E[Y |X] = ,
α+β
qui est bien une fonction de X, donc une variable aléatoire, et non un nombre.
On en déduit que :
pX (x) pY (y)
∀x, ∀y pY |X (y|x) = = pY (y),
pX (x)
donc pour tout x :
X X
E[Y |X = x] = y pY |X (y|x) = y pY (y) = E[Y ],
y y
9
♣ En général, si on suppose que X est indépendante de G. % Cela signifie que si pour tout
A ∈ G et tout borélien B ⊂ R, P r{{X ∈ B} ∩ A} = P r{X ∈ B} P r{A}.% Dans
ce cas, on a E[X|G] = E[X], c-à-d qu’en l’absence de toute information, la meilleure
estimation que l’on puisse faire de X est son espérance.
# En particulier, on notera que toute variable aléatoire est indépendante de la tribu triviale
F0 , et que par conséquent on aura toujours : E[X|F0 ] = E[X].
ϕ(E[X|G]) ≤ E[ϕ(X)|G].
10
4 Applications
4.1 Probabilités conditionnelles
Soit A un événement qui s’exprime en fonction de X et Y , par exemple :
D’où il vient :
Z∞
λ
P r{X < Y } = λ e−(λ+µ)x dx = .
λ+µ
0
11
4.2 Espérance conditionnelle et régression
Théorème 4.2. Si E [Y 2 ] < ∞. Parmi toutes les fonctions u : R → R, l’erreur d’ap-
proximation E [(Y − u(X))2 ] est minimale lorsque u est la fonction de régression x 7→
E [Y |X = x], c-à-d lorsque u(X) = E [Y |X].
Démonstration. Notons m(X) = E [Y |X], alors pour toute fonction u : R → R, on peut
écrire :
On a donc obtenu :
5 Exercices
Exercice 5.1. Soient X et Y deux variables aléatoires indépendantes, de loi N (0, 1).
1. Soit λ ∈ R. Calculer :
E eλX .
12
2
x2 λ2
Solution 5.1. 1. En écrivant λx − 2
= − (x−λ)
2
+ 2
, et en posant u = x − λ, on a :
Z −x2 /2
λx e
E eλX =
e √
dx
R 2π
Z −(x−λ)2 /2
λ2 /2 e
= e √ dx
R 2π
Z −u2 /2
λ2 /2 e
= e √ du
R 2π
| {z }
=1
λ2 /2
= e .
car la dernière intégrale est celle de la densité de la loi N (0, 1), qui vaut 1.
1 Y
2. En utilisant la linéarité de l’espérance conditionnelle, puis le fait que 1+Y et 1+Y
sont
2
σ(Y )-mesurable et que X est indépendante de Y , on a :
2
X2
X +Y Y
E |Y = E |Y + E |Y
1+Y 1+Y 1+Y
1 Y
E X 2 |Y +
=
1+Y 1+Y
1 2 Y
= E X +
1+Y | {z } 1+Y
=Var(X)+(E[X])2 =Var(X)=1
1 Y
= +
1+Y 1+Y
= 1.
Pour la deuxième, on a :
E Y eXY |Y = Y E eXY |Y ,
Ainsi, il vient :
2
E Y eXY |Y = Y eY /2 .
13
1. Calculer la densité de Y , puis la densité de la loi conditionnelle de X sachant Y .
2 Calculer E[X|Y ].
3. Si Y < 1. Calculer P r{X < 1|Y } (c-à-d E 1I{X<1} |Y ).
14
Exercice 5.3. Un enfant est prisonnier dans un puits d’où partent trois tunnels. Le pre-
mier de ces tunnels le mènerait à la sortie au bout de 3 heures de marche. Le second le
ramènerait à un point de départ au bout de 5 heures de marche, ainsi que le troisième au
bout de 7 heures. Si à chaque choix qu’il fait l’enfant emprunte n’importe quel tunnel avec
la même probabilité, quelle sera la durée moyenne de sa tentative de sortie ?
E[X|Y = 1] = 3
E[X|Y = 2] = 5 + E[X] (2)
E[X|Y = 3] = 7 + E[X].
Pour comprendre les équations (2), voyons par exemple le cas E[X|Y = 2]. Si l’enfant
emprunte le deuxième tunnel, il y passera 5 heures puis reviendra à son départ. Une fois
là, le problème est exactement le même qu’à l’origine. À ce niveau, la durée moyenne de
sa recherche est E[X]. C’est pourquoi E[X|Y = 2] = 5 + E[X]. Les arguments à la base de
la dernière équation sont semblables. On a donc finalement :
1
E[X] = (3 + 5 + E[X] + 7 + E[X]) .
3
Ainsi E[X] = 15.
Exercice 5.4. Le nombre de clients se rendant à un grand magasin donné dans l’espace
d’une journée est une variable aléatoire d’espérance 500. La somme dépensée par chacun
des clients quotidiens du magasin est aussi une variable aléatoire d’espérance 800 D.A.
On admet que les dépenses d’un client ne dépendent ni de celles des autres clients ni du
nombre total de clients pour la journée. Quelle est l’espérance du chiffre d’affaires quotidien
du magasin ?
Solution 5.4. Le nombre de clients par jour est noté N , tandisP que le montant dépensé
par client i est Xi . Le chiffre d’affaires du magasin est donc Ni=1 Xi . Or :
" N # " " N ##
X X
E Xi = E E Xi |N .
i=1 i=1
15
Ainsi
" N
# " n
#
X X
E Xi |N = n = E Xi |N = n
i=1
" i=1
n
#
X
= E Xi du fait de l’indépendance des Xi et de N,
i=1
= nE [X] ,
où l’on ahdésigné pariE [X] l’espérance commune à tous les Xi . Dès lors, la variable aléatoire
PN
notée E i=1 Xi |N a pour expression ici :
" N
#
X
E Xi |N = N E [X] ,
i=1
Ainsi, le chiffre d’affaires moyen du magasin est donc 500 × 800 = 400000 D.A. par jour !
6 TD
Exercice 6.1. 1. On considère l’ensemble à trois éléments Ω = {a, b, c}. Déterminer la
tribu engendrée par la partie {a, b}.
Exercice 6.2. Soient X une variable aléatoire intégrable définie sur un espace probabilisé
(Ω, F, P), et G une sous-tribu de F. Compléter les égalités suivantes :
1. E [E [X|G]] =
2. Si X et G sont indépendantes, E [X|G] =
3. Si Y est une variable aléatoire G-mesurable et si X Y et X sont intégrables, E [Y X|G] =
4. Pour toute variable aléatoire Z G-mesurable et bornée, E [ZE [X|G]] =
E [X1 |X1 + X2 + . . . + Xn ] .
16
Exercice 6.4. Soit X une variable aléatoire de carré-intégrable. On pose :
Montrer que :
Var [X] = E [Var [X|F]] + Var [E [X|F]] .
Exercice 6.5. Dans une expérience consistant à jeter deux tétraèdres parfaitement symétriques,
dont les faces sont numérotées de 1 à 4. On considère les variables aléatoires X, égale à
la somme des points, et Y , égale à leur différence en valeur absolue.
1. Spécifier un espace probabilisé permettant de décrire cette expérience.
2. Déterminer la loi conjointe de X et Y ainsi que leurs espérances.
3. Calculer E [X|Y ] et E [Y |X].
Références
[1] Dominique Foata et Aimé Fuchs. Calcul des Probabilités. Dunod, 1998.
[2] Dominique Foata et Aimé Fuchs. Processus Stochastiques. Dunod, 2002.
[3] Michel Benaı̈m et Nicole El Karoui. Promenade Aléatoire. Editions de l’Ecole Poly-
technique, 2004.
[4] Sheldon M. Ross. Initiation aux Probabilités. Presses Polytechniques et Universitaires
Romandes, 1987.
17