0% ont trouvé ce document utile (0 vote)
13 vues17 pages

Cours PAAM2 MMTD

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 17

Université A.

Mira - Béjaı̈a décembre 2020


Département de RO – M1 : MF
Pr Karim Abbas
E-mail : [email protected]

Cours : PAA

Espérance conditionnelle

1 Généralités
Rappelons quelques notions de base de théorie de la mesure et de probabilités.

—— Soit Ω un ensemble non vide contenant tous les aléas possibles. Une famille F de
parties de Ω est une tribu (ou σ-algèbre) si elle vérifie :
1. Ω ∈ F ;
2. A ∈ F ⇒ Ac ∈ F (stabilité par passage au complémentaire) ;
S
3. A0 , A1 , A2 , . . . ∈ F ⇒ n≥0 An ∈ F (une réunion dénombrable d’éléments de F
est dans F).
On dit que (Ω, F) forme un espace mesurable.

# On notera qu’une tribu F est un ensemble de parties. Ces parties sont appelées ”événements”.

—— Une mesure sur (Ω, F) est une application

µ : F → [0, +∞[,

telle que µ(∅) = 0 et satisfaisant :



! ∞
[ X
µ An = µ(An ),
n=1 n=1

pour toute famille {An } d’éléments deux à deux disjoints de F (σ-additivité).

—— Si µ(Ω) = 1, on dit que c’est une mesure de probabilité, qu’on notera souvent P.

—— Le triplet (Ω, F, P) est appelé un espace probabilisé.

1
—— Si (E, E) est un autre espace mesurable, une application

f :Ω→E

est dite F-E-mesurable si elle satisfait :

f −1 (A) ∈ F ∀A ∈ E.

—— Notons par B la tribu des boréliens. Toute fonction continue f : (R, B) → (R, B) est
mesurable.

—— Si f et g sont des fonctions mesurables (Ω, F) → (R, B), alors f + g, f × g et f /g


sont mesurables.
0 0 0 0 00 00
—— Si f : (Ω, F) → (Ω , F ) est mesurable et g : (Ω , F ) → (Ω , F ) est mesurable,
00 00
alors g ◦ f : (Ω, F) → (Ω , F ) est mesurable.

♣ D’une manière générale, toute fonction (R, B) → (R, B) définie par une formule
est mesurable.

—— Une variable aléatoire à valeurs dans (E, E) sur un espace probabilisé (Ω, F, P) est
une application F-E-mesurable X : Ω → E.

—— En général, on prend E = R, avec E est la tribu des boréliens B. Dans ce cas, on


dira simplement que X est F-mesurable, et on écrira X ⊆ F.

—— La loi d’une variable aléatoire X à valeurs dans (E, E) est l’application :

P X −1 : E → [0, 1]
A 7→ P r {X −1 (A)} = P r{X ∈ A}.

—— L’espérance d’une variable aléatoire X est définie comme l’intégrale de Lebesgue :


Z
E[X] = XdP.

# Rappelons que cette


P intégrale est définie en approchant X par une suite de fonctions
étagées Xn = ai 1IAi , pour lesquelles
i
Z X
Xn dP = ai P(Ai ).
Ω i

2
2 Sous-tribus & Filtrations
Soit (Ω, F) un espace mesurable. Une sous-tribu de F est une sous-famille G ⊂ F qui
est également une tribu. On dit parfois que la tribu G est plus grossière que la tribu F, et
que F est plus fine que G.
# On notera que si X est une variable aléatoire réelle, on a l’implication :

X ⊆ G ⇒ X ⊆ F.

♣ Une fonction non mesurable peut donc être rendue mesurable en choisissant une tribu
plus fine.

Exemple 2.1. La plus petite sous-tribu de F est la tribu triviale :

F0 = {∅, Ω}.

# On remarquera que si X est mesurable par rapport à F0 , alors X −1 (y) % la préimage


d’un point y % doit être égal soit à Ω tout entier, soit à ∅. Ce qui implique que X
doit être constante.
♣ Les variables aléatoires mesurables par rapport à la tribu triviale sont les fonctions
constantes.

Exemple 2.2. Soit X une variable aléatoire à valeurs dans un espace mesurable (E, E).
Ainsi
σ(X) := {X −1 (A) : A ∈ E},
où
X −1 (A) := {ω ∈ Ω : X(ω) ∈ A},
est une sous-tribu de F. C’est la plus petite sous-tribu de F par rapport à laquelle X soit
mesurable.

♣ L’exemple ci-dessus donne une interprétation importante de la notion de sous-tribu. En


effet, σ(X) représente l’ensemble des événements qu’on est potentiellement capable
de distinguer en mesurant la variable X. Autrement dit, σ(X) est l’information que
X peut fournir sur l’espace probabilisé.

Exercice 2.1. Soit Ω = {1, . . . , 5} muni de la tribu F = P(Ω). Soit X : Ω → R définie


par X(1) = X(2) = 0, X(3) = 1, X(4) = X(5) = 2. Donner la tribu σ(X) engendrée par
X.

—— Soit une tribu G de Ω telle que X : (Ω, G) → (R, B(R)) est mesurable. On a, pour
tout y ∈ R, X −1 ({y}) ∈ G. Donc G contient {1, 2}, {3} et {4, 5}. Ainsi, la tribu
engendrée par X est σ(X) =< {1, 2}, {3}, {4, 5} >.

3
Définition 2.1. Soit (Ω, F, P) un espace probabilisé. Une filtration de (Ω, F, P) est une
suite croissante de sous-tribus :
F0 ⊂ F1 ⊂ . . . ⊂ Fn ⊂ . . . ⊂ F.
On dit alors que (Ω, F, {Fn }, P) est un espace probabilisé filtré.
Définition 2.2. Soit {Xn }n∈N un processus stochastique sur (Ω, F, P). On dit que le
processus {Xn }n∈N est adapté à la filtration {Fn } si Xn est mesurable par rapport à Fn
pour tout n.

3 Espérance conditionnelle
Étant donné un espace probabilisé (Ω, F, P) et une sous-tribu G ⊂ F.
Nous avons déjà vu que G représente une information partielle sur l’espace, obtenue par
exemple en observant une variable aléatoire Y . L’espérance conditionnelle d’une variable
aléatoire X par rapport à G représente la meilleure estimation que l’on puisse faire de la
valeur de X à l’aide de l’information contenue dans G.
Définition 3.1. Soit X une variable aléatoire réelle sur (Ω, F, P) telle que E [|X|] < ∞.
On appelle espérance conditionnelle de X sachant G, et on note E [X|G], toute variable
aléatoire Y satisfaisant les deux conditions suivantes :
1. Y ⊆ G, c-à-d Y est G-mesurable ;
2. Pour tout A ∈ G, on a : Z Z
XdP = Y dP.
A
A

♣ En fait, toute variable aléatoire Y satisfaisant la definition 3.1 est appelée une version
de E [X|G].
Attention! L’espérance conditionnelle est unique dans le sens que si Y1 et Y2 sont deux
versions de E [X|G], alors Y1 = Y2 presque sûrement.
# Si Z est une variable aléatoire réelle sur (Ω, F, P), nous abrégeons E [X|σ(Z)] par
E [X|Z]. Il faut noter qu’en général l’espérance conditionnelle E [X|Z] est une
variable aléatoire et non un nombre. On peut l’interpréter comme la valeur
moyenne prise par X lorsque l’on connaı̂t Z. Elle pourra donc s’écrire comme une
fonction de Z.

3.1 Définition du cas discret


On rappelle que, pour un couple de variables aléatoires discrètes, la loi de probabilité
conditionnelle de X, sachant que Y = y, est définie, pour autant que P r{Y = y} > 0, par :
p(x, y)
pX|Y (x|y) = P r{X = x|Y = y} = .
pY (y)

4
Il est dès lors naturel de vouloir définir dans le cas discret l’espérance conditionnelle de
X sous la condition Y = y, pour autant que pY (y) > 0, par :
X X
E[X | Y = y] = x P r{X = x | Y = y} = x pX|Y (x|y).
x x

♣ L’espérance conditionnelle E[X|Y ] est la variable aléatoire qui prend les valeurs E[X | Y =
y] avec les probabilités pY (y). On peut l’interpréter comme la valeur moyenne prise
par X lorsque l’on connaı̂t Y . Elle pourra donc s’écrire comme une fonction de Y .
Exemple 3.1. On considère deux variables aléatoires binomiales X et Y , indépendantes
et de mêmes paramètres n et p. On veut calculer l’espérance conditionnelle de X sachant
que X + Y = m.
—— Déterminons d’abord la loi de probabilité conditionnelle de X sachant que X + Y =
m. Pour k ≤ min(n, m), on a :
P r{X = k, X + Y = m}
P r{X = k|X + Y = m} =
P r{X + Y = m}
P r{X = k, Y = m − k}
=
P r{X + Y = m}
P r{X = k} P r{Y = m − k}
=
P r{X + Y = m}
Cnk pk (1 − p)n−k Cnm−k pm−k (1 − p)n−m+k
= m m
C2n p (1 − p)2n−m
Cnk Cnm−k
= m
,
C2n
où l’on a utilisé le fait que X + Y est une variable aléatoire de paramètres 2n et
p. On conclut que la distribution conditionnelle de X sachant que X + Y = m, est
hypergéométrique. Ainsi, on aura :
m
E[X | X + Y = m] = .
2

3.2 Définition du cas continu


On rappelle aussi que, pour un couple de variables aléatoires X et Y continues de
densité f (., .), la densité conditionnelle de X, sachant que Y = y, est définie, pour autant
que fY (y) > 0, par :
f (x, y)
fX|Y (x|y) = .
fY (y)
Il est donc naturel de définir l’espérance conditionnelle de X, dans le cas continu et
sous la condition Y = y, par :
Z
E[X | Y = y] = x fX|Y (x|y)dx,
Supp(X)

5
pour les valeurs de y telles que fY (y) > 0.
♣ L’espérance conditionnelle E[X|Y ] est la variable aléatoire qui prend les valeurs E[X | Y =
y] avec la densité fY (y).
Exemple 3.2. Supposons que la densité conjointe de X et Y soit :
1 −x/y −y
f (x, y) = e e 0 < x ≤ ∞, 0 < y < ∞.
y
On souhaite calculer E[X | Y = y].

—— Calculons d’abord la densité marginale de la variable aléatoire Y :


Z∞
e−y
Z
x=∞
e−x/y dx = 1I{y>0} e−y −e−x/y x=0 = e−y 1I{y>0} .

fY (y) = f (x, y)dx = 1I{y>0}
y
Supp(X) 0

Ensuite, calculons la densité conditionnelle :


1 −x/y −y
f (x, y) y
e e 1
fX|Y (x|y) = = −y
= e−x/y 1I{x>0} 1I{y>0} .
fY (y) e y
On constate que cette densité conditionnelle de X sachant que Y = y n’est autre que
la densité exponentielle de paramètre 1/y. Donc,
Z∞ Z∞
x −x/y
E[X|Y = y] = x fX|Y (x|y)dx = 1I{y>0} e dx = y1I{y>0} .
y
0 0

3.3 Élargissement du point de vue


On sait que les probabilités conditionnelles satisfont toutes les propriétés des probabi-
lités simples. De la même manière, les espérances conditionnelles ont toutes les propriétés
des espérances ordinaires, en particulier :
 P
 g(x) pX|Y (x|y), dans le cas discret ;
 x

E[g(x)|Y = y] = R


 g(x) fX|Y (x|y)dx, dans le cas continu,
Supp(X)

et " #
n
X n
X
E Xi |Y = y = E [Xi |Y = y] .
i=1 i=1

♣ En fait, l’espérance conditionnelle, sachant que Y = y, peut être considérée comme


espérance ordinaire basée sur un espace probabilisé, réduit aux seuls événements
pour lequel Y = y est vérifiée.

6
3.4 Calcul d’espérances par conditionnement
Le théorème suivant énonce une propriété fondamentale de l’espérance conditionnelle.

Théorème 3.1. Si X et Y sont deux variables aléatoires, alors :

E[X] = E [E[X|Y ]] . (1)

♣ Lorsque Y est une variable discrète, le théorème 3.1 signifie que :


X
E[X] = E[X|Y = y] P r{Y = y},
y

tandis que lorsque Y est continue, (1) entraı̂ne :


Z
E[X] = E[X|Y = y] fY (y)dy.
Supp(Y )

Démonstration. On suppose pour cette démonstration que X et Y sont deux variables


aléatoires discrètes. On doit établir (1). Or le membre de droite de (1) peut être récrit :
X XX
E[X|Y = y] P r{Y = y} = x P r{X = x|Y = y} P r{Y = y}
y x y
X X P r{X = x, Y = y}
= x P r{Y = y}
y x
P r{Y = y}
XX
= x P r{X = x, Y = y}
y x
X X
= x P r{X = x, Y = y}
x y
| {z }
=P r{X=x}
X
= x P r{X = x}
x
= E[X],

ce qui établit le résultat.

Exemple 3.3. Soit Y ∼ P(α) et Z ∼ P(β) deux variables aléatoires de Poisson indépendantes.
On considère leur somme X = Y + Z, qui est elle même une variable aléatoire. On rappelle
que Y suit une loi de Poisson de paramètre α si Y est à valeurs dans N, avec :

−α αn
∀n ∈ N P r{Y = n} = e .
n!

7
—— Déterminer la loi de X ?
La variable aléatoire X est à valeurs dans N en tant que somme de variables aléatoires
à valeurs dans N. Soit n ∈ N fixé, alors :
( n )
[
P r{X = n} = P r{Y + Z = n} = P r {Y = k, Z = n − k}
k=0
n
X
= P r {Y = k, Z = n − k} .
k=0

Or Y et Z sont indépendantes, donc :


n n
X X αk −β β n−k
P r{X = n} = P r {Y = k} P r {Z = n − k} = e−α e
k=0 k=0
k! (n − k)!
−(α+β) n
e X
= Cnk αk β n−k
n!
|k=0 {z }
=(α+β)n %binôme de Newton%
n
(α + β)
= e−(α+β) .
n!
Ce qui signifie que X suit une loi de Poisson de paramètre (α + β).

—— Déterminer la loi de Y sachant X ?


Soit n ∈ N, déterminons la loi de Y sachant X = n. Puisque X = Y + Z, il est clair
que, sachant X = n, Y est à valeurs dans {0, 1, . . . , n}. Soit donc k ∈ {0, 1, . . . , n} :

P r{Y = k, X = n} P r{Y = k, Z = n − k}
P r{Y = k|X = n} = =
P r{X = n} P r{X = n}
β k n−k
P r{Y = k} P r{Z = n − k} e−α αk! e−β (n−k)!
= = n
P r{X = n} e−(α+β) (α+β)
n!
 k  n−k
k α β
= Cn .
α+β α+β
 
α
Ainsi, sachant X = n, Y suit une loi binômiale B n, α+β .

—— Calculer l’espérance conditionnelle de Y sachant X ?


 
α
L’espérance de Y sachant X = n est l’espérance d’une loi binômiale B n, α+β
.
Donc pour tout n ≥ 0 :
αn
E[Y |X = n] = .
α+β

8
Puisque ceci est vrai pour tout n ≥ 0, l’espérance conditionnelle de Y sachant X est :
αX
E[Y |X] = ,
α+β
qui est bien une fonction de X, donc une variable aléatoire, et non un nombre.

—— Calculer l’espérance de Y par conditionnement sur X ?


On a :
αX
E[Y |X] = ,
α+β
ce qui implique que :
α
E [E[Y |X]] = E[X],
α+β
or l’espérance d’une loi de Poisson de paramètre (α + β) est tout simplement (α + β),
donc :
α
E [E[Y |X]] = (α + β) = α = E[Y ].
α+β
♣ Soient deux variables aléatoires X et Y dont les espérances existent. La formule de
l’espérance d’une fonction h de Y est donnée par :

E[h(Y )] = E[E[h(Y )|X]].

3.5 Espérance conditionnelle et indépendance


Nous avons déjà vu que, dans le cas général, l’espérance conditionnelle E[Y |X] est une
variable aléatoire et pas un nombre. Il existe cependant un cas particulier : lorsque X et
Y sont indépendantes.

Propriété 3.1. Si Y est intégrable, si X et Y sont indépendantes, alors la variable


aléatoire E[Y |X] est constante, égale à E[Y ].

Démonstration. Si X et Y sont indépendantes, alors pour tout couple (x, y) :

p(x, y) = pX (x) pY (y).

On en déduit que :
pX (x) pY (y)
∀x, ∀y pY |X (y|x) = = pY (y),
pX (x)
donc pour tout x :
X X
E[Y |X = x] = y pY |X (y|x) = y pY (y) = E[Y ],
y y

ce qui établit le résultat.

9
♣ En général, si on suppose que X est indépendante de G. % Cela signifie que si pour tout
A ∈ G et tout borélien B ⊂ R, P r{{X ∈ B} ∩ A} = P r{X ∈ B} P r{A}.% Dans
ce cas, on a E[X|G] = E[X], c-à-d qu’en l’absence de toute information, la meilleure
estimation que l’on puisse faire de X est son espérance.
# En particulier, on notera que toute variable aléatoire est indépendante de la tribu triviale
F0 , et que par conséquent on aura toujours : E[X|F0 ] = E[X].

3.6 Propriétés de l’espérance conditionnelle


Dans ce qui suit, on énumère différentes propriétés de l’espérance conditionnelle.
X Supposons que X est G-mesurable. Alors E[X|G] = X vérifie la définition 3.1.
% Cela traduit le fait que G contient déjà toute l’information sur la variable aléatoire
X.%

X Linéarité : ∀α, β ∈ R, E[α X + β Y |G] = α E[X|G] + β E[Y |G].

X Monotonie : Si X ≤ Y , alors E[X|G] ≤ E[Y |G].

X Convergence monotone : Si Xn ≥ 0 est une suite croissante telle que Xn → X avec


E(X) < ∞, alors E[Xn |G] → E[X|G].

X Inégalité de Jensen : Si ϕ est convexe et E (|X|) et E (|ϕ(X)|) sont finies, alors

ϕ(E[X|G]) ≤ E[ϕ(X)|G].

X Pour tout p ≥ 1, E [|E[X|G]|p ] ≤ E[|X|p ].

X On a E[E[X|G]] = E[X] et E[E[X|G]] ≤ E[|X|].


La proposition suivante décrit le comportement des espérances conditionnelles par rap-
port aux sous-tribus.

Proposition 3.2. Si G ⊂ H ⊂ F, alors


1. E[E[X|G]|H] = E[X|G] ;
2. E[E[X|H]|G] = E[X|G].

# C’est toujours la tribu la plus grossière qui l’emporte !

Théorème 3.3. Si X ⊆ G, E [|Y |] < ∞ et E [|X Y |] < ∞, alors

E[X Y |G] = X E[Y |G].

♣ Le résultat ci-dessus montre que les variables aléatoires G-mesurables se comportent


comme des constantes relativement aux espérances conditionnelles par rapport à G.

10
4 Applications
4.1 Probabilités conditionnelles
Soit A un événement qui s’exprime en fonction de X et Y , par exemple :

A = {X < Y } = {ω ∈ Ω : X(ω) < Y (ω)}.

On peut écrire sa probabilité comme l’espérance d’une indicatrice :


Z
 
P r{A} = E [1IA ] = E 1I{X<Y } = 1I{X<Y } (x, y) f (x, y)dxdy.
Supp(X,Y )

Définition 4.1. La probabilité conditionnelle de l’événement A sachant X = x est donnée


par : Z
P r{A|X = x} = E [1IA |X = x] = 1IA (x, y) fY |X (y|x)dy.
Supp(Y )

♣ La probabilité conditionnelle de A sachant X, notée P r{A|X}, est la variable aléatoire


prenant les valeurs P r{A|X = x} avec la densité f (x).
En appliquant la technique de calcul d’espérance par conditionnement, on peut également
calculer les probabilités par conditionnement.
Proposition 4.1. Z
P r{A} = P r{A|X = x} f (x)dx.
Supp(X)

Exemple 4.1. Soient X et Y deux variables aléatoires indépendantes, avec X ∼ E(λ) et


Y ∼ E(µ).
—— Calculer la probabilité P r{X < Y } ?
On a donc :
Z Z∞
P r{X < Y } = P r{x < Y |X = x} f (x)dx = P r{x < Y |X = x} λ e−λx dx.
Supp(X) 0

Or on a par hypothèse d’indépendance :

P r{x < Y |X = x} = P r{x < Y } = 1 − P r{Y ≤ x} = 1 − FY (x) = e−µx .

D’où il vient :
Z∞
λ
P r{X < Y } = λ e−(λ+µ)x dx = .
λ+µ
0

11
4.2 Espérance conditionnelle et régression
Théorème 4.2. Si E [Y 2 ] < ∞. Parmi toutes les fonctions u : R → R, l’erreur d’ap-
proximation E [(Y − u(X))2 ] est minimale lorsque u est la fonction de régression x 7→
E [Y |X = x], c-à-d lorsque u(X) = E [Y |X].
Démonstration. Notons m(X) = E [Y |X], alors pour toute fonction u : R → R, on peut
écrire :

E ((Y − u(X))2 = E ((Y − m(X)) + (m(X) − u(X)))2


   

= E (Y − m(X))2 + 2 E [(Y − m(X)) (m(X) − u(X))] + E (u(X) − m(X))2 .


   

Or le calcul d’espérance par conditionnement assure que :

E [(Y − m(X)) (m(X) − u(X))] = E [E [(Y − m(X)) (m(X) − u(X))|X]] ,

et puisque m(X) − u(X) est une fonction de X, on sait que :

E [(Y − m(X)) (m(X) − u(X))] = E [E [(Y − m(X))|X] (m(X) − u(X))] ,

or par linéarité de l’espérance conditionnelle et puisque E [m(X)|X] = m(X) = E [Y |X],


on en déduit que :

E [(Y − m(X))|X] = E [Y |X] − E [m(X)|X] = E [Y |X] − m(X) = 0.

On a donc obtenu :

E ((Y − u(X))2 = E (Y − m(X))2 + E (u(X) − m(X))2 .


     

Cette quantité est minimale lorsque u(X) = E [Y |X].


Définition 4.2. La quantité

σ 2 = min E (Y − u(X))2 = E (Y − E [Y |X])2


   
u

est appelée l’erreur quadratique moyenne, ou la variance résiduelle, ou encore le résidu.

5 Exercices
Exercice 5.1. Soient X et Y deux variables aléatoires indépendantes, de loi N (0, 1).
1. Soit λ ∈ R. Calculer :
E eλX .
 

2. Calculer, en fonction de Y , les espérances conditionnelles suivantes :


 2 
X +Y
|Y et E Y eXY |Y .
 
E
1+Y

12
2
x2 λ2
Solution 5.1. 1. En écrivant λx − 2
= − (x−λ)
2
+ 2
, et en posant u = x − λ, on a :
Z −x2 /2
λx e
E eλX =
 
e √
dx
R 2π
Z −(x−λ)2 /2
λ2 /2 e
= e √ dx
R 2π
Z −u2 /2
λ2 /2 e
= e √ du
R 2π
| {z }
=1
λ2 /2
= e .

car la dernière intégrale est celle de la densité de la loi N (0, 1), qui vaut 1.
1 Y
2. En utilisant la linéarité de l’espérance conditionnelle, puis le fait que 1+Y et 1+Y
sont
2
σ(Y )-mesurable et que X est indépendante de Y , on a :
 2
X2
    
X +Y Y
E |Y = E |Y + E |Y
1+Y 1+Y 1+Y
1 Y
E X 2 |Y +
 
=
1+Y 1+Y
1  2 Y
= E X +
1+Y | {z } 1+Y
=Var(X)+(E[X])2 =Var(X)=1
1 Y
= +
1+Y 1+Y
= 1.

Pour la deuxième, on a :

E Y eXY |Y = Y E eXY |Y ,
   

et comme X et Y sont indépendantes la dernière espérance se calcule, d’après la la


question 1., en intégrant par rapport à X, Y étant supposée constante, et est donc
fournie par la question précédente avec λ = Y :
2
E eXY |Y = E eXY = eY /2 .
   

Ainsi, il vient :
2
E Y eXY |Y = Y eY /2 .
 

Exercice 5.2. Soit (X, Y ) un couple de variables aléatoires de densité :

f (x, y) = 4y(x − y)e−(x+y) 1I{0≤y≤x} .

13
1. Calculer la densité de Y , puis la densité de la loi conditionnelle de X sachant Y .
2 Calculer E[X|Y ].
 
3. Si Y < 1. Calculer P r{X < 1|Y } (c-à-d E 1I{X<1} |Y ).

Solution 5.2. 1. On calcule la densité de Y :


Z Z ∞
fY (y) = f (x, y)dx = 1I{y≥0} 4y(x − y)e−(x+y) dx
Supp(X) y
Z ∞
= 1I{y≥0} 4ye−2y (x − y)e−(x−y) dx
Zy ∞
= 1I{y≥0} 4ye−2y ue−u du,
0

en posant u = x − y. Et la dernière intégrale vaut 1 (intégration par partie, où on


reconnaı̂t l’espérance d’une loi exponentielle de paramètre 1), donc :
fY (y) = 4ye−2y 1I{y≥0} .
On en déduit la densité conditionnelle de X sachant Y :
f (x, Y ) 4Y (x − Y )e−(x+Y ) 1I{x≥Y }
fX|Y (x|Y ) = = −2Y
= (x − Y )e−(x−Y ) 1I{x≥Y } .
fY (Y ) 4Y e
2. On a :
Z Z ∞
E[X|Y ] = xfX|Y (x|y)dx = 1I{y≥0} x(x − y)e−(x−y) dx
Supp(X) y
Z ∞
= 1I{y≥0} (y + u)ue−u du
0
Z ∞ Z ∞
−u
= 1I{y≥0} y ue du + u2 e−u du
0 0
= (y + 2) 1I{y≥0} ,
(la dernière intégrale s’obtient en intégrant par parties, en reconnaissant E[Z 2 ] où
Z ∼ E(1) et donc E[Z 2 ] = Var(Z 2 ) + (EZ)2 = 1 + 1 = 2).
3. On a :
Z 1 Z 1
P r{X < 1|Y } = fX|Y (x|y)dx = (x − y)e−(x−y) dx
0 y
Z 1−y
= 1I0≤y<1 ue−u du
0
= 1 + (y − 2)e−(1−y) 1I0≤y<1 .
Ici, encore on a utilisé la technique d’intégration par parties.

14
Exercice 5.3. Un enfant est prisonnier dans un puits d’où partent trois tunnels. Le pre-
mier de ces tunnels le mènerait à la sortie au bout de 3 heures de marche. Le second le
ramènerait à un point de départ au bout de 5 heures de marche, ainsi que le troisième au
bout de 7 heures. Si à chaque choix qu’il fait l’enfant emprunte n’importe quel tunnel avec
la même probabilité, quelle sera la durée moyenne de sa tentative de sortie ?

Solution 5.3. Introduisons les deux variables aléatoires suivantes :


X : représentant la durée de la recherche de la sortie en heures ;
Y : qui représente la première porte choisie.
On s’intéresse donc à calculer E[X]. On a :

E[X] = E[X|Y = 1] P r{Y = 1} + E[X|Y = 2] P r{Y = 2} + E[X|Y = 3] P r{Y = 3}


1
= (E[X|Y = 1] + E[X|Y = 2] + E[X|Y = 3]) .
3
Or

E[X|Y = 1] = 3
E[X|Y = 2] = 5 + E[X] (2)
E[X|Y = 3] = 7 + E[X].

Pour comprendre les équations (2), voyons par exemple le cas E[X|Y = 2]. Si l’enfant
emprunte le deuxième tunnel, il y passera 5 heures puis reviendra à son départ. Une fois
là, le problème est exactement le même qu’à l’origine. À ce niveau, la durée moyenne de
sa recherche est E[X]. C’est pourquoi E[X|Y = 2] = 5 + E[X]. Les arguments à la base de
la dernière équation sont semblables. On a donc finalement :
1
E[X] = (3 + 5 + E[X] + 7 + E[X]) .
3
Ainsi E[X] = 15.

Exercice 5.4. Le nombre de clients se rendant à un grand magasin donné dans l’espace
d’une journée est une variable aléatoire d’espérance 500. La somme dépensée par chacun
des clients quotidiens du magasin est aussi une variable aléatoire d’espérance 800 D.A.
On admet que les dépenses d’un client ne dépendent ni de celles des autres clients ni du
nombre total de clients pour la journée. Quelle est l’espérance du chiffre d’affaires quotidien
du magasin ?

Solution 5.4. Le nombre de clients par jour est noté N , tandisP que le montant dépensé
par client i est Xi . Le chiffre d’affaires du magasin est donc Ni=1 Xi . Or :
" N # " " N ##
X X
E Xi = E E Xi |N .
i=1 i=1

15
Ainsi
" N
# " n
#
X X
E Xi |N = n = E Xi |N = n
i=1
" i=1
n
#
X
= E Xi du fait de l’indépendance des Xi et de N,
i=1
= nE [X] ,

où l’on ahdésigné pariE [X] l’espérance commune à tous les Xi . Dès lors, la variable aléatoire
PN
notée E i=1 Xi |N a pour expression ici :

" N
#
X
E Xi |N = N E [X] ,
i=1

ce qui entraı̂ne : " #


N
X
E Xi = E [N E [X]] = E [N ] E [X] .
i=1

Ainsi, le chiffre d’affaires moyen du magasin est donc 500 × 800 = 400000 D.A. par jour !

6 TD
Exercice 6.1. 1. On considère l’ensemble à trois éléments Ω = {a, b, c}. Déterminer la
tribu engendrée par la partie {a, b}.

2. Une union de tribus est-elle toujours une tribu ?

Exercice 6.2. Soient X une variable aléatoire intégrable définie sur un espace probabilisé
(Ω, F, P), et G une sous-tribu de F. Compléter les égalités suivantes :
1. E [E [X|G]] =
2. Si X et G sont indépendantes, E [X|G] =
3. Si Y est une variable aléatoire G-mesurable et si X Y et X sont intégrables, E [Y X|G] =
4. Pour toute variable aléatoire Z G-mesurable et bornée, E [ZE [X|G]] =

Exercice 6.3. Soient X1 , . . . , Xn des variables aléatoires i. i. d. intégrables. Calculer

E [X1 |X1 + X2 + . . . + Xn ] .

16
Exercice 6.4. Soit X une variable aléatoire de carré-intégrable. On pose :

Var [X|F] ≡ E X 2 |F − [E [X|F]]2 .


 

Montrer que :
Var [X] = E [Var [X|F]] + Var [E [X|F]] .

Exercice 6.5. Dans une expérience consistant à jeter deux tétraèdres parfaitement symétriques,
dont les faces sont numérotées de 1 à 4. On considère les variables aléatoires X, égale à
la somme des points, et Y , égale à leur différence en valeur absolue.
1. Spécifier un espace probabilisé permettant de décrire cette expérience.
2. Déterminer la loi conjointe de X et Y ainsi que leurs espérances.
3. Calculer E [X|Y ] et E [Y |X].

Exercice 6.6. Soient X et Y deux variables aléatoires continues de densité conjointe :


 −x−y
e , 0 ≤ x ≤ ∞, 0 ≤ y ≤ ∞ ;
f(X,Y ) (x, y) =
0, autrement.

1. Calculer fY |X (y|x) et FY |X (y|x).


2. Comparer fY |X (y|x) et fY (y). Conclure.
3. Déterminer E [Y |X].

Références
[1] Dominique Foata et Aimé Fuchs. Calcul des Probabilités. Dunod, 1998.
[2] Dominique Foata et Aimé Fuchs. Processus Stochastiques. Dunod, 2002.
[3] Michel Benaı̈m et Nicole El Karoui. Promenade Aléatoire. Editions de l’Ecole Poly-
technique, 2004.
[4] Sheldon M. Ross. Initiation aux Probabilités. Presses Polytechniques et Universitaires
Romandes, 1987.

17

Vous aimerez peut-être aussi