Probastat Section3

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 27

Probabilités et statistique 1-620-96 (BAA jour) Section 3, page 3.

Notes de cours électroniques

1-620-96(BAA jour) - Probabilités et statistique – Janvier 2001

Section 3 : Variable aléatoire discrète à deux dimensions


Table des matières page(s)
3.1 – Distribution conjointe et distributions marginales 3.2 – 3.3
3.2 – Distribution conditionnelle 3.4 – 3.7
3.3 – Indépendance de deux variables aléatoires 3.8
3.4 – Covariance et coefficient de corrélation linéaire 3.9 – 3.12
3.5 – Somme de variables aléatoires 3.13 – 3.15
3.6 – Problèmes 3.16 – 3.20
3.7 – Solutions des problèmes 3.21 – 3.27

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96(BAAjour) Section 3, p. 3.2

3.1 - DISTRIBUTION CONJOINTE ET DISTRIBUTIONS MARGINALES

Distribution conjointe
On peut simultanément définir plus d'une variable aléatoire à partir d'une même
expérience aléatoire. La présente section aborde l'étude simultanée de deux
variables aléatoires X et Y définies à partir d'une même expérience aléatoire dont
l'ensemble fondamental des résultats est Ω = {ω1, ω2, ... , ωn}.

La fonction de masse conjointe, ou fonction de probabilité conjointe, donne la


probabilité de réalisation de la conjonction {X=x} ∩ {Y=y}. On note habituellement la
probabilité de réalisation de la conjonction {X=x} ∩ {Y=y}) par P(X=x, Y=y).

Soit SX = {x1, ... , xk} et SY = {y1, ... , ym} les supports respectifs des variables
aléatoires X et Y.
Pour i = 1, ... , k et j = 1, ... , m; on note la probabilité P(X=xi, Y=yj) par p ij .

k m
On obtient alors: p ij ≥ 0, pour i = 1, ... , k et j = 1, ... , m, et ∑ ∑ pij = 1.
i =1 j = 1

p ij , si x = xi et y = yj , où i = 1, ... , k et j = 1, ... , m;

P(X=x, Y=y) =
0, sinon.

Tableau croisé ou tableau de contingence


On utilise souvent un tableau croisé, ou tableau de Y
y1 y2 ... ym
contingence pour présenter la distribution conjointe
x1 p11 p12 ... p1m
de X et Y: X x2 p21 p22 ... p2m
... ... ... ... ...
xk pk1 pk2 ... pkm

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96(BAAjour) Section 3, p. 3.3

Distributions marginales
À partir du tableau croisé de la distribution conjointe, il suffit de faire les somme des
lignes et celles des colonnes pour déduire les distributions marginales de X et Y.
m m
P( X = x i ) = ∑ P( X = x i , Y = y j ) = ∑ pij = pi• , (somme de la ligne i), i = 1, 2,...,k.
j =1 j =1

k k
P( Y = y j ) = ∑ P( X = x i , Y = y j ) = ∑ pij = p• j , (somme de la colonne j), j = 1, 2,...,m.
i =1 i =1

Y Distribution marginale de X :
y1 y2 ... ym Somme x x1 x 2 ... x k
x1 p11 p12 ... p1m p1• P(X=x) p1• p 2 • ... p k •
X x2 p21 p22 ... p2m p2• ⇒
... ... ... ... ... ... Distribution marginale de Y :
xk pk1 pk2 ... pkm pk• y y1 y 2 ... y m
Somme p•1 p•2 ... p•m 1 P(Y=y) p •1 p • 2 ... p • m

Exemple 3.1.1
Soit X et Y deux variables y
20 21 22
aléatoires discrètes dont la
12 0,063 0,051 0,036
distribution conjointe est x 13 0,077 0,077 0,066
donnée par le tableau ci-contre. 14 0,098 0,140 0,112
15 0,042 0,112 0,126

Pour identifier les distributions y


20 21 22 Somme
marginales de X et Y, il suffit de
12 0,063 0,051 0,036 0,150
calculer les sommes des lignes x 13 0,077 0,077 0,066 0,220
et des colonnes. 14 0,098 0,140 0,112 0,350
15 0,042 0,112 0,126 0,280
Somme 0,280 0,380 0,340

Distribution marginale de X : Distribution marginale de Y :


x 12 13 14 15 y 20 21 22
P(X=x) 0,15 0,22 0,35 0,28 P(Y=y) 0,28 0,38 0,34

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96(BAAjour) Section 3, p. 3.4

3.2 – DISTRIBUTION CONDITIONNELLE


Distributions conditionnelles
De la distribution conjointe de 2 variables aléatoires discrètes X et Y de supports
respectifs SX = {x1, ..., xk} et SY = {y1, ... , ym}, on peut déduire les distributions
conditionnelles de X étant donné chacune des valeurs que peut prendre Y, de
même que les distributions conditionnelles de Y étant donné chacune des valeurs
que peut prendre X.
P( X = x i , Y = y j )
Pour j = 1, ... , m, P( X = x i | Y = y j ) = , i = 1, ... , k ;
P( Y = y j )

P( X = x i , Y = y j )
et, pour i = 1, ... , k , P( Y = y j | X = x i ) = , j = 1, ... , m .
P( X = x i )

Identification des distributions conditionnelles à partir d’un tableau croisé


Y
y1 y2 ... ym Somme
Le tableau croisé ci-contre donne la
x1 p11 p12 ... p1m p1•
distribution conjointe de deux variables X x2 p21 p22 ... p2m p2•
... ... ... ... ... ...
aléatoires discrètes X et Y.
xk pk1 pk2 ... pkm pk•
Somme p•1 p•2 ... p•m 1

Pour obtenir la distribution conditionnelle de X étant donné que Y = y j , il suffit de

diviser chacun des éléments de la je colonne par la somme de celle-ci.


La distribution conditionnelle de X étant x x1 x 2 ... xk
donné que Y = y j , où j ∈ {1, ..., m}, est: p1j p2 j pkj
P( X = x | Y = y j ) ...
p• j p• j p• j

Pour obtenir la distribution conditionnelle de Y étant donné que X = x i , il suffit de


diviser chacun des éléments de la ie ligne par la somme de celle-ci.
La distribution conditionnelle de Y étant y y1 y 2 ... ym
donné que X = x i , où i ∈ {1, ..., k}, est: pi1 p i2 p
... im
P( Y = y | X = x i ) p pi • pi •
i•

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96(BAAjour) Section 3, p. 3.5

Exemple 3.2.1
Étudions de nouveau les variables aléatoires X et Y de l’exemple 3.1.1.

Il suffit de diviser chacun des éléments d’une colonne du tableau de la distribution


conjointe par la somme de celle-ci pour identifier la distribution conditionnelle de X
étant donné que Y prend la valeur y spécifiée pour cette colonne.
y
20 21 22
12 0,063 0,051 0,036
x 13 0,077 0,077 0,066
14 0,098 0,140 0,112
15 0,042 0,112 0,126
Somme 0,280 0,380 0,340

x P(X=x|Y=20) P(X=x|Y=21) P(X=x|Y=22)


12 0,063 / 0,280 = 0,22500 0,051 / 0,380 = 0,13421 0,036 / 0,340 = 0,10588
13 0,077 / 0,280 = 0,27500 0,077 / 0,380 = 0,20263 0,066 / 0,340 = 0,19412
14 0,098 / 0,280 = 0,35000 0,140 / 0,380 = 0,36842 0,112 / 0,340 = 0,32941
15 0,042 / 0,280 = 0,15000 0,112 / 0,380 = 0,29474 0,126 / 0,340 = 0,37059
Somme 1,00000 1,00000 1,00000

Il suffit de diviser chacun des éléments d’une ligne du tableau de la distribution


conjointe par la somme de celle-ci pour identifier la distribution conditionnelle de Y
étant donné que X prend la valeur x spécifiée pour cette ligne.
y
20 21 22 Somme
12 0,063 0,051 0,036 0,150
x 13 0,077 0,077 0,066 0,220
14 0,098 0,140 0,112 0,350
15 0,042 0,112 0,126 0,280

y 20 21 22 Somme
P(Y=y|X=12) 0,063 / 0,150 = 0,42 0,051 / 0,150 = 0,34 0,036 / 0,150 = 0,24 1,00
P(Y=y|X=13) 0,077 / 0,220 = 0,35 0,077 / 0,220 = 0,35 0,066 / 0,220 = 0,30 1,00
P(Y=y|X=14) 0,098 / 0,350 = 0,28 0,140 / 0,350 = 0,40 0,112 / 0,350 = 0,32 1,00
P(Y=y|X=15) 0,042 / 0,280 = 0,15 0,112 / 0,280 = 0,40 0,126 / 0,280 = 0,45 1,00

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96(BAAjour) Section 3, p. 3.6

En pratique, une situation très usuelle est celle où l'on connaît la distribution
marginale de la variable X de même que les distributions conditionnelles de Y étant
donné chacune des valeurs que peut prendre X. On peut alors déduire la distribution
conjointe de X et Y puis la distribution marginale de Y.

Exemple 3.2.2
Les tableaux ci-dessous donnent les distributions conditionnelles de Y étant donné
chacune des 3 valeurs que peut prendre X de même que la distribution marginale de
X.
y 0 1 2 3 x P(X=x)
P(Y=y|X=0) 0,4 0,3 0,2 0,1 0 0,4
P(Y=y|X=1) 0,2 0,4 0,3 0,1 1 0,5
P(Y=y|X=2) 0,0 0,2 0,3 0,5 2 0,1

Pour obtenir la distribution conjointe de X et Y, il suffit d’appliquer la relation


P(X=x, Y=y ) = P(Y=y | X=x ) P(X=x) pour x = 0, 1, 2.
y 0 1 2 3
P(X=0, Y=y) 0,4 x 0,4 0,3 x 0,4 0,2 x 0,4 0,1 x 0,4
P(X=1, Y=y) 0,2 x 0,5 0,4 x 0,5 0,3 x 0,5 0,1 x 0,5
P(X=2, Y=y) 0,0 x 0,1 0,2 x 0,1 0,3 x 0,1 0,5 x 0,1

La distribution conjointe de X et Y est donc donnée par le tableau croisé ci-dessous.


y
x 0 1 2 3
0 0,16 0,12 0,08 0,04
1 0,10 0,20 0,15 0,05
2 0,00 0,02 0,03 0,05

De ce dernier tableau, on peut déduire la distribution marginale de Y en calculant la


somme de chacune des colonnes.
y 0 1 2 3
P(Y=y) 0,26 0,34 0,26 0,14

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96(BAAjour) Section 3, p. 3.7

On peut utiliser les distributions conditionnelles pour calculer des espérances et des
variances conditionnelles.

Exemple 3.2.3
Dans l’exemple 3.2.2, la distribution conditionnelle de Y étant donné X=0 est :
y 0 1 2 3
P(Y=y|X=0) 0,4 0,3 0,2 0,1

E(Y | X=0 ) = ∑ y P(Y=y|X=0) = (0 x 0,4) + (1 x 0,3) + (2 x 0,2) + (3 x 0,1) = 1,0


E(Y2 | X=0 ) = ∑ y 2 P(Y=y|X=0) = (02 x 0,4) + (12 x 0,3) + (22 x 0,2) + (32 x 0,1) = 2,0
Var(Y | X=0 ) = E(Y2 | X=0 ) − [E(Y | X=0 )]2 = 2 − [1]2 = 1.

On peut comparer ces calculs à ceux engendrés par la distribution marginale de Y


que nous avons identifiée dans l’exemple 3.2.2 :
y 0 1 2 3
P(Y=y) 0,26 0,34 0,26 0,14

E(Y ) = ∑ y P(Y=y) = (0 x 0,26) + (1 x 0,34) + (2 x 0,26) + (3 x 0,14) = 1,28


E(Y2) = ∑ y 2 P(Y=y) = (02 x 0,26) + (12 x 0,34) + (22 x 0,26) + (32 x 0,14) = 2,64
Var(Y)= E(Y2) − [E(Y)]2 = 2,64 − [1,28]2 = 1,0016

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96(BAAjour) Section 3, p. 3.8

3.3 – INDÉPENDANCE DE 2 VARIABLES ALÉATOIRES

Indépendance de 2 variables aléatoires discrètes

Définition :
2 variables aléatoires discrètes X et Y, définies à partir du même ensemble
fondamental Ω sont indépendantes en probabilité si et seulement si :
P(X=x, Y=y) = P(X=x) P(Y=y), pour tout x et pour tout y.

Définition équivalente :
On peut également définir l’indépendance à partir des distributions conditionnelles.
Par exemple : les k distributions conditionnelles de Y étant donné que X = xi ,
où i = 1,...,k, sont toutes identiques à la distribution marginale de Y si et seulement si
les variables aléatoires X et Y sont indépendantes en probabilité.

Exemple 3.3.1
Les variables aléatoires de l’exemple 3.1.1 ne sont pas indépendantes en probabilité.
Trois arguments équivalents peuvent être utilisés pour le démontrer. Dans la
pratique, un seul suffit.

Argument 1 (voir l’exemple 3.1.1) : Il existe des valeurs x et y telles que P(X=x, Y=y)
≠ P(X=x) P(Y=y). Par exemple : P(X=12, Y=20) ≠ P(X=12) P(Y=20).
OU
Argument 2 (voir l’exemple 3.2.1) : Les distributions conditionnelles de X étant donné
que Y = y, où y est une valeur possible pour Y, ne sont pas toutes identiques.
OU
Argument 3 (voir l’exemple 3.2.1) : Les distributions conditionnelles de Y étant donné
que X = x, où x est une valeur possible pour X, ne sont pas toutes identiques.

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96(BAAjour) Section 3, p. 3.9

3.4 – COVARIANCE ET COEFFICIENT DE CORRÉLATION LINÉAIRE

Espérance d'une fonction réelle de 2 variables

Soit g(x,y) une fonction de ℜ2 dans ℜ. On définit E[g(X,Y)] par:


k m
E[g(X, Y )] = ∑ ∑ g( x, y ) P( X = x, Y = y ) = ∑ ∑ g( x i , y j ) P( X = x i , Y = y j ) .
x∈S X y∈S Y i =1 j =1

Un cas particulier est :


k m
E[XY ] = ∑ ∑ x y P( X = x, Y = y ) = ∑ ∑ x i y j P( X = x i , Y = y j ) .
x∈S X y∈S Y i = 1 j =1

Exemple 3.4.1
Calculons E(XY) pour les variables X et Y de l’exemple 3.1.1.

Distribution conjointe de X et Y.
y
20 21 22
12 0,063 0,051 0,036
x 13 0,077 0,077 0,066
14 0,098 0,140 0,112
15 0,042 0,112 0,126

E(XY) = (12 x 20 x 0,063) + (12 x 21 x 0,051) + (12 x 22 x 0,036)


+ (13 x 20 x 0,077) + (13 x 21 x 0,077) + (13 x 22 x 0,066)
+ (14 x 20 x 0,098) + (14 x 21 x 0,140) + (14 x 22 x 0,112)
+ (15 x 20 x 0,042) + (15 x 21 x 0,112) + (15 x 22 x 0,126)
= 289,949

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96(BAAjour) Section 3, p. 3.10

Covariance
On peut définir la covariance de X et Y par Cov(X,Y) = E( {X − E( X)}{Y − E( Y )} ) .
On peut démontrer que Cov(X,Y) = E(XY) - [E(X) E(Y)] .
Coefficient de corrélation linéaire
On peut définir le coefficient de corrélation linéaire (de Pearson) par:
Cov( X, Y )
ρ( X, Y ) = .
Var ( X) Var ( Y )

Exemple 3.4.2
Utilisons les variables aléatoires X et Y de l’exemple 3.1.1 pour illustrer le calcul de la
covariance et du coefficient de corrélation linéaire.

Le seul calcul à effectuer à partir du tableau de la distribution conjointe est celui que
nous avons effectué dans l’exemple 3.4.1, c’est-à-dire E(XY) = 289,949 . Les autres
calculs proviennent des distributions marginales de X et Y.
x 12 13 14 15
P(X=x) 0,15 0,22 0,35 0,28

E(X) = (12 x 0,15) + (13 x 0,22) + (14 x 0,35) + (15 x 0,28) = 13,76
E(X2) = (122 x 0,15) + (132 x 0,22) + (142 x 0,35) + (152 x 0,28) = 190,38
Var(X) = E(X2) − [E(X)]2 = 190,38 − (13,76)2 = 1,0424

y 20 21 22
P(Y=y) 0,28 0,38 0,34

E(Y) = (20 x 0,28) + (21 x 0,38) + (22 x 0,34) = 21,06


E(Y2) = (202 x 0,28) + (212 x 0,38) + (222 x 0,34) = 444,14
Var(Y) = E(Y2) − [E(Y)]2 = 0,6164

COV(X,Y) = E(XY) − E(X)E(Y) = 289,949 − (13,76 x 21,06) = 0,1634


COV( X, Y ) 0,1634
ρ( X, Y ) = = = 0,2038
Var ( X) Var ( Y ) 1,0424 0,6164

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96(BAAjour) Section 3, p. 3.11

Effets de transformations affines sur la covariance et le coefficient de


corrélation
Soit a, b, c et d, des constantes réelles, telles que a ≠ 0 et c ≠ 0. On peut démontrer
ac
que: Cov(aX+b, cY+d) = ac Cov(X,Y) et ρ(aX+b, cY+d) = ρ(X,Y) .
ac

Exemple 3.4.3
Soit T = 2X − 5 et W = −3Y + 4, où X et Y sont les variables aléatoires pour
lesquelles nous avons calculé Cov(X,Y) et ρ(X,Y) dans l’exemple 3.4.2.

Cov(T, W) = Cov(2X−5, −3Y+4) = (2 x –3) Cov(X,Y) = −6 Cov(X,Y)


Cov(T, W) = –6 x 0,1634 = − 0,9804 .
2 × −3
ρ(T, W) = ρ(2X−5, −3Y+4) = ρ(X,Y) = − ρ(X,Y)
2 × −3

ρ(T, W) = − 0,2038 .

Conséquences de l’indépendance
Si les variables aléatoires X et Y sont indépendantes en probabilité, alors:
1) E(XY) = E(X)E(Y),
2) Cov(X,Y) = 0 ,
3) ρ(X,Y) = 0,

Il est à noter que les propriétés 1) à 3) sont logiquement équivalentes. On dit de


variables qui les satisfont qu'elles sont non corrélées. Deux variables aléatoires
discrètes X et Y qui sont indépendantes sont toujours non corrélées. Par contre, il
est possible de construire des exemples de variables aléatoires discrètes X et Y qui
sont non corrélées sans être indépendantes.

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96(BAAjour) Section 3, p. 3.12

Exemple 3.4.4
Revenons à la question traitée à l’exemple 3.3.1, c’est-à-dire l’identification de
différents arguments pour pouvoir affirmer que les variables X et Y de l’exemple 3.1.1
ne sont pas indépendantes.

Nous pourrions utiliser les résultats des calculs effectués aux exemples 3.4.1 et 3.4.2
pour démontrer que ces variables ne sont pas indépendantes. Les 3 arguments qui
suivent sont équivalents (en pratique, un seul suffit).

Argument 1 :
E(XY) ≠ E(X)E(Y) ⇒ X et Y sont corrélées ⇒ X et Y ne sont pas indépendantes

Argument 2 :
Cov(X,Y) ≠ 0 ⇒ X et Y sont corrélées ⇒ X et Y ne sont pas indépendantes

Argument 3 :
ρ( X, Y ) ≠ 0 ⇒ X et Y sont corrélées ⇒ X et Y ne sont pas indépendantes

Propriétés du coefficient de corrélation linéaire

On peut démontrer que :


1) − 1 ≤ ρ(X,Y) ≤ 1
2) ρ(X,Y) = +1 si et seulement si Y = aX + b et a > 0.
3) ρ(X,Y) = −1 si et seulement si Y = aX + b et a < 0.

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96(BAAjour) Section 3, p. 3.13

3.5 – SOMME DE VARIABLES ALÉATOIRES

Espérance et variance d'une somme de 2 variables aléatoires


On peut démontrer que :
1) E(X+Y) = E(X) + E(Y) ;
2) Var(X+Y) = Var(X) + Var(Y) + 2 Cov(X,Y).

Exemple 3.5.1
Soit X et Y deux variables aléatoires telles que
E(X) = 50, σ(X) = 10, E(Y) = 40, σ(Y) = 5 et Cov(X,Y) = 25.

E(X+Y) = E(X) + E(Y) = 50 + 40 = 90.


Var(X+Y) = Var(X) + Var(Y) + 2 Cov(X,Y) = 102 + 52 + (2 x 25) = 175.

Combinaison linéaire
Soient a, b et c des constantes réelles. On peut démontrer que:
1) E(aX + bY + c) = aE(X) + bE(Y) + c ;
2) Var(aX + bY + c) = a2 Var(X) + b2 Var(Y) + 2ab Cov(X,Y).

Exemple 3.5.2
Soit W = 3X − 4Y + 25, où X et Y sont les variables aléatoires présentées à l’exemple
3.5.1.

E(W) = 3 E(X) − 4 E(Y) + 25 = (3 x 50) − (4 x 40) + 25 = 15 .


Var(W) = 32 Var(X) + (−4)2 Var(Y) + (2 x 3 x −4) Cov(X,Y)
Var(W) = (9 x 102) + (16 x 52) − (24 x 25) = 700 .

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96(BAAjour) Section 3, p. 3.14

Généralisation : espérance et variance d'une somme de n variables


On peut démontrer que :
 n  n
1) E ∑ X i  = ∑ E( Xi )

 
 i = 1  i =1
n  n n −1 n
2) Var  ∑ X i  = ∑ Var ( Xi ) + 2 ∑ ∑ Cov( X i , X j )
 
 i =1  i =1 i =1 j = i + 1

Exemple 3.5.3
Développons les formules ci-dessus pour 3 variables aléatoires.
E(X1+X2+X3) = E(X1) + E(X2) + E(X3)
Var(X1+X2+X3) = Var(X1) + Var(X2) + Var(X3)
+ 2 Cov(X1, X2) + 2 Cov(X1, X3) + 2 Cov(X2, X3)

Développons la formule de la variance pour 4 variables aléatoires.


Var(X1+X2+X3+X4) = Var(X1) + Var(X2) + Var(X3) + Var(X4)
+ 2 Cov(X1, X2) + 2 Cov(X1, X3) + 2 Cov(X1, X4)
+ 2 Cov(X2, X3) + 2 Cov(X2, X4) + 2 Cov(X3, X4)

Généralisation : combinaison linéaire


Soient a1, a2, ... , an et b des constantes réelles, on peut démontrer que:

 n   n 
1) E ∑ a i Xi  + b  = ∑ a i E( Xi ) + b

 i =1   i =1 
    

 n   n n −1 n
2) Var  ∑ a i X i  + b  = ∑ a i2 Var ( X i ) + 2 ∑ ∑ ai a j Cov( X i , X j )
  
 i = 1  i =1 i =1 j = i + 1

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96(BAAjour) Section 3, p. 3.15

Conséquences de l'indépendance sur la somme de 2 variables

Lorsque 2 variables aléatoires X et Y sont indépendantes, leur covariance est nulle.


Cette dernière propriété simplifie énormément le calcul de la variance de leur somme
ou celui de la variance d’une combinaison linéaire.

Var(X+Y) = Var(X) + Var(Y)

Var(aX+bY+c) = a2Var(X) + b2Var(Y) ; où a, b et c sont des constantes réelles.

Généralisation

Lorsque n variables aléatoires X1, X2, ... , Xn sont non corrélées, c’est-à-dire lorsque
toutes les covariances sont nulles, la variance de leur somme est égale à la somme
de leurs variances. Une telle situation se produit, entre autres, lorsque les n
variables sont indépendantes.

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96 (BAA jour) Section 3, page 3.16

3.6 – PROBLÈMES

Problème 3.6.1 (cliquer ici pour la solution)


Le tableau ci-contre donne la y
0 1 2 3
distribution conjointe de 2 variables
-1 0,06 0,06 0,06 0,02
aléatoires discrètes X et Y. x 0 0,06 0,15 0,06 0,03
1 0,08 0,09 0,18 0,15

a) Que valent P(X=1), P(Y≤ 2), P(Y=2|X=0) et P(X≥0|Y=3) ?


b) Calculer l’espérance, la variance et l’écart-type de X. Faire de même pour Y.
c) Pour chacune des 3 valeurs x possibles pour X, identifier d’abord la distribution
conditionnelle de Y étant donné que X = x pour ensuite calculer E(Y| X=x) ,
Var(Y| X=x) et σ(Y|X=x).
d) Calculer COV(X,Y) et ρ(X,Y) .
e) Les variables aléatoires X et Y sont-elles indépendantes en probabilité?

Problème 3.6.2 (cliquer ici pour la solution)


Le tableau ci-dessous donne les valeurs de la fonction de répartition d’une variable
aléatoire discrète X en chacun des points de son support.
x 1 2 3 4 5
F(x) 0,11 0,44 0,72 0,87 1,00

Le tableau ci-contre donne les distributions y


1 3 5
conditionnelles d’une variable aléatoire Y
P(Y=y|X=1) 0,25 0,38 0,37
étant donné chacune des valeurs que peut P(Y=y|X=2) 0,30 0,42 0,28
prendre X. P(Y=y|X=3) 0,23 0,54 0,23
P(Y=y|X=4) 0,15 0,62 0,23
P(Y=y|X=5) 0,11 0,35 0,54

a) Les variables aléatoires X et Y sont-elles indépendantes en probabilité?


b) Calculer E(X), σ(X), Q 0,25 (X), Q 0,5 (X) et Q 0,75 (X).

c) Calculer E(Y), σ(Y), Q 0,25 (Y), Q 0,5 (Y) et Q 0,75 (Y).

d) Calculer Cov(X,Y) et ρ(X,Y).

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96 (BAA jour) Section 3, page 3.17

Problème 3.6.3 (cliquer ici pour la solution)


Les 2 tableaux ci-dessous décrivent la distribution de probabilités des variables
aléatoires X et Y définies par
X = valeur à terme (dans un an) d’un placement de 1$ dans le fonds A,
Y = valeur à terme (dans un an) d’un placement de 1$ dans le fonds B.
x P(X=x) y P(Y=y)
0,90 0,00 0,90 0,007
0,91 0,00 0,91 0,009
0,92 0,00 0,92 0,012
0,93 0,04 0,93 0,015
0,94 0,04 0,94 0,018
0,95 0,04 0,95 0,022
0,96 0,04 0,96 0,026
0,97 0,04 0,97 0,031
0,98 0,04 0,98 0,036
0,99 0,04 0,99 0,040
1,00 0,04 1,00 0,045
1,01 0,04 1,01 0,048
1,02 0,04 1,02 0,052
1,03 0,04 1,03 0,054
1,04 0,04 1,04 0,056
1,05 0,04 1,05 0,058
1,06 0,04 1,06 0,056
1,07 0,04 1,07 0,054
1,08 0,04 1,08 0,052
1,09 0,04 1,09 0,048
1,10 0,04 1,10 0,045
1,11 0,04 1,11 0,040
1,12 0,04 1,12 0,036
1,13 0,04 1,13 0,031
1,14 0,04 1,14 0,026
1,15 0,04 1,15 0,022
1,16 0,04 1,16 0,018
1,17 0,04 1,17 0,015
1,18 0,00 1,18 0,012
1,19 0,00 1,19 0,009
1,20 0,00 1,20 0,007

a) Montrer quel les valeurs à terme espérées des 2 placements sont les mêmes.

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96 (BAA jour) Section 3, page 3.18

b) Les valeurs à terme espérées des 2 placements étant les mêmes, on peut
considérer que le placement le plus risqué est celui dont l’écart-type de la valeur
à terme est le plus élevé. Lequel des deux placements étudiés est le plus risqué?

c) Les 21 stratégies ci-contre sont autant Stratégie Montant a Montant b


investi investi
de façons différentes de répartir dans le fonds A dans le fonds B
2 000$ entre les 2 fonds. Expliquer 1 0 2000
2 100 1900
pourquoi leur valeur à terme espérée 3 200 1800
4 300 1700
est toujours la même
5 400 1600
6 500 1500
7 600 1400
8 700 1300
9 800 1200
10 900 1100
11 1000 1000
12 1100 900
13 1200 800
14 1300 700
15 1400 600
16 1500 500
17 1600 400
18 1700 300
19 1800 200
20 1900 100
21 2000 0

d) Sous l’hypothèse que la valeur à terme d’un investissement dans un fonds donné
est totalement indépendante de celle dans l’autre fonds, laquelle des stratégies
décrites en c) est la moins risquée?

e) Étant donné que les facteurs exogènes qui peuvent influencer la valeur à terme
d’un investissement dans un fonds donné ont de forte chances d’influencer de
façon comparable la valeur à terme d’un investissement dans l’autre fonds,
l’hypothèse émise en d) peut être questionnée. Répondre de nouveau à la
question d) en supposant que les variables X et Y sont corrélées et que ρ(X,Y) =
0,8.

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96 (BAA jour) Section 3, page 3.19

Problème 3.6.4 (cliquer ici pour la solution)


Un étudiant a effectué les calculs suivants relativement à deux variables aléatoires
discrètes définies à partir d’un même ensemble fondamental Ω :
E(X) = 21, σ(x) = 4, E(Y) = 15, σ(Y) = 5 et Cov(X,Y) = 25.

Expliquer pourquoi il y a certainement une erreur dans ces calculs.

Problème 3.6.5 (cliquer ici pour la solution)


Soient X et Y deux variables aléatoires discrètes pour lesquelles on a déja effectué
les calculs suivants : E(X) = 12, σ(X) = 4, E(Y) = 15, σ(Y) = 3 et Cov(X,Y) = − 8.
a) Que valent E(X + Y) et σ(X + Y) ?
b) Que valent E(X − Y) et σ(X − Y) ?
c) Soit W = 2X − 3Y + 7. Que valent E(W) et σ(W) ?

Problème 3.6.6 (cliquer ici pour la solution)

Le contexte est celui du problème 1.7.8. élément ω de Ω P({ω})


(v, v, v) 6 5 4 120
× × =
10 9 8 720
Une boîte contient 4 jetons rouges et 6 jetons (v, v, r) 6 5 4 120
× × =
verts. L’expérience aléatoire étudiée consiste 10 9 8 720
(v, r, v) 6 4 5 120
à prélever successivement, au hasard et sans × × =
10 9 8 720
remise, 3 jetons de la boîte. On suppose que
(v, r, r) 6 4 3 72
× × =
chacun des jetons présents dans la boîte a la 10 9 8 720
même probabilité d’être sélectionné lors d’un (r, v, v) 4 6 5 120
× × =
10 9 8 720
tirage. Le tableau ci-contre présente
(r, v, r) 4 6 3 72
l'ensemble fondamental des résultats et les × × =
10 9 8 720
probabilités associées que nous avons (r, r, v) 4 3 6 72
× × =
10 9 8 720
calculées dans la solution du problème 1.7.8.
(r, r, r) 4 3 2 24
× × =
10 9 8 720

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96 (BAA jour) Section 3, page 3.20

Soit X1, X2 et X3, les variables aléatoires définies par :

1, si le ième jeton prélevé est rouge, ( i = 1, 2 et 3),


Xi = 
0, si non;

a) Compléter le tableau ci- ω P({ω}) X1(ω) X2(ω) X3(ω)


contre. (v, v, v) 120/720
(v, v, r) 120/720
(v, r, v) 120/720
(v, r, r) 72/720
(r, v, v) 120/720
(r, v, r) 72/720
(r, r, v) 72/720
(r, r, r) 24/720

b) Utiliser le tableau construit en a) pour identifier les distributions respectives de X1,


X2, X3. Que peut-on constater? Calculer ensuite l'espérance et la variance de
chacune de ces trois variables aléatoires.

c) Utiliser le tableau construit en a) pour identifier la distribution conjointe de X1 et


X2. Faire de même pour la distribution conjointe de X1 et X3 et celle de X2 et X3.
Que peut-on constater ? Calculer ensuite Cov(X1, X2), Cov(X1, X3) et Cov(X2, X3).

d) Soit X le nombre total de jetons rouges prélevés, X = X1 + X2 + X3 . Dans la


section 2, nous avons identifié la distribution de X. Nous avons aussi calculé son
espérance et sa variance : E(X) = 1,2 et Var(X) = 0,56.
Est-ce que E(X) = E(X1) + E(X2) + E(X3) et Var(X) = Var(X1) + Var(X2) + Var(X3) ?
Pourquoi ?

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96 (BAA jour) Section 3, page 3.21

3.7 – SOLUTIONS DES PROBLÈMES

Solution du problème 3.6.1


y
0 1 2 3 somme
x -1 0,06 0,06 0,06 0,02 0,20
0 0,06 0,15 0,06 0,03 0,30
1 0,08 0,09 0,18 0,15 0,50
somme 0,20 0,30 0,30 0,20

a) P(X=1) = 0,5. P(Y≤2) = 0,8. P(Y=3|X=0) = 0,03 / 0,30 = 0,1.


P(X≥0|Y=3) = (0,03+0,15) / 0,20 = 0,9.

b) x P(X=x) E(X) = 0,3


-1 0,2
Var(X) = 0,610
0 0,3 ⇒
1 0,5 σ(X) = 0,781

y P(Y=y) E(Y) = 1,5


0 0,2
Var(Y) = 1,05
1 0,3 ⇒
2 0,3 σ(Y) = 1,025
3 0,2

c) y P(Y=y|X=−1) E(Y | X= −1) = 1,2


0 0,3
1 0,3 ⇒ Var(Y | X= −1) = 0,96
2 0,3 σ(Y | X= −1) = 0,980
3 0,1

y P(Y=y|X=0) E(Y | X= 0) = 1,2


0 0,2
Var(Y | X= 0) = 0,76
1 0,5 ⇒
2 0,2 σ(Y | X= 0) = 0,872
3 0,1

y P(Y=y|X=1) E(Y | X= 1) = 1,8


0 0,16
Var(Y | X= 1) = 1,08
1 0,18 ⇒
2 0,36 σ(Y | X= 1) = 1,039
3 0,30

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96 (BAA jour) Section 3, page 3.22

d) Il faut d’abord calculer E(XY) en tenant compte de la distribution conjointe de X et


Y. On obtient : E(XY) = 0,66 .
De ce calcul et de ceux effectués en b), on obtient :
Cov(X,Y) = E(XY) − E(X)E(Y) = 0,21 et
Cov( X, Y )
ρ( X, Y ) = = 0,262 .
Var ( X) Var ( Y )

e) Non, les variables aléatoires X et Y ne sont pas indépendantes. On peut utiliser


plusieurs arguments pour le démontrer :
- les distributions conditionnelles de Y étant donné X=x ne sont pas toutes
identiques;
- les 2 variables sont corrélées; etc.

Solution du problème 3.6.2

a) Non, les variables X et Y ne sont pas indépendantes comme le démontre le fait


que les distributions conditionnelles de Y sachant X ne sont pas toutes
identiques.

b) Du tableau donnant les valeurs de la fonction de répartition de X, on déduit la


valeur des 3 quartiles de même que la distribution de X. À partir de cette
dernière, on calcule E(X) et σ(X).
Q 0,25 (X) = 2, Q 0,5 (X) = 3 et Q 0,75 (X) = 4 .

x P(X=x) E(X) = 2,86


1 0,11
Var(X) = 1,4204
2 0,33 ⇒
3 0,28 σ(X) = 1,1918
4 0,15
5 0,13

c) Pour effectuer les calculs demandés, il faut d’abord identifier la distribution


conjointe de X et Y, pour ensuite en déduire la distribution de Y.

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96 (BAA jour) Section 3, page 3.23

Distribution conjointe de X et Y et distribution marginale de Y.


y
1 3 5
1 0,0275 0,0418 0,0407
2 0,0990 0,1386 0,0924
x 3 0,0644 0,1512 0,0644
4 0,0225 0,0930 0,0345
5 0,0143 0,0455 0,0702
somme 0,2277 0,4701 0,3022

y P(Y=y) Q 0,25 (Y) = 3 ; E(Y) = 3,1490 ;


1 0,2277
Q 0,5 (Y) = 3 ; Var(Y) = 2,0974 ;
3 0,4701 ⇒
5 0,3022 Q 0,75 (Y) = 5 ; σ(Y) = 1,4482 .

d) Il faut d’abord calculer E(XY) en tenant compte de la distribution conjointe de X et


Y. On obtient : E(XY) = 9,2350
De ce calcul et de ceux effectués en b) et c) , on obtient :
Cov(X,Y) = E(XY) − E(X)E(Y) = 0,222860 et
Cov( X, Y )
ρ( X, Y ) = = 0,1326 .
Var ( X) Var ( Y )

Solution du problème 3.6.3

a) E(X) = E(Y) = 1,05. Aucun calcul n’est nécessaire compte tenu que les deux
distributions étudiées sont symétriques par rapport à 1,05.

b) σ(X) = 0,0052 = 0,072 et σ(Y) = 0,00436640 =0,066. Le placement le


moins risqué est celui qui consiste à investir dans le fonds B.

c) Pour toutes les stratégies étudiées, la valeur à terme peut s’écrire aX + bY, où a
et b sont tels que a + b = 2 000. La valeur à terme espérée est donc toujours :
E(aX+bY) = aE(X)+bE(Y) = (a+b)1,05 = 2 100 .

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96 (BAA jour) Section 3, page 3.24

d) On peut calculer σ(aX+bY) = a 2 σ 2 ( X) + b 2 σ 2 ( Y ) pour chacune des stratégies.

Étant donné qu’on connaît les valeurs de σ2(X) et σ2(Y), il s’agit d’un calcul qui
peut se faire très rapidement dans Minitab ou Excel. On trouve que la stratégie
la moins risquée est celle qui consiste à investir 900$ dans le fonds A et 1100$
dans le fonds B. L’écart-type de la valeur à terme est alors de 97,44$
Stratégie a b Var(aX+bY) σ(aX+bY)
1 0 2000 17465,6 132,157
2 100 1900 15814,7 125,757
3 200 1800 14355,1 119,813
4 300 1700 13086,9 114,398
5 400 1600 12010,0 109,590
6 500 1500 11124,4 105,472
7 600 1400 10430,1 102,128
8 700 1300 9927,2 99,635
9 800 1200 9615,6 98,059
10 900 1100 9495,3 97,444
11 1000 1000 9566,4 97,808
12 1100 900 9828,8 99,140
13 1200 800 10282,5 101,403
14 1300 700 10927,5 104,535
15 1400 600 11763,9 108,462
16 1500 500 12791,6 113,100
17 1600 400 14010,6 118,366
18 1700 300 15421,0 124,181
19 1800 200 17022,7 130,471
20 1900 100 18815,7 137,170
21 2000 0 20800,0 144,222

e) Lorsque X et Y sont corrélées,

σ(aX+bY) = a 2 Var ( X) + b 2 Var ( Y ) + 2 a bCov( X, Y ) .

Or Cov(X,Y) = ρ( X, Y ) Var ( X) Var ( Y ) = ρ( X, Y ) σ( X) σ( Y ) .

D’où : σ(aX+bY) = a 2 σ 2 ( X) + b 2 σ 2 ( Y ) + 2a b ρ( X, Y ) σ( X) σ( Y )

Étant donné qu’on connaît les valeurs de ρ(X,Y), σ2(X) et σ2(Y), il s’agit de calculs
qui peuvent se faire très rapidement dans Minitab ou Excel. On trouve que la
stratégie la moins risquée est celle qui consiste à investir 600$ dans le fonds A et
1400$ dans le fonds B. L’écart-type de la valeur à terme est alors de 129,75$ .

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96 (BAA jour) Section 3, page 3.25

Stratégie a b Var(aX+bY) σ(aX+bY)


1 0 2000 17465,6 132,157
2 100 1900 17263,3 131,390
3 200 1800 17099,8 130,766
4 300 1700 16975,1 130,289
5 400 1600 16889,3 129,959
6 500 1500 16842,4 129,778
7 600 1400 16834,3 129,747
8 700 1300 16865,1 129,866
9 800 1200 16934,7 130,133
10 900 1100 17043,1 130,549
11 1000 1000 17190,4 131,112
12 1100 900 17376,6 131,820
13 1200 800 17601,5 132,671
14 1300 700 17865,4 133,661
15 1400 600 18168,1 134,789
16 1500 500 18509,6 136,050
17 1600 400 18890,0 137,441
18 1700 300 19309,2 138,958
19 1800 200 19767,3 140,596
20 1900 100 20264,2 142,352
21 2000 0 20800,0 144,222

Remarque : Étant donné que b = 2000 − a, la recherche de la stratégie la moins


risquée pour répartir 2000$ entre les fonds A et B (question équivalente à celle
posée en d et e) peut se formuler comme un problème d’optimisation d’une fonction
à une seule variable. Pour 0 ≤ a ≤ 2000, on cherche, soit le minimum de

g(a) = a 2 σ 2 ( X) + (2000 − a) 2 σ 2 ( Y ) [sous l’hypothèse d’indépendance], soit le


minimum de h(a)= g(a) + 1,6 a (2000 − a) σ( X) σ( Y ) [sous l’hypothèse : ρ(X,Y) = 0,8].

Solution du problème 3.6.4


Cov( X, Y ) 25
Avec ces calculs, on obtiendrait ρ( X, Y ) = = = 1,25 ce qui est
σ( X) σ( Y ) 4×5
impossible puisque –1 ≤ ρ( X, Y ) ≤ +1. Il faut toujours que | Cov( X, Y ) | ≤ σ( X) σ( Y ) .

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96 (BAA jour) Section 3, page 3.26

Solution du problème 3.6.5

a) E(X+Y) = E(X) + E(Y) = 12 + 15 = 27 .


σ(X+Y) = Var ( X + Y ) = Var ( X) + Var ( Y ) + 2Cov( X, Y ) = 3 .

b) E(X−Y) = E(X) − E(Y) = 12 − 15 = −3 .

σ(X−Y) = Var ( X − Y ) = Var ( X) + Var ( Y ) − 2Cov( X, Y ) = 6,403 .

c) E(W) = E(2X− 3Y+7) = 2E(X) − 3E(Y) + 7 = -14

σ(W)= Var(2X− 3Y+7) = 2 2 Var ( X) + ( −3) 2 Var ( Y ) + (2 × 2 × −3)Cov( X, Y ) = 15,524.

Solution du problème 3.6.6


a) ω P({ω}) X1(ω) X2(ω) X3(ω)
(v, v, v) 120/720 0 0 0
(v, v, r) 120/720 0 0 1
(v, r, v) 120/720 0 1 0
(v, r, r) 72/720 0 1 1
(r, v, v) 120/720 1 0 0
(r, v, r) 72/720 1 0 1
(r, r, v) 72/720 1 1 0
(r, r, r) 24/720 1 1 1

b) On constate que les 3 distributions cherchées sont identiques.


x1 0 1 x2 0 1 x3 0 1
P(X1=x1) 432/720 288/720 P(X2=x2) 432/720 288/720 P(X3=x3) 432/720 288/720
= 0,6 = 0,4 = 0,6 = 0,4 = 0,6 = 0,4

Explication : pour déduire une probabilité donnée, par exemple P(X2 = 0), il suffit
d'additionner les probabilités correspondantes dans le tableau construit en a).
P(X2 = 0) = 120/720 + 120/720 + 120/720 + 72/720 = 432/720.

On obtient : E(X1) = E(X2) = E(X3) = 0,4 ; E(X12) = E(X22) = E(X32) = 0,4 et


Var(X1) = Var(X2) = Var(X3) = 0,4 − (0,4)2 = 0,24.

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).


Probabilités et statistique 1-620-96 (BAA jour) Section 3, page 3.27

c) On constate que les 3 distributions conjointes sont identiques.

P(X1=x1 , X2=x2) P(X1=x1 , X3=x3) P(X2=x2 , X3=x3)


x2 x3 x3
0 1 0 1 0 1
x1 0 240/720 192/720 x1 0 240/720 192/720 x2 0 240/720 192/720
=0,33333 =0,26667 =0,33333 =0,26667 =0,33333 =0,26667
1 192/720 96/720 1 192/720 96/720 1 192/720 96/720
=0,26667 =0,13333 =0,26667 =0,13333 =0,26667 =0,13333

On déduit que Cov(X1, X2) = Cov(X1, X3) = Cov(X2, X3) = −0,02667.

Détails des calculs :


E(X1X2) = (0 x 0 x ...) + (0 x 1 x ...) + (1 x 0 x ...) + (1 x 1 x 0,13333) = 0,13333 et
Cov(X1, X2) = E(X1X2) − E(X1)E(X2) = 0,13333 − (0,4 x 0,4) = −0,02667

d) E(X) = E(X1) + E(X2) + E(X3), mais Var(X) ≠Var(X1) + Var(X2) + Var(X3).


Ceci s'explique comme suit.
L'espérance d'une somme de variables aléatoires est toujours égale à la somme
de leurs espérances respectives.
Par contre, la variance d'une somme de variables aléatoire doit tenir compte des
diverses covariances. Lorsque celles-ci sont nulles, la variance de la somme est
égale à la somme des variances. Dans ce cas-ci, les covariances sont non nulles.
D'où : Var(X) = Var(X1 + X2 + X3) = Var(X1) + Var(X2) + Var(X3)
+ 2Cov(X1, X2) + 2Cov(X1, X3) + 2Cov(X2, X3).

Copyright  2001. École des Hautes Études Commerciales, Montréal (Québec).

Vous aimerez peut-être aussi