Classques Proba Discrètes 2015

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 6

A.H FA .2015-2016.

-
C PGE.RÉDA.SLAOUI .- C LASSIQUES P ROBABILITÉ
MP1
Variables aléatoirs discrètes
Exercice :3
Soit (Ω, T , P) un espace probabilisé , A un événement de Ω de probabilité non nul .Donner une condition
nécessaire et suffisante pour que PA = P
Solution :3
- Si PA = P , alors A est indépendant avec tout événement de Ω ce qui entraine alors que P( A ∩ A) = ( P( A))2
et par suite P( A) ∈ {0, 1} et comme A est de probabilité non nulle alors P( A) = 1
-.Supposons que P( A) = 1 alors P( A) = 0 .Soit B ∈ T , on a P( A ∩ B) ≤ P( A) = 0 ce qui entraine alors que
P( A ∩ B) = P( A) P( B) ce qui prouve alors que A et B sont indépendants et par suite A et B sont indépendants
d’ou le résultat
Exercice :2
1
Soit a ∈]1, +∞[ , on rappelle que la série ∑ a est convergente sa somme est noté ζ ( a)
n ≥1
n
¬ Démontrer que l’on peut définir une probabilité Pa sur N∗ , à l’aide de la suite de réels ( pk )k∈N∗ définie
1
par ∀k ∈ N∗ , pk = a .On considère désormais l’espace probabilités (N∗ , P(N∗ ), Pa )
k ζ ( a)
­ Soit m ∈ N∗ , on note Am = mN∗ , c’est à dire l’ensemble des multiples de l’entier m.Calculer Pa ( Am )
® Donner une condition nécessaire et suffisante sur deux entiers non nuls i et j pour que Ai et A j soient
indépendants
¯ On note pour i ∈ N∗ , pi le i-ème entier premier et Cn l’ensemble
\
des entiers divisibles par aucun nombre
premier pi pour i ∈ [[ 1, n ]]. Calculer Pa (Cn ) et déterminer Cn
n ≥1
+∞   −1
1
° En déduire le développement Eurelien de la fonction ζ :∀ a > 1 , ζ ( a) = ∏ 1−
pia
i =1
Solution :2

¬ La famille ( pk )k définie une probabilité si elle est sommable de somme égale à 1.Comme elles est indexée
1
par N alors ceci est équivalent à la série ∑ pn est convergente .Or a > 1 , alors la série de Reimann ∑ a
n ≥1 n ≥1
n
1
 
+∞ 
ζ ( a)  1
est convergente et par suite ∑   n a  = ζ ( a) ζ ( a) = 1 , d’ou le résultat

n =1

+∞  +∞
 !
1 1 1 1 1
­ Soit m ∈ N∗, on a : Pa ( Am ) = ∑ .
ζ ( a) (km) a
= a
m .ζ ( a) ∑ ka =
ma
k =1 k =1
® Soit (i, j) ∈ (N∗ )2 . Les événements Ai et A j sont indépendants si, et seulement si
1
P( Ai ∩ A j ) = P( Ai ).P( A j ) = a a
i j
Or Ai ∩ A j est l’ensemble des multiples communs des entiers i et j et pare suite Ai ∩ A j = Ai∨ j et par suite
1
P ( Ai ∩ A j ) = , on en déduit alors v que les événements Ai et A j sont indépendants si,et seulement
(i ∨ j ) a
si i.j = i ∨ j ce qui est équivalent à i ∧ j = 1
n
¯ Soit n ∈ N∗ , il est clair que Cn =
\
Ai , comme les pi sont premier entre eux alors d’après la question
i =1
précédente les Ai sont indépendants et donc les Ai aussi et par suite on a :
n n n  
1
P(Cn ) = ∏ P Ai = ∏(1 − P( Ai )) = ∏ 1 − a

i =1 i =1 i =1
pi
\
Cn est l’ensemble des entier naturel qui n’est divisible par aucun nombre premier donc c’est l’entier 1
n ≥1
\
et par suite Cn = {1}.La suite (Cn )n est une suite décroissante d’événements donc d’après
n ≥1

Page :1
A.H FA .2015-2016.-
C PGE.RÉDA.SLAOUI .- C LASSIQUES P ROBABILITÉ
MP1
Variables aléatoirs discrètes

!
+
\ 1
Le théorème de continuité monotone on a lim P (Cn ) = P Cn = P ({1}) = , ce qui entraine alors
n→+∞ ζ ( a)
n =1
+∞  +∞ 
1 −1
 
1 1
que = ∏ 1 − a ce qui donne alors ζ ( a) = ∏ 1 − a
ζ ( a) n =1
pn n =1
pn
Exercice :1
Soient X et Y deux variables aléatoires indépendantes à valeurs dans [[ 1, n ]]
¬ Exprimer E( X ) en fonction de P( X ≥ k)
­ On suppose que les variables X et Y sont indépendantes et suit une loi uniforme .Déterminer l’espérance
de variables suivantes min( X, Y ) , max( X, Y ) et | X − Y |
Solution :1
¬ Soit k ∈ [[ 1, n ]], on ( X ≥ k) = ( X = k) ∪ ( X > k) et comme les événements ( X = k) et ( X > k) sont
incompatibles alors P( X ≥ k) = P([ X = k ]) + P([ X > k]) et par suite
P ([ X = k ]) = P ([ X ≥ k ]) − P ([ X > k]) = P ([ X ≥ k]) − P ([ X ≥ k + 1])
On en déduit alors que
n n n
E( X ) = ∑ k ( P ([X ≥ k]) − P ([X ≥ k + 1])) = ∑ kP ([X ≥ k]) + ∑ kP ([X ≥ k + 1])
k =0 k =1 k =1
n n +1 n
= ∑ kP([X ≥ k]) − ∑ (k − 1) P([X ≥ k]) = P([X ≥ 1] − nP(X ≥ n + 1) + ∑ P([X ≥ k])
k =1 k =2 k =2
n
Comme X (Ω) ⊂ [[ 1, n ]] alors P([ X ≥ n + 1]) = 0 , on conclut alors que E( X ) = ∑ P([X ≥ k])
k =1
­ -. La variable aléatoire min( X, Y ) est une variable aléatoire discrète à valeurs dans [[ 1, n ]]. D’après le
résultat précédent on a
n n n
(∗) : E (min( X, Y )) = ∑ P (min(X, Y ) ≥ k) = ∑ P ([X ≥ k] ∩ [Y ≥ k]) = ∑ P([X ≥ k].P ([Y ≥ k]))
k =1 k =1 k =1
n n
1
Ceci d’une part d’autre part , pour k ∈ [[ 1, n ]], on a P ([ X ≥ k]) = ∑ P ([X = i]) = ∑n et par suite
i =k i=k
n−k+1
P ([ X ≥ k]) = .Comme les variables aléatoires X et Y suivent la même loi uniforme alors
n
n−k+1
P ([ X ≥ k]) = P ([Y ≥ k]) = , en remplaçant dans l’égalité (∗) on obtient
n  !
n n
( n − k + 1)2

1
E (min( X, Y )) = ∑ = 2 ∑ (n + 1) − 2k(n + 1) + k
2 2
k =1
n2 n k =1
(n + 1)2 (n + 1)2 (n + 1)(2n + 1) (n + 1)(2n + 1)
= − + =
n n 6n 6n
-. Il est claire que max( X, Y ) + min( X, Y ) = X + Y , donc par linéarité de l’espérance on obtient
E (max( X, Y )) = E( X ) + E(Y ) − E (min( X, Y )) = 2E( X ) − E (min( X, Y )) car les variables aléatoires
X et Y suivent la même loi , et par suite
(n + 1)(2n + 1) ( n + 1) (4n − 1)(n + 1)
E (max( X, Y )) = n + 1 − = (6n − (2n + 1)) =
6n 6n 6n
-. Il est clair que | X − Y | = 2 max( X, Y ) − ( X + Y ) et par suite
(4n − 1)(n + 1) ( n + 1) ( n2 − 1)
E(| X − Y |) = 2E (max( X, Y )) − 2E( X ) = − ( n + 1) = (−3n + 4n − 1) =
3n 3n 3n
Exercice :2
Soit (Ω, T , P) un espace probabilisé , et X une variable aléatoire réelle prenant ses ses valeurs dans N
n n −1
1.1 Montrer que , pour tout entier naturel non nul n : ∑ kP(X = k) = ∑ P(X > k) − nP(X > n)
k =0 k =0
1.2 On suppose que la variable aléatoire X admet une espérance E( X ) .Montrer que :
+∞
∀n ∈ N , 0 ≤ nP( X > n) ≤ ∑ kP( X = k)
k = n +1
+∞
En déduire que la série ∑ P( X > n) converge , et que ∑ P( X > n) = E( X )
n n =0
1.3 On suppose que la série ∑ P( X > n) est convergente .Montrer que la série ∑ nP( X = n) est convergente
n n
Page :2
A.H FA .2015-2016.-
C PGE.RÉDA.SLAOUI .- C LASSIQUES P ROBABILITÉ
MP1
Variables aléatoirs discrètes
Et que X admet une espérance
1.4 Enoncer le théorème qui vient d’être établit , en faisant intervenir la fonction de répartition
+∞
2 Montrer que si X admet une variance , alors E( X 2 ) = ∑ (2k + 1) P(X > k)
k =0
Solution :2
n n n
1.1 ∑ kP(X = k) = ∑ k ( P([X ≥ k]) − P([X > k])) = ∑ k ( P([X > k − 1]) − P([X > k]))
k =1 k =1 k =1
n n n −1 n
= ∑ kP ([X > k − 1]) − ∑ kP ([X > k]) = ∑ (k + 1) P ([X > k]) − ∑ kP ([X > k])
k =1 k =1 k =0 k =1
n −1
= ∑ P ([X > k]) − nP ([X > n])
k =0
1.2 -.Il est clair que nP ([ X > n]) ≥ 0 et comme X admet une espérance alors la série ∑ kP ([X = k]) est
k
+∞ +∞
convergente .On a nP( X > n) = ∑ nP ([ X = k]) ≤ ∑ kP ([ X = k])
k = n +1 k = n +1
-. Comme la limite, de la suite des restes de la série ∑ kP ([ X = k ]), est nulle alors par encadrement on a
k
lim nP ([ X > n]) = 0 et par suite d’après la première question la série ∑ P ([ X > n]) est convergente de
n→+∞ n
somme égale à E( X )
1.3 -.On suppose que la série ∑ P ([ X > n]) est convergente .D’après la première question on a
n
n n +∞
∀n ∈ N , 0 ≤ ∑ kP ([X = k]) ≤ ∑ P ([X > k]) ≤ ∑ P ([X > n]) , ce qui prouve alors que la suite des
k =0 k =0 n =0
sommes partielles de la série ∑ nP ([ X = n]) est majorée et par suite cette série convergente .
n
-. Comme X admet une espérance alors d’après la deuxième question on a lim nP ([ X > n]) = 0 et par
n→+∞
+∞
par passage à la limite dans l’égalité de la première question , on obtient E( X ) = ∑ P ([X > n])
n =0
1.4 On vient d’établir le théorème suivant : Si X est une variable aléatoire discrète telle que X (Ω) = N alors
X admet une espérance si, et seulement si, la série ∑ P ([ X > n]) auquel cas on a
n
+∞ +∞
E( X ) = ∑ P ([X > n]) = ∑ (1 − FX (n))
n =0 n =0
2 . Supposons que X admet une variance alors X2 admet une espérance c’est à dire la série ∑ n2 P ([ X = n])
n
est convergente .Or
n n n n
∑ k2 P ([X = k]) = ∑ k2 ( P([X > k − 1]) − P([X > k])) = ∑ k2 P([X > k − 1]) − ∑ k2 P([X > k])
k =1 k =1 k =1 k =1
n −1 n n
= ∑ (k + 1)2 P([X > k]) − ∑ k2 P([X > k]) = −n2 P([X > n]) + ∑ (2k + 1) P([X > k]) : (∗)
k =0 k =0 k =1
+∞
On a ∀n ∈ N , 0 ≤ n2 P([ X > n]) ≤ ∑ k2 P([ X = k ]) et comme la série ∑ n2 P([ X = k]) est convergente
k = n +1 n
alors la suite de ses restes tend vers 0 et par suite par encadrement lim n2 P([ X = n]) = 0 et de l’égalité
n→+∞
(∗)on obtient alors la convergence des la série ∑ (2n + 1) P([X > n]) converge et que sa somme est
n ≥0
+∞
∑ (2n + 1) P([X > n]) = ∑ n2 P([X = n])
n ≥0 n =0

Page :3
A.H FA .2015-2016.-
C PGE.RÉDA.SLAOUI .- C LASSIQUES P ROBABILITÉ
MP1
Variables aléatoirs discrètes
Exercice :4
Soit f la fonction définie sur R+ par : f (0) = 0 et ∀ x > 0 , f ( x ) = − x ln( x ).Soit (Ω, T , P) un espace probabilisé
et X une variable aléatoire sur Ω à valeurs dans un ensemble fini E de cardinal N .On appelle entropie de X le
rèel noté H ( X ) défini par : H ( X ) = ∑ f ( P ([ X = x ]))
x∈E
¬ Quel est le signe de H ( X ) ?
­ Calculer H ( X ) lorsque H est constante
® Calculer H ( X ) lorsque X suit une loi uniforme
¯ Montrer que ∑ f ( NP ([ X = x ])) ≤ 0
x∈E
° En déduire une majoration de H ( X )
± Pour quelles variables X l’entropie est -elle minimale ?
² Pour quelle variable X l’entropie est-elle maximale ?
Solution :4
¬ On note que si x ∈]0, 1[ , ln( x ) < 0 donc f ( x ) > 0.De plus f (0) = f (1) = 0 donc f ( x ) ≥ 0 pour tout
x ∈ [0, 1] .Pour tout x ∈ E , P ([ X = x ]) ∈ [0, 1] donc f ( P ([ X = x ])) ≥ 0 .On en déduite que H ( X ) ≥ 0
­ Si X est constante alors il existe a ∈ E tel que P([ X = a]) = 1 et ∀ x ∈ E , x 6= a ⇒ P([ X = x ]) = 0 .On a
donc H ( X ) = 0 puis que f (0) = f (1) = 0
1
® Si X suit une loi uniforme , on a ∀ x ∈ E , P([ X = x ]) = avec N le cardinal de E et donc
  N
1 1 ln N
f ( P([ X = x ])) = − ln = .On en déduit alors que H ( X ) = ln N
N N N
¯ Posons pour x ≥ 0 , g( x ) = f ( x ) + x − 1 .On a , pour x > 0 , g0 ( x ) = − ln x , donc la fonction g
est strictement croissante su ]0, 1] et strictement décroisante sur [1, +∞[ .Son maximum est atteint en 1
seulement et vaut g(1) = 0 ce qui entraine alors que g ≤ 0 (Car on a aussi g(0) = −1 ≤ 0).
On a donc pour x ≥ 0 , g( x ) ≤ 0 , donc f ( x ) ≤ 1 − x avec égalité si, et seulement si, x = 1 .
On a pour x ∈ E , f ( NP([ X = x ])) ≤ 1 − NP ([ X = x ]).En additionnant ces inégalités , on obtient :
∑ f ( NP([X = x])) ≤ ∑ (1 − NP([X = x]))
x∈E x∈E
Et comme ∑ P([X = x]) = 1 alors ∑ (1 − NP([X = x])) = N − N ∑ P([X = x]) = N − N = 0 , d’ou
x∈E x∈E x∈E
l’on déduit : ∑ f ( P([ X = x ])) ≤ 0
x∈E
° On remarque si P([ X = x ]) 6= 0, on a
f ( NP([ X = x ])) = − NP([ X = x ]) ln ( NP([ X = x ]))
= − NP([ X = x ]) ln N − NP([ X = x ]) ln ( P([ X = x ]))
= f ( N ) P([ X = x ]) + N f ( P([ X = x ]))
.Cette égalité reste encore vrai si P([ X = x ]) = 0.On en déduit alors que :
∑ f ( NP([X = x])) = f ( N ) ∑ P([X = x]) + N ∑ f ( P([X = x]))
x∈E x∈E x∈E
= f ( N ) + NH ( X )
f (N)
.On en déduit alors que H ( X ) ≤ − , c’est à dire H ( X ) ≤ ln( N )
N
± On a vu que pour toute variable aléatoire X , H ( X ) ≥ 0 , donc la valeur minimale est 0 .Si X n’est pas
constante alors il existe a ∈ E tel que P([ X = a]) > 0 et comme f ( P([ X = x ])) ≥ 0 si x 6= a alors , on a à
fortiori H ( x ) > 0 .On conclut : L’entropie H ( X ) est minimale c’est à dire est nulle si, et seulement si X est
une variable constante
² On a vu que H ( X ) ≤ ln N et que H ( X ) = ln N si X suit une loi uniforme .Supposons réciproquement
que H ( X ) = ln N d’après la question (6) cela est équivalent à ∑ f ( P([ X = x ])) = 0 , c’est à dire à
x∈E
∑ f ( P([ X = x ])) = ∑ (1 − NP([X = x])) ou encore ∑ f ( NP([ X = x ])) − 1 + NP([ X = x ]) = 0 .
x∈E x∈E x∈E
On a pour tout x ∈ E, f ( NP([ X = x ])) − 1 = NP([ X = x ]) ≤ 0 , cette somme de termes négatifs est
donc nulle si chaque terme est nul .D’après la question (6) cela est équivaut à NP([ X = x ]) = 1 et donc
1
P([ X = x ]) = , pour tout x ∈ E : X suit alors loi uniforme
N
On conclut : L’entropie est maximale c’est à dire égale à ln N si, et seulement si X suit une loi uniforme
Page :4
A.H FA .2015-2016.-
C PGE.RÉDA.SLAOUI .- C LASSIQUES P ROBABILITÉ
MP1
Variables aléatoirs discrètes
Exercice :5
On rappelle que si X est une variable aléatoire discrète , positive , possédant une espérance , alors ∀λ >
E( X )
0 , P ([ X ≥ λ]) ≤ .Soit (Sn )n une variable aléatoire , qui suit une loi binomiale de paramètre (n, p) et
λ
x>0
 
E eλ(Sn −np)
¬ Montrer que , pour λ > 0 , on a P ([Sn − np ≥ nx ]) ≤
enλ.x
2 2 − λ.x )
­ Démontrer que ∀t ∈ R , et ≤ t + et , puis en déduire que P ([Sn − np ≥ nx ]) ≤ en(λ
nx2

® Montrer que : P ([Sn − np ≥ nx ]) ≤ e 4
¯ En déduire l’inégalité de B ernstein :
  nx2
Sn −
P −p≥x ≤ 2e 4
n
Solution :5
¬ La fonction exp est croissante et λ > 0 , donc on a
[Sn − np ≥ nx ] = [λ (Sn − np) ≥ λ.nx ] = [eλ(Sn −np) ≥ eλ.nx ]

La variable aléatoire eλ(Sn −np) possède une espérance car elle est finie .On en déduit en appliquant
l’inégalité de Markov que appliquée à la variable eλ(Sn −np) :  
h i E eλ(Sn −np)
P ([Sn − np ≥ nx ]) = P eλ(Sn −np) ≥ eλ.nx ≤
enλ.x
2
­ -.Il suffit d’étudier les variations de la fonction t 7−→ et − et + t (C’est à vous de le faire)
λ.p et e−λ.q , on obtient
-.En appliquant l’inégalité précédente  àe 
2 q2
  2 p2 2 q2 2 p2
peλ.q + qe−λ.p ≤ p λ.q + eλ + q −λ.p + eλ ≤ peλ + qeλ
2 2
Comme λ2 p2 ≤ λ2 et λ2 q2 ≤ q2 , on en déduit : peλ.q + qeλ.p ≤ ( p + q)eλ ≤ eλ , on a ensuite
2 n
 2
E eλ(Sn −np) ≤ eλ ≤ enλ , puis en utilisant l’inégalité de Markov on a
2
enλ 2
P ([Sn − np ≥ nx ]) ≤ nλ.x
= en(λ −λ.x)
e
® La fonction ϕ : λ 7−→ λ2 − λ.x admet son minimum sur R∗+ en 2x et par suite en prenant λ = x
2 dans la
relation précédente , on obtient :
x2 x2
 

n  −  nx2
4 2 −
P ([Sn − np ≥ nx ]) ≤ e ≤e 4
¯ On remarque que  : 
Sn
− p ≥ x = [|Sn − np| ≥ nx ] = [Sn − np ≥ nx ] ∪ [Sn − np ≤ −nx ]
n
On en déduit que
  nx2
Sn −
P −p ≥x ≤ P ([Sn − np ≥ nx ]) + P ([Sn − np ≤ −nx ]) ≤ 2e 4
n
Exercice :6
On considère un couple de variables aléatoires à valeurs dans N , pour lesquels il existe un réel λ tel que la loi
de ( X, Y ) soit définie par :
(i + j ) λi + j
∀(i, j) ∈ N2 , P ([ X = i ] ∩ [Y = j]) =
ei!j!
¬ Déterminer λ
­ Déterminer la loi de X
® Les variables aléatoires X et Y sont-elles indépendantes ?
¯ Calculer E 2X +Y


Page :5
A.H FA .2015-2016.-
C PGE.RÉDA.SLAOUI .- C LASSIQUES P ROBABILITÉ
MP1
Variables aléatoirs discrètes
Solution :6
(i + j ) λi + j
 
¬ La famille définie la loi conjointe du couple ( X, Y ) si, et seulement si cette famille est
ei!j! (i,j)∈N2
(i + j ) λi + j
sommable de somme égale à 1 . Pour i fixé la série ∑ est convergente de somme
j
ei!j!
+∞ +∞
(i + j ) λi + j λi
σi = ∑ ei!j!
=
ei!
(i + λ)eλ et la série ∑ σi est convergente de somme ∑ σi = 2λ.e2λ−1 , donc
j =0 i i =0
(i + j ) λi + j
 
d’après le théorème de Fubini la famille est sommable de somme 2λ.e2λ−1 .La valeur
ei!j! (i,j)∈N 2

de λ est leréel vérifiant 2λ.e 2λ−1 = 1 .La fonction f : x 7 −→ 2xe2x −1 est strictement croissante sur R∗ et

1 1
comme f = 1 , donc λ =
2 2
­ Soit i ∈ N, on sait que
+∞ +∞ +∞ j +∞
!
(i + j ) λi + j λi λ jλ j λ i e λ −1
P( X = i ) = ∑ P ([ X = i ] ∩ [Y = j]) = ∑ = i∑ +∑ = (i + λ )
j =0 j =0
ei!j! i! j =0
j! j =0
j! i!
1
 i − 
1 e 2

1
Ce qui donne en remplaçant λ par sa valeur que ∀i ∈ N , P ([ X = i ]) = i+ .Un calcul
2 i! 2
1
 j − 
2

1 e 1
tout à fait analogue aurait prouvé que : ∀ j ∈ N , P ([Y = j]) = j+
2 j! 2
1 1 1
® On a P ([ X = 0] ∩ [Y = 0]) = et P ([ X = 0]) .P ([Y = 0]) = e−1 6= .Les variables X et Y ne sont pas
e 4 e
indépendantes
¯ D’après le théorème de transfert la variable 2X +Y admet une espérance si la famille
(i + j ) λi + j (i + j)(2λ)i+ j
   
2 i + j est sommable c’est à dire que la famille est som-
ei!j! (i,j)∈N2 ei!j! (i,j)∈N2
mable .Par une méthode analogue à celle de la première question (ou λ est remplacer par 2λ ) on trouve
(i + j ) λi + j
 
que la famille 2 i + j est sommable de somme égale à :
ei!j! (i,j)∈N2
(i + j ) λi + j
∑ 2i + j
ei!j!
= 4λ.e4λ−1 = 2e .D’ou E(2X +Y ) = 2e
(i,j)∈N2
Exercice :7
Soient X et Y deux variables aléatoires réelles discrète dont le coefficient de corrélation est noté ρ X,Y
¬ Soit ( a, c) ∈ (R∗ )2 et (b, d) ∈ R2 , montrer que ρ aX +b,cY +d = sign( ac).ρ X,Y
­ Quel est la valeur du coefficient de corrélation de X et Y si Y est une fonction affine de X ?
® On suppose
  dans  cettequestion que X et Y admettent des variances non nulle .On pose
1 ρ X,Y
Z= Y− X
σY σX
4.1) Calculer V ( Z )
4.2) Que peut-on en déduire si |ρ X,Y | = 1
Solution :7
C ( aX + b, CY + d) acC ( X, Y ) ac
¬ Nous avons ρ aX +b,cY +d = = = ρ( X, Y ) , donc si a et c sont de
σ( aX + b)σ(cY + d) | ac|σ( X )σ(Y ) | ac|
même signe, alors ρ aX +b,cY +d = ρ( X, Y )
­ On a ρ( X, aX + b) = sign( a)ρ( X, X ) ∈ {−1, 1}
1 ρ2X,Y ρ X,Y 2

2

® On a V ( Z ) = V ( Y ) + V ( X ) − 2 C ( X, Y ) = 1 + 1 − 2ρ X,Y = 2 1 − ρ X,Y
σY2 σX2 σX σY
¯ Si ρ X,Y = 1 , alors V ( Z ) = 0 et par suite la variable Z est constante presque par tout égale à E( Z ) ,
autrement dit il existe deux réels a et b tels que Y = aX + b

Page :6

Vous aimerez peut-être aussi