Chap 5
Chap 5
Chap 5
I Convergence
Définition 1
Soient (Xn )n∈N une suite de variables aléatoires et X une v.a. définies sur (Ω, T , P ). On dit que
(Xn )n∈N converge en Probabilité vers X si :
∀ε > 0, lim P [| Xn − X |≥ ε] = 0.
n→+∞
De façon équivalente,
∀ε > 0, lim P [| Xn − X |< ε] = 1.
n→+∞
On note par :
P
Xn −−−−−→ X.
n−→+∞
Exercice 1 :
P
Montrer que si Xn ∼ N (0, √1n ), alors Xn −−−−−→ 0.
n−→+∞
Réponse :
Soit ε > 0, on a P [| Xn − 0 |< ε] = P [−ε < Xn < ε]. En plus, comme Xn ∼ N (0, √1n ) alors
Xn − 0 √
1 = nXn ∼ N (0, 1), ce qui donne :
√
n
√ √ √
lim P [| Xn − 0 |< ε] = lim P [−ε n < nXn < ε n]
n→+∞ n→+∞
√ √
= lim (π(ε n) − π(−ε n))
n→+∞
= 1 − 0 = 1.
P
Conclusion : Xn −−−−−→ 0.
n−→+∞
La variance et l’écart-type expriment une dispersion plus ou moins grande des valeurs prises
par X autour de sa moyenne E(X). Plus la variance V (X) est petite plus la probabilité que la v.a.
X soit loin de sa moyenne E(X) est faible. Le théorème suivant précise ce résultat.
Théorème 1
Inégalité de Bienaymé-Tchebychev
Soit X une variable aléatoire d’espérance E(X) et de variance finie V (X) (l’hypothèse de variance
finie garantit l’existence de l’espérance).
V (X)
P (|X − E(X)| ≥ ε) ≤ .
ε2
Ce résultat s’applique dans des cas très divers, nécessitant la connaissance de peu de propriétés
(seules l’espérance et la variance doivent être connues), et permet de démontrer la loi faible des
grands nombres.
La forme faible de la loi des grands nombres repose sur une convergence en Probabilité, cest-
à-dire quelle affirme que parmi tous les échantillons de valeurs possibles, ceux dont la moyenne
séloigne de la probabilité sont rares, et que cette rareté s’accentue avec la taille de l’échantillon. Ce
phénomène était déjà remarqué dans l’étude statistique sur des jeux de hasard, en astronomie et en
finance notamment.
Théorème 2
Loi faible des grands nombres :
Soit (Xn )n∈N une suite de variables aléatoires indépendantes et de même loi (c.à.d ∀i, m =
n
2 1X
E(Xi ) et σ = V (Xi )). On pose Xn = Xi (c’est la moyenne empirique ou on dit observée
n i=1
sur l’échantillon aléatoire (X1 , X2 , ..., Xn )), alors :
P
Xn −−−−−→ m.
n−→+∞
Démonstration :
On applique l’inégalité de Bienaymé-Tchebychev :
Soit ε > 0, on a :
V (Xn )
P Xn − E(Xn ) ≥ ε ≤ .
ε2
n n
1X 1X 1
Or, E(Xn ) = E( Xi ) = E(Xi ) = × n × m = m.
n i=1 n i=1 n
De plus,
n n n
1X 1 1 X 1 σ2
V (Xi ) = 2 × n × σ 2 =
X
V (Xn ) = V ( X i ) = 2 V ( Xi ) = 2 (car les Xi sont indépen-
n i=1 n i=1 n i=1 n n
dantes).
D’où,
σ2
0 ≤ P Xn − m ≥ ε ≤ 2 .
nε
Ce qui implique en utilisant la définition de convergence en Probabilité :
lim P [| Xn − m |≥ ε] = 0.
n→+∞
Conclusion :
P
Xn −−−−−→ m.
n−→+∞
Corollaire 1
Soit (Xn )n une suite de variables aléatoires indépendantes et de même loi de Bernoulli
B(p) ; 0 < p < 1. Alors :
P
Xn −−−−−→ p.
n−→+∞
Afin de déterminer des approximations de Lois de Probabilités, nous aurons besoin de définir
encore la notion de convergence en Loi.
Définition 2
Soient (Xn )n∈N une suite de variables aléatoires et X une v.a. définies sur (Ω, T , P ). On dit que
(Xn )n∈N converge en Loi vers X si ∀x point de continuité de FX , on a :
On note par :
Loi
Xn −−−−−→ X.
n−→+∞
Remarque 1
Si (Xn )n∈N converge en Probabilité vers la variable aléatoire X, alors (Xn )n∈N converge en Loi vers
la variable aléatoire X.
P Loi
Xn −−−−−→ X =⇒ Xn −−−−−→ X.
n−→+∞ n−→+∞
Théorème 3
Soient (Xn )n∈N une suite de variables aléatoires et X une v.a. qui sont toutes discrètes et définies
sur (Ω, T , P ). On suppose que Xn (Ω) ⊆ X(Ω), ∀n ∈ N.
Loi
(i). Xn −−−−−→ X.
n−→+∞
m
(ii). ∀x ∈ X(Ω), lim P [Xn = x] = P [X = x].
n→+∞
Corollaire 2
(Approximation de la loi Binomiale par la loi de Poisson :) Soient λ > 0 et 0 < pn < 1
telles que lim npn = λ. Soit (Xn )n une suite de variables aléatoires indépendantes et de même
n→+∞
loi Binomiale B(n, pn ). Alors :
Loi
Xn −−−−−→ X,
n−→+∞
où X ∼ P(λ).
Démonstration :
On a Xn (Ω) = {0, 1, ..., n} ⊆ N = X(Ω) et P [Xn = k] = Cnk pkn (1 − pn )n−k .
e−λ λk
Montrer que ∀x ∈ X(Ω), lim P [Xn = k] = P [X = k], avec P [X = k] = .
n→+∞ k!
Nous avons que Cnk = n!
k!(n−k)!
= n(n−1)(n−2)...(n−k+1)
k!
.
k k k
λk
Remarquons que : Cnk ∼ nk! Ce qui donne : Cnk pkn ∼ n k!pn , donc Cnk pkn ∼ .
+∞ +∞ +∞ k!
De plus, on a (1 − pn )n−k = e(n−k) ln(1−pn ) .
Puisque ln(1 − pn ) ∼ −pn car pn ∼ nλ c.à.d pn −−−−→ 0. Alors :
+∞ +∞ n→+∞
En déduit que :
e−λ λk
lim P [Xn = k] = lim Cnk pkn (1 − pn )n−k = = P [X = k].
n→+∞ n→+∞ k!
Remarque 2
En pratique : Nous utilisons l’approximation de la loi Binomiale B(n, p) par la loi de Poisson P(np)
dans les conditions suivantes :
Théorème 4
Théorème Central Limite "T. C. L."
Soit (Xn )n une suite de variables aléatoires indépendantes et de même loi (c.à.d ∀i, m =
n
2 1X
E(Xi ) et σ = V (Xi )). On pose Xn = Xi (c’est la moyenne empirique ou on dit observée
n i=1
sur l’échantillon aléatoire (X1 , X2 , ..., Xn )), alors :
Xn − m Loi
−−−−−→ U.
√σ n−→+∞
n
Où U ∼ N (0, 1).
Conséquences :
Loi
(i). Xn −−−−−→ V , où V ∼ N (m, √σn ).
n−→+∞
n
X Loi √
(ii). Xi −−−−−→ W , où W ∼ N (nm, nσ).
n−→+∞
i=1
Corollaire 3
(Approximation de la loi Binomiale par la loi Normale :) Soit (Xn )n une suite de variables
aléatoires indépendantes et de même loi de Bernoulli B(p) ; 0 < p < 1. Alors :
Où U ∼ N (0, 1).
Conséquences :
Remarque 3 q
En pratique : On approche la loi binomiale B(n, p) par la loi Normale N (np, np(1 − p)) dans les
conditions suivantes :
Corollaire 4
(Approximation du loi Poisson par la loi Normale :) Soit (Xn )n une suite de variables
aléatoires indépendantes et de même loi de Poisson P(λ) ; λ > 0. Alors :
Où U ∼ N (0, 1).
Conséquences :
X1 + X2 + ... + Xn ∼ P(nλ),
et
Loi
X1 + X2 + ... + Xn −−−−−→ W.
n−→+∞
√
Où W ∼ N (nλ, nλ).
Remarque 4 √
En pratique : On approche la loi de Poisson P(nλ) par la loi Normale N (nλ, nλ) si nλ ≥ 15.