Combinatoire-prob-Var Aleatoires-M
Combinatoire-prob-Var Aleatoires-M
Combinatoire-prob-Var Aleatoires-M
Analyse combinatoire
L’analyse combinatoire est une branche des mathématiques qui étudie comment comp-
ter les objets. Elle fournit des méthodes de dénombrements particulièrement utile en théorie
des probabilités.
2.1 Introduction
L’analyse combinatoire a pour but de compter les dispositions qui peuvent être formées
à partir des éléments d’un ensemble fini d’objets. Un objet est caractérisé par :
la place qu’il occupe dans la disposition ;
le nombre de fois où il peut apparaı̂tre.
Exemple 2.1. On considère un ensemble E ayant trois éléments E = {a, b, c}. Choisir
deux éléments dans cet ensemble peut se faire de plusieurs façons différentes.
Le tableau suivant, nous donne tous les cas possibles :
disposition avec répétition sans répétition
avec ordre (ordonnée) aa, ab, ac, ba, bb, bc, ca, cb, cc ab, ac, ba, bc, ca, cb
sans ordre (non ordonnée) aa, ab, ac, bb, bc, cc ab, ac, bc
25
H.Gharout Analyse combinatoire
n! = n × (n − 1) × (n − 2) × ... × 3 × 2 × 1.
Par convention, on a : 0! = 1.
Exemple 2.2.
5! = 5 × 4 × 3 × 2 × 1 = 120.
10! = 10 × 9 × 8 × 7 × 6 × 5 × 4 × 3 × 2 × 1 = 3628800.
2.2 Arrangements
Définition 2.1. Étant donné un ensemble E de n objets, un arrangement de p de ces
objets est une suite ordonnée de p objets pris parmi ces n objets.
n!
Apn = n × (n − 1) × (n − 2)..... × (n − p + 1) = ,
(n − p)!
avec 1 ≤ p ≤ n.
Dans un arrangement sans répétition, les p objets de la liste sont tous distincts. Cela
correspond à un tirage sans remise et avec ordre.
Exemple 2.3. Combien de mots de trois lettres ne contenant pas plus d’une fois la même
lettre peut-on former avec les lettres de l’alphabet ?
26!
A326 = = 26 × 25 × 24 = 15600 mots.
(26 − 3)!
26
H.Gharout Analyse combinatoire
| × n ×{zn... × n}
np = n
p fois
avec 1 ≤ p ≤ n.
Dans un arrangement sans répétition, les p objets de la liste ne sont pas nécessairement
tous distincts. Cela correspond à un tirage avec remise et avec ordre.
Exemple 2.4. Combien de mots de deux lettres peut-on former avec les lettres de l’al-
phabet ?
262 = 26 × 26 = 676 mots.
2.3 Permutations
Définition 2.2. Étant donné un ensemble E de n objets. On appelle permutation de n
objets distincts toute suite ordonnée de n objets ou tout arrangement n à n de ces
objets.
Pn = n!.
Remarque 2.1.
n!
Pn = Ann == = n!.
(n − n)!
Exemple 2.5. Le nombre de manières de placer huit convives (invités) autour d’une table
est
P8 = 8! = 40320.
27
H.Gharout Analyse combinatoire
2.4 Combinaisons
2.4.1 Combinaison sans répétitions (sans remises)
Définition 2.3. Étant donné un ensemble E de n objets. On appelle combinaisons de p
objets tout ensemble de p objets pris parmi les n objets sans remise.
Remarque 2.2.
Anp n!
Cnp = = .
p! (n − p)!p!
Exemple 2.7. Le tirage au hasard de 5 cartes dans un jeu de 32 cartes (main de poker)
est une combinaison avec p = 5 et n = 32. Le nombre de tirages possibles est
5 32!
C32 = = 409696.
(32 − 5)!5!
Exemple 2.8. La formation d’une délégation de 2 étudiants parmi un groupe de 20 consti-
tue une combinaison avec p = 2 et n = 20. Le nombre de délégations possibles est
2 20!
C20 = = 190.
(20 − 2)!2!
28
H.Gharout Analyse combinatoire
p (n + p − 1)!
Cn+p−1 = .
p!(n − 1)!
Exemple 2.9. Soit la constitution de mots de 3 lettres à partir d’un alphabet à 5 lettres
avec remise.
Le nombre de mots est
3
C5+3−1 = C73 = 35.
On distingue 3 cas possibles :
C53 nombre de mots de 3 lettres différentes et sans ordre ;
2C52 nombre de mots de 2 lettres différentes et une lettre redondante ;
C51 nombre de mots de 3 lettres identiques ;
au total, on a C53 + 2C52 + C51 = C73 = 35 mots possibles.
29
H.Gharout Analyse combinatoire
(a + b)n .
∑
n
n
(a + b) = Cnp an−p bp
p=0
∑
4
(a + b) 4
= C4p a4−p bp
p=0
Pour n = 5,
(a + b)5 = a5 + 5a4 b + 10a3 b2 + 10a2 b3 + 5ab4 + b5 .
∑
Remarque 2.3. Lorsque a = b = 1, on a (1 + 1)n = 2n et 2n = np=0 Cnp . Alors
30
Chapitre 3
3.1.2 Événement
Un événement de Ω est un sous ensemble de Ω. Un événement peut être élémentaire
(un seul élément) ou composé (plusieurs éléments).
Exemple 3.3. Lorsqu’on jette un dé à six faces numérotées Ω = {1, 2, 3, 4, 5, 6},
l’événement A : ”avoir le chiffre 2”, est un événement élémentaire A = {2} ⊂ Ω.
l’événement B : ”avoir un chiffre pair”, est un événement composé B = {2, 4, 6} ⊂ Ω.
31
H.Gharout Théorie des probabilités
Exemple 3.4. Dans l’exemple précédent (exemple 3.3) A = {2} ⊂ B = {2, 4, 6}, si A est
réalisé alors B est réalisé.
Exemple 3.5. Si on prend l’événement B dans l’exemple précédent, ”avoir un chiffre pair”
B = {2, 4, 6} ; alors son événement contraire B est ”avoir un chiffre impair” B = {1, 3, 5}.
32
H.Gharout Théorie des probabilités
A et B sont incompatibles ⇔ A ∩ B = ∅.
Exemple 3.7. Dans le jet d’un dé (une fois), on a : Ω = {1, 2, 3, 4, 5, 6}.
Les événements A1 = {1}, A2 = {2}, A3 = {3}, A4 = {4}, A5 = {5} et A6 = {6} forment
un système complet d’événements.
0 ≤ p(A) ≤ 1.
33
H.Gharout Théorie des probabilités
p(A) = 1 − p(A).
En effet,
Exemple 3.8. Reprenons l’exemple du jet d’un dé à 6 faces équilibrées, où
Ω = {1, 2, 3, 4, 5, 6}
34
H.Gharout Théorie des probabilités
Exemple 3.10. Dans le jet du dé à 6 faces équilibrées, considérons les événements :
On a
A = {2, 4, 6}, B = {3, 6} et A ∩ B = {6},
alors
3 2 1
p(A) = , p(B) = et p(A ∩ B) = .
6 6 6
D’où
3 2 1 4
p(A ∪ B) = p(A) + p(B) − P (A ∩ B) = + − = .
6 6 6 6
En effet,
4
A ∪ B = {2, 3, 4, 6} ⇒ p(A ∪ B) = .
6
35
H.Gharout Théorie des probabilités
(i) On a
2
p(A1 ) =
5
et la probabilité de tirer une boule rouge au deuxième tirage, sachant que on a tiré
une boule rouge au premier tirage est :
1
p(A2 /A1 ) = .
4
36
H.Gharout Théorie des probabilités
Exemple 3.12. Une urne contient trois boules blanches et deux boules noires. On tire
deux boules successivement et sans remise.
Quelle est la probabilité pour que la première boule soit noire et que la deuxième soit
blanche ?
Solution
Posons les événements suivants :
A : ”tirer une boule noire au premier tirage”.
B : ”tirer une boule blanche au deuxième tirage”.
On a
2 3
p(A) = et p(B/A) = ,
5 4
d’où
3 2 3
p(A ∩ B) = p(B/A)p(A) = × = .
4 5 10
37
H.Gharout Théorie des probabilités
Conclusion
p(A ∩ B) p(A)p(B)
p(A/B) = = = p(A).
p(B) p(B)
Exemple 3.13. Dans le jet d’un dé à six faces numérotées, considérons les événements :
A : ”avoir un nombre pair”.
B : ”avoir un multiple de 3”.
On a donc A = {2, 4, 6}, B = {3, 6} et A ∩ B = {6}.
Alors p(A) = 63 , p(B) = 26 et p(A ∩ B) = 16 .
On a aussi, p(A) × p(B) = 36 × 62 = 16 .
Donc p(A ∩ B) = p(A) × p(B) = 16 , c’est-à-dire A et B sont indépendants.
identiquement équivalent à
∑
n
p(B) = p(B/Ai )p(Ai ).
i=1
Solution
Posons les événements suivants :
A : ”le comprimé provient de la machine A” ;
B : ”le comprimé provient de la machine B” ;
C : ”le comprimé provient de la machine C” ;
D : ”le comprimé est défectueux”.
38
H.Gharout Théorie des probabilités
On a
p(A) = 0.4, p(B) = 0.35, p(C) = 0.25,
p(D/A) = 0.05, p(D/B) = 0.06, p(D/C) = 0.03.
A, B et C forment un système complet d’événements, alors la probabilité qu’un comprimé
pris au hasard soit défectueux (en utilisant la formule des probabilités totales) est :
39
H.Gharout Théorie des probabilités
p(B/Ai )p(Ai ))
p(Ai /B) = .
p(B/A1 )p(A1 ) + p(B/A2 )p(A2 ) + ... + p(B/An )p(An )
Solution
40
Chapitre 4
Variables aléatoires
Après avoir réalisé une expérience, on s’intéresse souvent à une certaine fonction du
résultat et non au résultat en lui-même. Un nombre est associé à chaque résultat de
l’expérience : nombre de particules émises par un élément radioactif durant un intervalle
de temps donné, puissance moyenne d’un “bruit” accompagnant la réception d’un signal
radio, nombre d’enfants dans une famille, etc. Ces grandeurs (ou fonctions) auxquelles on
s’intéresse sont en fait des fonctions réelles définies sur l’ensemble fondamental et sont ap-
pelées variables aléatoires.
On considère un ensemble Ω muni d’une probabilité P .
Définition 4.1. Une variable aléatoire X est une application de l’ensemble fondamental
Ω dans R, X : Ω → R, telle que que l’inverse de chaque intervalle de R est un événement
de Ω.
Exemple 4.1. En lançant un dé à six faces numérotées et en observant la face supérieure,
l’ensemble fini des valeurs obtenues est : 1, 2, 3, 4, 5 et 6.
41
H.Gharout Variables aléatoires
xi x1 x2 x3 ... xn
p(X = xi ) p(X = x1 ) p(X = x2 ) p(X = x3 ) ... p(X = xn )
Exemple 4.2. On jette une paire de dès bien équilibrés et on obtient l’ensemble fonda-
mental Ω dont les éléments sont les 36 couples ordonnés des nombres allant de 1 à 6.
Ω = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), (2, 2), ..., (6, 5), (6, 6)}.
On suppose que la v.a. X est le maximum de point (a, b) de Ω, c’est-à-dire X(a, b) =
max(a, b) ; alors X sera définie par :
X(Ω) = {1, 2, 3, 4, 5, 6}.
1
p(X = 1) = p({(1, 1)}) = ;
36
3
p(X = 2) = p({(1, 2), (2, 1), (2, 2)}) = ;
36
5
p(X = 3) = p({(1, 3), (2, 3), (3, 1), (3, 2), (3, 3)}) = ;
36
7
p(X = 4) = p({(1, 4), (2, 4), (3, 4), (4, 1), (4, 2), (4, 3), (4, 4)}) = ;
36
de la même façon :
9 11
p(X = 5) = et p(X = 6) = .
36 36
Cette information se résume dans le tableau 4.2.
On suppose maintenant une autre variable aléatoire Y , c’est la somme de composantes
des couples (a, b), c’est-à-dire Y (a, b) = a + b ; alors Y est définie par :
Y (Ω) = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}.
La distribution de Y est donnée dans le tableau 4.3.
42
H.Gharout Variables aléatoires
xi 1 2 3 4 5 6
1 3 5 7 9 11
p(X = xi ) 36 36 36 36 36 36
yi 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
p(Y = yi ) 36 36 36 36 36 36 36 36 36 36 36
2. Fonction de répartition
La fonction de répartition donne la probabilité que la variable aléatoire X prenne
une valeur inférieure à x. La fonction de répartition est définie par :
∑
F (x) = p(X ≤ x) = p(X = xi ).
xi ≤x
43
H.Gharout Variables aléatoires
44
H.Gharout Variables aléatoires
des valeurs prises par X pondérées par les probabilités qui leur sont associées (la valeur
prise en moyenne par cette v.a.), elle est donnée par :
Propriétés de E(X)
45
H.Gharout Variables aléatoires
∑
n
V (X) = E[(X − E(X)) ] = (xi − E(X))2 p(X = xi )
2
i=1
ou
∑
n ∑n
V (X) = E(X ) − (E(X)) =
2 2
x2i p(X = xi ) − ( xi p(X = xi ))2 .
i=1 i=1
Exemple 4.6. Considérons les variables aléatoires X et Y de l’exemple 4.2, avec leurs
moyennes E(X) = 4, 47 et E(Y ) = 7.
• La variance de la variable aléatoire X est donnée par V (X) = E(X 2 ) − (E(X))2 , avec
∑
n
2
E(X ) = x2i p(X = xi )
i=1
1 3 5 7 9 11
= 12 . + 22 . + 32 . + 42 . + 52 . + 62 .
36 36 36 36 36 36
191
= = 21, 97.
36
Par conséquent V (X) = E(X 2 ) − (E(X))2 = 21, 97 − (4, 47)2 = 1, 99 et
√
σ(X) = 1, 99 = 1, 4.
• La variance de la variable aléatoire Y est donnée par V (Y ) = E(Y 2 ) − (E(Y ))2 , avec
∑
n
2
E(Y ) = yi2 p(Y = yi )
i=1
1 2 3 4 5 6 5 4 3 2 1
= 22 + 32 + 42 + 52 + 62 + 72 + 82 + 92 + 102 + 112 + 122
36 36 36 36 36 36 36 36 36 36 36
= = 54, 8.
√
Par conséquent V (Y ) = E(Y 2 ) − (E(Y ))2 = 54, 8 − (7)2 = 5, 8 et σ(Y ) = 5, 8 = 2, 4.
46
H.Gharout Variables aléatoires
Désignons par X une variable aléatoire définie sur Ω, α et β deux constantes réelles.
1. La variance d’une constante est nulle : V (α) = 0, ∀α ∈ R.
2. V (X + α) = V (X), ∀α ∈ R.
3. V (αX) = α2 V (X), ∀α ∈ R.
4. V (αX + β) = α2 V (X), ∀α, β ∈ R.
D’où
1. σ(X + α) = σ(X), ∀α ∈ R.
2. σ(αX) = |α|σ(X), ∀α ∈ R.
Remarque 4.2. Soit X une variable aléatoire de moyenne µ et d’écart type σ, on définit
la variable aléatoire centrée réduite X ∗ correspondant à X par
X −µ
X∗ = ,
σ
avec E(X ∗ ) = 0 et V (X ∗ ) = 1.
Exemple 4.7. Le poids d’un enfant à la naissance est compris entre 2, 7 kg et 5, 6 kg.
47
H.Gharout Variables aléatoires
48
H.Gharout Variables aléatoires
Exemple 4.8. Soit X une variable aléatoire ayant une densité de probabilité (fonction de
distribution) : { 1
2
(2 − x), si 0 ≤ x ≤ 2 ;
f (x) =
0, si x ∈] − ∞, 0[∪]2, +∞[.
1. La densité de probabilité vérifie :
∫ +∞
f (x) ≥ 0, ∀x ∈ [0, 2] et f (x)dx = 1.
−∞
En effet,
49
H.Gharout Variables aléatoires
50
H.Gharout Variables aléatoires
3. L’espérance de X :
∫ +∞ ∫ 2
E(X) = xf (x)dx = xf (x)dx
−∞ 0
∫ 2
1
= x(2 − x)dx
0 2
∫
1 2
= (2x − x2 )dx
2 0
1 2 x3 2
= [x − ]0
2 3
2 2
= −0= .
3 3
4. La variance de X :
∫ +∞ ∫ 2
V (X) = x f (x)dx − E(X)
2 2
= x2 f (x)dx − E(X)2
−∞ 0
∫ 2
1 2 2
= x (2 − x)dx − ( )2
0 2 3
∫ 2
1 2
= (2x2 − x3 )dx − ( )2
2 0 3
4
1 2 3 x 2 2
= [ x − ]0 − ( )2
2 3 4 3
2 4 2
= − = .
3 9 9
√ √ √
2 2
5. L’écart type de X : σ(X) = V (X) = 9
= 3
.
La médiane d’une variable aléatoire continue est le nombre réel M e tel que
1
F (M e) = 0.5 = .
2
Autrement dit, la médiane c’est la valeur M e de X tel que p(X < M e) = 0.5.
Le mode
51
H.Gharout Variables aléatoires
52
Chapitre 5
p(A) = p, 0 ≤ p ≤ 1;
p(A) = 1 − p = q, 0 ≤ q ≤ 1.
X Bernoulli(p)
Espérance mathématique
E(X) = p.
En effet,
∑
1
E(X) = xi p(X = xi ) = 0.q + 1.p = p.
i=0
Variance
La variance de cette variable aléatoire qui suit une loi de Bernoulli(p) est :
V (X) = p.q
53
H.Gharout Lois usuelles
En effet,
= p − p2
= p(1 − p) = p.q
Écart type
k 0 1 E(X) = p
p(X = k) p(X = 0) = q p(X = 1) = p V (X) = p.q
√
0≤q≤1 0≤p≤1 σ(X) = p.q
Exemple 5.1. On jette un dé équilibré et on s’intéressera au résultat ”avoir le chiffre 2”.
A : ”obtenir le chiffre 2 sur la surface supérieure du dé”.
54
H.Gharout Lois usuelles
Espérance mathématique
E(X) = n.p
En effet,
∑n
E(X) = E( Xi ) où chaque Xi est une v.a. de Bernoulli
i=1
= E(X1 + X2 + ... + Xn )
= E(X1 ) + E(X2 ) + ... + E(Xn )
∑n ∑
n
= E(Xi ) = p = np.
i=1 i=1
Variance
La variance de cette variable aléatoire qui suit une loi de binomiale B(n, p) est :
V (X) = n.p.q
55
H.Gharout Lois usuelles
En effet,
∑n
V (X) = V ( Xi ) où chaque Xi est une v.a. de Bernoulli
i=1
= V (X1 + X2 + ... + Xn )
= V (X1 ) + V (X2 ) + ... + V (Xn )
∑n ∑
n
= V (Xi ) = pq = npq.
i=1 i=1
Écart type
Exemple 5.2. On reprend l’exemple du dé et on refait l’expérience du jet 5 fois (on jette
le dé 5 fois). On s’intéressera au nombre de fois, où on obtient un 2.
A : ”obtenir un 2 sur la surface supérieure du dé”.
p(A) = p = 16 et p(A) = q = 1 − p = 56 .
X suit une loi Binomiale B(n, p) = β(5, 61 ).
1 5
p(X = k) = Cnk .pk .q (n−k) = C5k .( )k .( )(5−k) .
6 6
1. Quelle est la probabilité d’obtenir :
(a) deux fois le chiffre 2 ?
(b) au moins trois fois le chiffre 2 ?
2. Calculer E(X), V (X) et σ(X).
Solution :
1. La probabilité d’obtenir :
56
H.Gharout Lois usuelles
λk
∀k ∈ N, p(X = k) = e−λ , e = 2, 718...
k!
57
H.Gharout Lois usuelles
Exemple 5.3. Une centrale téléphonique reçoit en moyenne 300 appels par heure. Quelle
est la probabilité que durant une minute, la centrale reçoit exactement deux appels ?
Solution :
Les appels dans cette centrale suivent une loi de poisson de paramètre λ = 300
60
= 5 appels
par minutes en moyenne.
λk 52
p(X = 2) = e−λ = e−5
k! 2!
= 0, 08422.
Exemple 5.4. Sur une autoroute, il y a en moyenne deux accidents par semaine.
Quelle est la probabilité qu’il y aura cinq accidents durant un week-end ?
Solution : La loi de X du nombre d’accidents sur cette route suit une loi de Poisson de
paramètre λ = 2 et la probabilité qu’il y aura cinq accidents durant un week-end est
λk 25
p(X = 5) = e−λ = e−2 = 0, 0361.
k! 5!
58
H.Gharout
59
Figure 5.2 – Table de la loi de Poisson pour k variant de 0 à 30.
Lois usuelles
H.Gharout Lois usuelles
3. Cette loi binomiale B(40; 0.1) est approchée par une loi de Poisson P(λ) :
(n = 40 > 25 et np = 4 < 5) ⇒ Binomiale B(40; 0.1) Poisson P(λ), λ = np = 4.
λk 4k
p(X = k) = e−λ = e−4 .
k! k!
4. Calcul de p(X = 2) et p(X = 5) :
2
−4 4
p(X = 2) = e = 0, 14653.
2!
45
p(X = 5) = e−4 = 0, 15629.
5!
60
H.Gharout Lois usuelles
Soit X une variable aléatoire. On dit que X suit une loi normale ou Laplace-Gauss de
paramètres m (ou µ) et σ (m ∈ R et σ ∈ R∗+ ), si sa densité de probabilité est définie par :
1 −1 x−m 2
f (x) = √ e 2 ( σ ) ,
σ 2π
avec x ∈ R, E(X) = m et σ est l’écart type de la v.a. X.
61
H.Gharout Lois usuelles
Fonction de répartition
Figure 5.4 – Fonctions de répartition de la loi Normale N (µ, σ) avec variation des pa-
ramètres µ et σ. La courbe en couleur rouge est associée à la loi Normale centrée réduite
N (0, 1).
62
H.Gharout Lois usuelles
X − E(X) 1
E( ) = (E(X) − E(X)) = 0;
σ(X) σ(X)
X − E(X) 1 σ 2 (X)
V( ) = (V (X)) = = 1.
σ(X) σ 2 (X) σ 2 (X)
Théorème 5.2. Soit X une variable aléatoire continue suivant une loi normale N (m, σ).
Si on applique le changement de variable Z = X−mσ
et le changement de bornes correspon-
x−m
dantes z = σ , on a :
X −m x−m
FX (x) = p(X ≤ x) = p( ≤ ) = p(Z ≤ z) = FZ (z).
σ σ
La variable aléatoire Z suit une loi normale centrée réduite N (0, 1).
X −m
Si X N (m, σ) alors Z = N (0, 1).
σ
Densité de probabilité de Z
1 −1 2
f (z) = √ e 2 z , z ∈ R.
2π
Fonction de répartition de Z
∫ z
1 −1 2
FZ (z) = √ e 2
t
dt.
2π −∞
Propriété 5.1. Si la variable aléatoire Z suit une loi normale centrée réduite N (0, 1),
alors :
63
H.Gharout Lois usuelles
1. f (z) = f (−z) ;
∫0 ∫ +∞ ∫ +∞
2. −∞ f (t)dt = 0 f (t)dt = 12 −∞ f (t)dt = 12 ;
∫ −z ∫ +∞
3. ∀z ∈ R+ , on a −∞ f (t)dt = z f (t)dt ;
4. ∀z ∈ R+ , on a FZ (−z) = 1 − FZ (z).
Exemple 5.6. On suppose qu’une certaine variable aléatoire Z suit une loi normale centrée
réduite N (0, 1).
1. Pour quelle proportion d’individus on a Z ≤ 1, 56 ?
2. Pour quelle proportion d’individus on a Z ≥ 1, 49 ?
3. Calculer p(Z ≤ −1, 1).
Solution
1. Calcul de p(Z ≤ 1, 56) :
La valeur de p(Z ≤ 1, 56) = F (1, 56) sera déduite à partir de la table de la loi normale
centrée réduite ; pour cela on cherche 1, 56 dans la table :
Donc p(Z ≤ 1, 56) = 0, 9406.
Pour 94, 06% des individus, la variable aléatoire Z est inférieure à 1, 56.
2. Calcul de p(Z ≥ 1, 49) :
p(Z ≥ 1, 49) = 1 − p(Z ≤ 1, 49)
= 1 − F (1, 49).
On cherche 1, 49 dans la table :
Donc p(Z ≤ 1, 49) = 0, 9319, alors p(Z ≥ 1, 49) = 1 − 0, 9319 = 0, 0681.
64
H.Gharout Lois usuelles
1, 94 − 2 2, 02 − 2
p(1, 94 ≤ X ≤ 2, 02) = p( ≤Z≤ )
0, 16 0, 16
= p(−0, 375 ≤ Z ≤ 0, 125)
= p(Z ≤ 0, 125) − p(Z ≤ −0, 375)
= FZ (0, 125) − FZ (−0, 375) = FZ (0, 125) − [1 − FZ (0, 375)]
= 0, 5497 − [1 − 0, 6462] = 0, 1959.
65
H.Gharout Lois usuelles
1 −1 k−m 2
p(X = k) ≃ √ e 2 ( σ ) quand n → +∞, c’est à dire N (m; σ),
σ 2π
avec m = E(X) = n.p et σ 2 = V (X) = n.p.q, avec q = 1 − p.
Remarque 5.2. On considère que l’approximation est valable si pour n > 25, on a à la
fois np > 5 et nq > 5.
En résumé, on a :
Si n > 25,
np > 5, alors la loi binomiale B(n; p) loi Normale N (m; σ)
√
nq > 5, avec m = np et σ = n.p.q.
Exemple 5.8. Reprenons l’exemple 5.5, en considérant 100 hommes au lieu de 40. rap-
pelons que la probabilité qu’un homme soit atteint d’une maladie M est p = 0, 1 et la
probabilité qu’il ne soit pas atteint de cette maladie est q = 1 − p = 0, 9. Soit k le nombre
d’hommes touchés par la maladie et X la variable aléatoire qui compte le nombre d’hommes
malades.
1. Quelle est la loi que suit la v.a. X ? Donner sa loi de distribution p(X = k).
2. Calculer E(X), V (X) et σ(X).
3. Par quelle loi peut-on approcher la loi de X ?
4. Calculer p(X ≤ 2) et p(2 ≤ X ≤ 10).
Solution :
3. Cette loi binomiale B(100; 0.1) est approchée par une loi de normale N (m; σ) :
(n = 100 > 25, np = 10 > 5 et nq = 90 > 5 ) ⇒ binomiale B(100; 0.1) normale N (m, σ),
66
H.Gharout Lois usuelles
√
avec m = np = 10 et σ = n.p.q = 3.
1 −1 k−m 2 1 −1 k−10 2
p(X = k) ≃ √ e 2 ( σ ) = √ e 2 ( 3 ) .
σ 2π 3 2π
4. Calcul de p(X ≤ 2) et p(2 ≤ X ≤ 10) :
X −m 2−m X − 10 2 − 10
p(X ≤ 2) = p( ≤ ) = p( ≤ )
σ σ 3 3
−8 −8
= p(Z ≤ ) = F ( ) où Z est la loi normale centrée réduite
3 3
8
= 1 − F ( ) = 1 − F (2, 66666)
3
≃ 1 − 0, 980... ≃ 0, 02.
2−m X −m 10 − m 2 − 10 10 − 10
p(2 ≤ X ≤ 10) = p( ≤ ≤ ) = p( ≤Z≤ )
σ σ σ 3 3
10 − 10 2 − 10 0 −8
= p(Z ≤ ) − p(Z ≤ ) = p(Z ≤ ) − p(Z ≤ )
3 3 3 3
−8 8
= F (0) − F ( ) = F (0) − [1 − F ( )]
3 3
= F (0) − [1 − F (2, 66666)] ≃ 0, 5 − [1 − 0, 980...]
≃ 0, 5 − 0, 02 = 0, 48.
Remarque. Les valeurs de F (2, 66666) et F (0) sont déduites de la table de la loi
normale centrée réduite.
1 −1 k−λ
( √ )2
p(X = k) ≃ √ √ e 2 λ quand n → +∞,
λ 2π
avec E(X) = λ et V (X) = λ.
Remarque 5.3. On considère que l’approximation est valable si λ > 20.
√
Si λ > 20, alors la loi de Poisson P(λ) est approchée par la loi normale N (λ; λ).
67
H.Gharout Lois usuelles
Utilisation : On lit les décimales dans les lignes et les centièmes en colonnes.
Par exemple, la valeur de F (1.54) se trouve à l’intersection de la ligne 1.5 et de la colonne
0.04 et on trouve F (1.54) = 0.9382 à 10−4 près.
68
Bibliographie
69