Combinatoire-prob-Var Aleatoires-M

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 45

Chapitre 2

Analyse combinatoire

L’analyse combinatoire est une branche des mathématiques qui étudie comment comp-
ter les objets. Elle fournit des méthodes de dénombrements particulièrement utile en théorie
des probabilités.

2.1 Introduction
L’analyse combinatoire a pour but de compter les dispositions qui peuvent être formées
à partir des éléments d’un ensemble fini d’objets. Un objet est caractérisé par :
 la place qu’il occupe dans la disposition ;
 le nombre de fois où il peut apparaı̂tre.

2.1.1 Notion de répétition


Si un élément apparaı̂t plus d’une fois dans une disposition, on dit que la disposition
est avec répétition ; sinon, la disposition est dite sans répétition.

2.1.2 Notion d’ordre


Une disposition est dite ordonnée, si lorsqu’à chaque fois qu’un élément change de place
(ou de position) la disposition change.

Exemple 2.1. On considère un ensemble E ayant trois éléments E = {a, b, c}. Choisir
deux éléments dans cet ensemble peut se faire de plusieurs façons différentes.
Le tableau suivant, nous donne tous les cas possibles :
disposition avec répétition sans répétition
avec ordre (ordonnée) aa, ab, ac, ba, bb, bc, ca, cb, cc ab, ac, ba, bc, ca, cb
sans ordre (non ordonnée) aa, ab, ac, bb, bc, cc ab, ac, bc

25
H.Gharout Analyse combinatoire

2.1.3 Factoriel d’un entier n


Étant donné un entier n, le factoriel de n, noté n! est :

n! = n × (n − 1) × (n − 2) × ... × 3 × 2 × 1.

Par convention, on a : 0! = 1.

Exemple 2.2.

5! = 5 × 4 × 3 × 2 × 1 = 120.
10! = 10 × 9 × 8 × 7 × 6 × 5 × 4 × 3 × 2 × 1 = 3628800.

2.2 Arrangements
Définition 2.1. Étant donné un ensemble E de n objets, un arrangement de p de ces
objets est une suite ordonnée de p objets pris parmi ces n objets.

On distingue deux types d’arrangements : avec et sans répétition.

2.2.1 Arrangement sans répétition


On appelle arrangement sans répétition de n objets p à p, toute disposition ordonnée
de p objets choisis parmi les n objets sans répétitions.

Le nombre d’arrangements sans répétition, noté Apn , est :

n!
Apn = n × (n − 1) × (n − 2)..... × (n − p + 1) = ,
(n − p)!
avec 1 ≤ p ≤ n.

Dans un arrangement sans répétition, les p objets de la liste sont tous distincts. Cela
correspond à un tirage sans remise et avec ordre.

Exemple 2.3. Combien de mots de trois lettres ne contenant pas plus d’une fois la même
lettre peut-on former avec les lettres de l’alphabet ?
26!
A326 = = 26 × 25 × 24 = 15600 mots.
(26 − 3)!

26
H.Gharout Analyse combinatoire

2.2.2 Arrangement avec répétition


On appelle arrangement avec répétition de n objets p à p, toute disposition ordonnée
de p objets choisis parmi les n objets avec répétitions.

Le nombre d’arrangements avec répétition est :

| × n ×{zn... × n}
np = n
p fois

avec 1 ≤ p ≤ n.

Dans un arrangement sans répétition, les p objets de la liste ne sont pas nécessairement
tous distincts. Cela correspond à un tirage avec remise et avec ordre.

Exemple 2.4. Combien de mots de deux lettres peut-on former avec les lettres de l’al-
phabet ?
262 = 26 × 26 = 676 mots.

2.3 Permutations
Définition 2.2. Étant donné un ensemble E de n objets. On appelle permutation de n
objets distincts toute suite ordonnée de n objets ou tout arrangement n à n de ces
objets.

2.3.1 Permutation sans répétition


C’est le cas particulier de l’arrangement sans répétition de p objets parmi n objets,
lorsque p = n.

Le nombre de permutations de n objets est :

Pn = n!.

Remarque 2.1.
n!
Pn = Ann == = n!.
(n − n)!
Exemple 2.5. Le nombre de manières de placer huit convives (invités) autour d’une table
est
P8 = 8! = 40320.

27
H.Gharout Analyse combinatoire

2.3.2 Permutation avec répétition


Dans le cas où il existe k objets identiques parmi les n objets, alors
n!
Pn = .
k!
Exemple 2.6. Le nombre de mots possibles (avec ou sans signification) que l’on peut
formé en permutant les 8 lettres du mot ”Quantité”, est
8!
P8 = = 20160 mots, car on a le t 2 fois.
2!
Et en considérant le mot ”Natation”, le nombre de mots possibles est
8!
P8 = = 5040 mots, car on a le n 2 fois, le a 2 fois et le t 2 fois.
2!2!2!

2.4 Combinaisons
2.4.1 Combinaison sans répétitions (sans remises)
Définition 2.3. Étant donné un ensemble E de n objets. On appelle combinaisons de p
objets tout ensemble de p objets pris parmi les n objets sans remise.

Le nombre de combinaisons de p objets parmi n et sans remise, est :


n!
Cnp = ,
(n − p)!p!
avec 1 ≤ p ≤ n.

Remarque 2.2.
Anp n!
Cnp = = .
p! (n − p)!p!
Exemple 2.7. Le tirage au hasard de 5 cartes dans un jeu de 32 cartes (main de poker)
est une combinaison avec p = 5 et n = 32. Le nombre de tirages possibles est

5 32!
C32 = = 409696.
(32 − 5)!5!
Exemple 2.8. La formation d’une délégation de 2 étudiants parmi un groupe de 20 consti-
tue une combinaison avec p = 2 et n = 20. Le nombre de délégations possibles est

2 20!
C20 = = 190.
(20 − 2)!2!

28
H.Gharout Analyse combinatoire

2.4.2 Combinaison avec répétitions (avec remises)


Le nombre de combinaisons de p objets parmi n et avec remise, est :

p (n + p − 1)!
Cn+p−1 = .
p!(n − 1)!

Exemple 2.9. Soit la constitution de mots de 3 lettres à partir d’un alphabet à 5 lettres
avec remise.
Le nombre de mots est
3
C5+3−1 = C73 = 35.
On distingue 3 cas possibles :
 C53 nombre de mots de 3 lettres différentes et sans ordre ;
 2C52 nombre de mots de 2 lettres différentes et une lettre redondante ;
 C51 nombre de mots de 3 lettres identiques ;
au total, on a C53 + 2C52 + C51 = C73 = 35 mots possibles.

2.4.3 Propriétés des combinaisons et binôme de Newton


(1)
n!
Cn0 = Cnn = = 1;
n!
∀n ≥ 1, on a
n!
Cn1 = Cnn−1 = = n;
(n − 1)!
∀n ≥ 2, on a
n(n − 1)
Cn2 = Cnn−2 = ;
2
(2) Par récurrence, on déduit :
Si 0 ≤ p ≤ n, on a
Cnp = Cnn−p .
Combinaisons composées ou formule de Pascal
Si 0 ≤ p ≤ n − 1, on a
p−1 p
Cn−1 + Cn−1 = Cnp .
(3) Binôme de Newton
Le théorème du binôme de Newton donne l’expression générale du développement de

29
H.Gharout Analyse combinatoire

(a + b)n .


n
n
(a + b) = Cnp an−p bp
p=0

= Cn0 an b0 + Cn1 an−1 b1 + . . . + Cnn a0 bn


= an + nan−1 b + . . . + bn .

Exemple 2.10. Pour n = 4, on a


4
(a + b) 4
= C4p a4−p bp
p=0

= C40 a4 b0 + C41 a3 b1 + . . . + C44 a0 b4


= a4 + 4a3 b + 6a2 b2 + 4ab3 + b4 .

Pour n = 5,
(a + b)5 = a5 + 5a4 b + 10a3 b2 + 10a2 b3 + 5ab4 + b5 .

Remarque 2.3. Lorsque a = b = 1, on a (1 + 1)n = 2n et 2n = np=0 Cnp . Alors

2n = Cn0 + Cn1 + Cn2 + . . . + Cnn .

30
Chapitre 3

Rappel sur la théorie des probabilités

3.1 Expérience aléatoire et événement


3.1.1 Expérience aléatoire
Une expérience aléatoire (e.a) est toute expérience dont le résultat est régi par le hasard.
Exemple 3.1. Le jet d’une pièce de monnaie et l’observation de la face supérieure est une
expérience aléatoire qui conduit à deux résultats possibles : Face (F) ou Pile (P).
Définition 3.1. L’ensemble de tous les résultats possibles d’une e.a. est appelé ensemble
fondamental et on le note généralement Ω.
Exemple 3.2. Lorsqu’on jette un dé (à six faces numérotées), si on s’intéresse au nombre
obtenu sur la face supérieure, l’ensemble fondamental est Ω = {1, 2, 3, 4, 5, 6}.

3.1.2 Événement
Un événement de Ω est un sous ensemble de Ω. Un événement peut être élémentaire
(un seul élément) ou composé (plusieurs éléments).
Exemple 3.3. Lorsqu’on jette un dé à six faces numérotées Ω = {1, 2, 3, 4, 5, 6},
l’événement A : ”avoir le chiffre 2”, est un événement élémentaire A = {2} ⊂ Ω.
l’événement B : ”avoir un chiffre pair”, est un événement composé B = {2, 4, 6} ⊂ Ω.

3.2 Relations et opérations entre les événements


3.2.1 Inclusion
Soient A et B deux événements associés à une expérience aléatoire. On dira que A est
inclu dans B (ou A implique B), si la réalisation de A entraı̂ne nécessairement la réalisation

31
H.Gharout Théorie des probabilités

de B. On le note A ⊂ B (ou A ⇒ B).

Exemple 3.4. Dans l’exemple précédent (exemple 3.3) A = {2} ⊂ B = {2, 4, 6}, si A est
réalisé alors B est réalisé.

3.2.2 Événement contraire


On appelle événement contraire de l’événement A le complémentaire de A dans Ω, noté
A, l’événement réalisé lorsque A n’est pas réalisé et vice versa.

Remarque 3.1. Soit A un événement de Ω et A son événement contraire.


1. Si A est réalisé alors A n’est pas réalisé.
2. Si A n’est pas réalisé alors A est réalisé.
3. L’ensemble fondamental Ω est toujours réalisé, on l’appelle événement certain.
Son événement contraire est l’événement impossible, noté ∅.

Exemple 3.5. Si on prend l’événement B dans l’exemple précédent, ”avoir un chiffre pair”
B = {2, 4, 6} ; alors son événement contraire B est ”avoir un chiffre impair” B = {1, 3, 5}.

3.2.3 Union (Disjonction)


On dit que l’événement ”A ou B”, noté (A ∪ B), est réalisé si l’un au moins des deux
événements est réalisé (i.e. A est réalisé ou B est réalisé).

3.2.4 Intersection (Conjonction)


L’événement ”A et B”, noté (A ∩ B), est réalisé lorsque A est réalisé et B est réalisé

32
H.Gharout Théorie des probabilités

3.2.5 Événements incompatibles (disjoints)


Les événements A et B sont dits incompatibles si la réalisation de l’un exclut la
réalisation de l’autre. Autrement dit, si l’un est réalisé l’autre ne se réalisera pas (deux
événements qui ne peuvent se réaliser à la fois) :

A et B sont incompatibles ⇔ A ∩ B = ∅.

Exemple 3.6. B et B sont incompatibles.

3.2.6 Système complet d’événements


Soient Ω l’ensemble fondamentale associé à une expérience aléatoire et A1 , A2 ,..., An des
événements de Ω. Les événements A1 , A2 ,..., An forment un système complet d’événements,
si les conditions suivantes sont vérifiées :
1. Les Ai sont réalisables (Ai ̸= ∅), ∀i = 1, 2, ..., n.
2. Les Ai sont incompatibles 2 à 2 : Ai ∩ Aj = ∅, ∀(i, j) ∈ {1, 2, ..., n}, i ̸= j.
∪n
3. Ai = Ω.
i=1

Exemple 3.7. Dans le jet d’un dé (une fois), on a : Ω = {1, 2, 3, 4, 5, 6}.
Les événements A1 = {1}, A2 = {2}, A3 = {3}, A4 = {4}, A5 = {5} et A6 = {6} forment
un système complet d’événements.

3.3 Définition axiomatique de la probabilité


Soient deux événements A et B dans Ω.
1. La probabilité d’un événement A est un nombre compris entre 0 et 1 :

0 ≤ p(A) ≤ 1.

33
H.Gharout Théorie des probabilités

2. La probabilité de l’événement certain Ω est égale à 1 et la probabilité de l’événement


impossible ∅ est 0 :
p(Ω) = 1 et p(∅) = 0.

3. Soient A et B deux événements incompatibles, (A ∩ B = ∅), alors

p(A ∪ B) = p(A) + p(B).

4. Si A ⊆ B, alors p(A) ≤ p(B).


5. Généralisation à n événements : Soient A1 , A2 ,..., An des événements incompa-
tibles 2 à 2. Alors

n ∑
n
p(A1 ∪ A2 ∪ ... ∪ An ) = p(A1 ) + p(A2 ) + ... + p(An ), i.e. p( Ai ) = p(Ai ).
i=1 i=1

Conséquence. Soit A un événement et A son contraire, alors

p(A) = 1 − p(A).

En effet,

A ∪ A = Ω, donc p(A ∪ A) = p(Ω) ⇔ p(A) + p(A) = p(Ω) = 1


⇔ p(A) = 1 − p(A).

Remarque 3.2. Tout calcul conduisant à des valeurs de probabilités négatives ou


supérieures à 1 est faux.

Exemple 3.8. Reprenons l’exemple du jet d’un dé à 6 faces équilibrées, où

Ω = {1, 2, 3, 4, 5, 6}

avec les événements :

A1 = {1}, A2 = {2}, A3 = {3}, A4 = {4}, A5 = {5} et A6 = {6}.


1
Les événements Ai , i = 1, 2, ..., 6 sont tous incompatibles et p(Ai ) = 6
pour tout i = 1, 6.
A1 ∪ A2 ∪ ... ∪ An = {1, 2, 3, 4, 5, 6} = Ω.
p(A1 ∪ A2 ∪ ... ∪ An ) = p(A1 ) + p(A2 ) + ... + p(An ) = 6 × 16 = 1.

34
H.Gharout Théorie des probabilités

3.4 Définition classique des probabilités


A chaque événement A d’une expérience aléatoire (e.a.) est associé un nombre que l’on
note p(A) compris entre 0 et 1 qui mesure la probabilité de la réalisation de A. Si une e.a.
a N cas possibles et parmi ces N cas, il y a n cas favorables à la réalisation de l’événement
A, on définit la probabilité de la réalisation de A par :

nombre de cas favorables nombre d’éléments de A


p(A) = = .
nombre de cas possibles nombre d’éléments de Ω
D’une manière équivalente
n
p(A) = .
N
Exemple 3.9. Dans le jet d’un dé à six faces équilibrées, soit A l’événement ”avoir un
nombre pair”.
Nombre de cas possibles est 6 : Ω = {1, 2, 3, 4, 5, 6}.
Nombre de cas favorables est 3 : A = {2, 4, 6}.

nombre de cas favorables 3


p(A) = = .
nombre de cas possibles 6
Théorème 3.1. Soient A et B deux événements de l’espace fondamental Ω, alors :

p(A ∪ B) = p(A) + p(B) − P (A ∩ B).

Exemple 3.10. Dans le jet du dé à 6 faces équilibrées, considérons les événements :

A : ”avoir un nombre pair” ;


B : ”avoir un multiple de 3”.

On a
A = {2, 4, 6}, B = {3, 6} et A ∩ B = {6},
alors
3 2 1
p(A) = , p(B) = et p(A ∩ B) = .
6 6 6
D’où
3 2 1 4
p(A ∪ B) = p(A) + p(B) − P (A ∩ B) = + − = .
6 6 6 6
En effet,
4
A ∪ B = {2, 3, 4, 6} ⇒ p(A ∪ B) = .
6

35
H.Gharout Théorie des probabilités

3.5 Probabilités conditionnelles


Considérons le jet de deux dés parfaits et soit A l’événement : ”la somme des points
obtenus est au moins égale à 10”.
Les cas qui donnent au moins 10 sont
6 1
A = {(4, 6), (5, 5), (5, 6), (6, 4), (6, 5)}, et p(A) = = .
36 6
1. Supposons que le premier dé nous donne le chiffre 3 (événement B : ”obtenir le
chiffre 3 sur la surface supérieure du premier dé”). Alors, l’événement A est devenu
irréalisable (A et B incompatibles). Nous dirons que la probabilité de A sachant que
B est réalisé est nulle, et nous écrivons p(A/B) = 0.
2. Supposons maintenant que le premier dé amène un 6 (événement C). Pour atteindre
ou dépasser 10, il faut avoir sur la face supérieure du second dé : 4, 5, ou 6. On aura
3 chance sur 6 et p(A/B) = 63 = 12 .
Définition 3.2. Soient A et B deux événements, tels que p(B) ̸= 0. La probabilité condi-
tionnelle de A sachant que B est réalisé est donnée par la formule :
p(A ∩ B)
p(A/B) = .
p(B)
Exemple 3.11. Une urne contient 2 boules rouges et 3 boules blanches. On tire une boule,
on la garde, puis on tire une autre.
(i) Quelle est la probabilité de tirer une boule rouge au deuxième tirage, sachant que
on a tiré une boule rouge au premier tirage ?
(ii) Quelle est la probabilité d’avoir deux boules rouges au cours des deux tirages (une
boule rouge dans chaque tirage) ?
Solution
Posons les événements suivants :
A1 : ”avoir une boule rouge au premier tirage”.
A2 : ”avoir une boule rouge au deuxième tirage”.
A1 ∩ A2 : ”avoir une boule rouge dans chaque tirage (deux boules rouges)”.

(i) On a
2
p(A1 ) =
5
et la probabilité de tirer une boule rouge au deuxième tirage, sachant que on a tiré
une boule rouge au premier tirage est :
1
p(A2 /A1 ) = .
4

36
H.Gharout Théorie des probabilités

(ii) Par définition


p(A1 ∩ A2 )
p(A2 /A1 ) = ,
p(A1 )
alors
2 1 1
p(A1 ∩ A2 ) = p(A1 ) × p(A2 /A1 ) = × = .
5 4 10

3.6 Formule des probabilités composées


Pour tout événement A et B tels que p(A) ̸= 0 et p(B) ̸= 0, on a :
p(A ∩ B)
p(A/B) = , alors p(A ∩ B) = p(A/B)p(B);
p(B)
p(A ∩ B)
p(B/A) = , alors p(A ∩ B) = p(B/A)p(A).
p(A)
Des deux formules énoncées, on déduit

p(A ∩ B) = p(A/B)p(B) = p(B/A)p(A).

Exemple 3.12. Une urne contient trois boules blanches et deux boules noires. On tire
deux boules successivement et sans remise.
Quelle est la probabilité pour que la première boule soit noire et que la deuxième soit
blanche ?

Solution
Posons les événements suivants :
A : ”tirer une boule noire au premier tirage”.
B : ”tirer une boule blanche au deuxième tirage”.
On a
2 3
p(A) = et p(B/A) = ,
5 4
d’où
3 2 3
p(A ∩ B) = p(B/A)p(A) = × = .
4 5 10

3.7 Événements indépendants


Deux événements A et B sont dit indépendants si la réalisation ou la non réalisation de
l’un ne modifie pas la réalisation ou la non réalisation de l’autre. A et B sont indépendants
si
p(A ∩ B) = p(A)p(B).

37
H.Gharout Théorie des probabilités

Conclusion
p(A ∩ B) p(A)p(B)
p(A/B) = = = p(A).
p(B) p(B)
Exemple 3.13. Dans le jet d’un dé à six faces numérotées, considérons les événements :
A : ”avoir un nombre pair”.
B : ”avoir un multiple de 3”.
On a donc A = {2, 4, 6}, B = {3, 6} et A ∩ B = {6}.
Alors p(A) = 63 , p(B) = 26 et p(A ∩ B) = 16 .
On a aussi, p(A) × p(B) = 36 × 62 = 16 .
Donc p(A ∩ B) = p(A) × p(B) = 16 , c’est-à-dire A et B sont indépendants.

3.8 Formule des probabilités totales


Soient {A1 , A2 , ..., An } une famille d’événements constituant un système complet
d’événements de Ω, c’est-à-dire :

n
Ai ̸= ∅, ∀i = 1, n; Ai ∩ Aj = ∅, ∀i ̸= j et Ai = Ω.
i=1

Soit B un événement quelconque de Ω, alors

p(B) = p(B/A1 )p(A1 ) + p(B/A2 )p(A2 ) + ... + p(B/An )p(An ),

identiquement équivalent à

n
p(B) = p(B/Ai )p(Ai ).
i=1

Exemple 3.14. Trois machines A, B et C produisent respectivement 40%, 35% et 25%


du nombre total de comprimés fabriquées par un laboratoire pharmaceutique. Chacune de
ces machines produit respectivement 5%, 6% et 3% de comprimés défectueux.
Quelle est la probabilité qu’un comprimé pris au hasard, soit défectueux ?

Solution
Posons les événements suivants :
A : ”le comprimé provient de la machine A” ;
B : ”le comprimé provient de la machine B” ;
C : ”le comprimé provient de la machine C” ;
D : ”le comprimé est défectueux”.

38
H.Gharout Théorie des probabilités

On a
p(A) = 0.4, p(B) = 0.35, p(C) = 0.25,
p(D/A) = 0.05, p(D/B) = 0.06, p(D/C) = 0.03.
A, B et C forment un système complet d’événements, alors la probabilité qu’un comprimé
pris au hasard soit défectueux (en utilisant la formule des probabilités totales) est :

p(D) = p(D/A)p(A) + p(D/B)p(B) + p(D/C)p(C)

p(D) == (0.05 × 0.4) + (0.06 × 0.35) + (0.03 × 0.25) = 0.0485.


On peut construire le diagramme en arbre (l’arborescence) des événements, avec
l’événement N = D : ”le comprimé n’est défectueux” (voir figure 3.1).

Figure 3.1 – Arborescence des événements.

3.9 Théorème de Bayes


Dans la formule des probabilités totales, on s’intéresse à la probabilité de réalisation
d’un événement quelconque B, qui est donnée par

p(B) = p(B/A1 )p(A1 ) + p(B/A2 )p(A2 ) + ... + p(B/An )p(An ). (3.1)

39
H.Gharout Théorie des probabilités

Par contre, pour i donné, la probabilité conditionnelle de Ai sachant que l’événement B


est réalisé est définie par
p(Ai ∩ B)
p(Ai /B) = .
p(B)
En utilisant la formule (3.1) et en remplaçant p(Ai ∩ B) par p(Ai ∩ B) = p(B/Ai )p(Ai ),
on aura le théorème suivant :

Théorème 3.2. Théorème de Bayes


Soient A1 , A2 , ..., An un système complet d’événements et B un événement quelconque.
Pour tout i, i ∈ {1, 2, ..., n, on a :

p(B/Ai )p(Ai ))
p(Ai /B) = .
p(B/A1 )p(A1 ) + p(B/A2 )p(A2 ) + ... + p(B/An )p(An )

Exemple 3.15. Dans l’exemple des comprimés défectueux on prend un comprimé


défectueux. Quelle est la probabilité que ce défectueux provient de la machine A ?

Solution

p(D/A)p(A) 0.05 × 0.4


p(A/D) = = = 0.41.
p(D) 0.0485

40
Chapitre 4

Variables aléatoires

Après avoir réalisé une expérience, on s’intéresse souvent à une certaine fonction du
résultat et non au résultat en lui-même. Un nombre est associé à chaque résultat de
l’expérience : nombre de particules émises par un élément radioactif durant un intervalle
de temps donné, puissance moyenne d’un “bruit” accompagnant la réception d’un signal
radio, nombre d’enfants dans une famille, etc. Ces grandeurs (ou fonctions) auxquelles on
s’intéresse sont en fait des fonctions réelles définies sur l’ensemble fondamental et sont ap-
pelées variables aléatoires.
On considère un ensemble Ω muni d’une probabilité P .

Définition 4.1. Une variable aléatoire X est une application de l’ensemble fondamental
Ω dans R, X : Ω → R, telle que que l’inverse de chaque intervalle de R est un événement
de Ω.

On distingue deux types de variables aléatoires :


1. les variables aléatoires discrètes ;
2. les variables aléatoires continues.

4.1 Variables aléatoires discrètes


Définition 4.2. Une variable aléatoire est dite discrète si elle peut prendre un nombre fini
de valeurs isolées (exemple : valeurs entières).

Exemple 4.1. En lançant un dé à six faces numérotées et en observant la face supérieure,
l’ensemble fini des valeurs obtenues est : 1, 2, 3, 4, 5 et 6.

41
H.Gharout Variables aléatoires

4.1.1 Loi de probabilité d’une variable aléatoire discrète


Soit X une variable aléatoire sur un ensemble fondamental Ω à valeurs finies, c’est à
dire X(Ω) = {x1 , x2 , ..., xn }. Si l’on définit la probabilité p(X = xi ) = pi des valeurs xi .
Cette probabilité p(X = xi ) = pi , est appelée la distribution ou la loi de probabilité de X,
que l’on donne habituellement sous la forme du tableau suivant (tableau 4.1) :

xi x1 x2 x3 ... xn
p(X = xi ) p(X = x1 ) p(X = x2 ) p(X = x3 ) ... p(X = xn )

Table 4.1 – La loi d’une variable aléatoire

La loi de probabilité satisfait les conditions :



n
0 ≤ p(X = xi ) ≤ 1 et p(X = xi ) = 1.
i=1

Exemple 4.2. On jette une paire de dès bien équilibrés et on obtient l’ensemble fonda-
mental Ω dont les éléments sont les 36 couples ordonnés des nombres allant de 1 à 6.
Ω = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), (2, 2), ..., (6, 5), (6, 6)}.
On suppose que la v.a. X est le maximum de point (a, b) de Ω, c’est-à-dire X(a, b) =
max(a, b) ; alors X sera définie par :
X(Ω) = {1, 2, 3, 4, 5, 6}.

1
p(X = 1) = p({(1, 1)}) = ;
36
3
p(X = 2) = p({(1, 2), (2, 1), (2, 2)}) = ;
36
5
p(X = 3) = p({(1, 3), (2, 3), (3, 1), (3, 2), (3, 3)}) = ;
36
7
p(X = 4) = p({(1, 4), (2, 4), (3, 4), (4, 1), (4, 2), (4, 3), (4, 4)}) = ;
36
de la même façon :
9 11
p(X = 5) = et p(X = 6) = .
36 36
Cette information se résume dans le tableau 4.2.
On suppose maintenant une autre variable aléatoire Y , c’est la somme de composantes
des couples (a, b), c’est-à-dire Y (a, b) = a + b ; alors Y est définie par :
Y (Ω) = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}.
La distribution de Y est donnée dans le tableau 4.3.

42
H.Gharout Variables aléatoires

xi 1 2 3 4 5 6
1 3 5 7 9 11
p(X = xi ) 36 36 36 36 36 36

Table 4.2 – La distribution de la v.a. X.

yi 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
p(Y = yi ) 36 36 36 36 36 36 36 36 36 36 36

Table 4.3 – La distribution de la v.a. Y .

4.1.2 Fonction de distribution et de répartition


1. Fonction de distribution
Cette fonction indique la loi de probabilité de la v.a. X. Elle est représentée par un
diagramme en bâtons.
Exemple 4.3. Les diagrammes qui suivent, donnent une description graphique des
distributions des variables aléatoires X (voir figure 4.1) et Y (voir figure 4.2) de
l’exemple précédent.

Figure 4.1 – Distribution de la v.a. X.

2. Fonction de répartition
La fonction de répartition donne la probabilité que la variable aléatoire X prenne
une valeur inférieure à x. La fonction de répartition est définie par :

F (x) = p(X ≤ x) = p(X = xi ).
xi ≤x

43
H.Gharout Variables aléatoires

Figure 4.2 – Distribution de la v.a. Y .

Remarque 4.1. La représentation graphique de la fonction de répartition de le cas


discret prend la forme d’un diagramme en escaliers (voir figure 4.3).
F est monotone croissante et prend ses valeurs dans [0, 1].
Exemple 4.4. La fonction de répartition de la variable aléatoire X est donnée par :


 0, si x < 1 ;



 1
, si 1 ≤ x < 2 ;

 36


 4
 36 , si 2 ≤ x < 3 ;
F (x) = 9
, si 3 ≤ x < 4 ;


36

 16
, si 4 ≤ x < 5 ;

 36




25
, si 5 ≤ x < 6 ;
 36
 36
36
= 1, si x ≥ 6.

Figure 4.3 – Courbe de la fonction de répartition de la v.a. X.

4.1.3 Espérance mathématique d’une variable aléatoire discrète


Définition 4.3. Soit X une variable aléatoire ayant la loi de probabilité p(X = xi )i=1,n .
La moyenne ou l’espérance mathématique de X que l’on note E(X) ou µx est la somme

44
H.Gharout Variables aléatoires

des valeurs prises par X pondérées par les probabilités qui leur sont associées (la valeur
prise en moyenne par cette v.a.), elle est donnée par :

E(X) = x1 p(X = x1 ) + x2 p(X = x2 ) + ... + xn p(X = xn )


∑n
= xi p(X = xi ).
i=1

Exemple 4.5. On reprend l’exemple 4.2.


• L’espérance mathématique de la variable aléatoire X est :

n
E(X) = xi p(X = xi )
i=1
1 3 5 7 9 11
= 1. + 2. + 3. + 4. + 5. + 6.
36 36 36 36 36 36
161
= = 4, 47
36
• L’espérance mathématique de la variable aléatoire Y est :

n
E(Y ) = yi p(Y = yi )
i=1
1 2 3 4 5 6 5 4 3 2 1
= 2. + 3. + 4. + 5. + 6. + 7. + 8. + 9. + 10. + 11. + 12.
36 36 36 36 36 36 36 36 36 36 36
252
= = 7.
36

Propriétés de E(X)

Désignons par X et Y deux variables aléatoires définies sur Ω, α et β deux constantes


réelles.
1. E(αX) = αE(X), ∀α ∈ R.
2. E(αX + β) = αE(X) + β, ∀α, β ∈ R.
3. E(X + Y ) = E(X) + E(Y ).
4. E(αX + βY ) = αE(X) + βE(Y ), ∀α, β ∈ R.

4.1.4 Variance et écart type d’une variable aléatoire discrète


Définition 4.4. La moyenne d’une variable aléatoire X mesure, dans un certain sens, la
valeur moyenne de X et la variance (ou sa racine carrée est l’écart-type) exprime à quel
point les valeurs prises par une variable aléatoire X sont dispersées autour de la moyenne.

45
H.Gharout Variables aléatoires

1. Variance de la variable aléatoire X


La variance de X, que l’on note V (X) est définie par


n
V (X) = E[(X − E(X)) ] = (xi − E(X))2 p(X = xi )
2

i=1

ou

n ∑n
V (X) = E(X ) − (E(X)) =
2 2
x2i p(X = xi ) − ( xi p(X = xi ))2 .
i=1 i=1

2. Écart type de la variable aléatoire X


L’écart type de X, que l’on note σ(X) est la racine carrée de V (X) :

σ(X) = V (X).

Exemple 4.6. Considérons les variables aléatoires X et Y de l’exemple 4.2, avec leurs
moyennes E(X) = 4, 47 et E(Y ) = 7.

• La variance de la variable aléatoire X est donnée par V (X) = E(X 2 ) − (E(X))2 , avec


n
2
E(X ) = x2i p(X = xi )
i=1
1 3 5 7 9 11
= 12 . + 22 . + 32 . + 42 . + 52 . + 62 .
36 36 36 36 36 36
191
= = 21, 97.
36
Par conséquent V (X) = E(X 2 ) − (E(X))2 = 21, 97 − (4, 47)2 = 1, 99 et

σ(X) = 1, 99 = 1, 4.

• La variance de la variable aléatoire Y est donnée par V (Y ) = E(Y 2 ) − (E(Y ))2 , avec


n
2
E(Y ) = yi2 p(Y = yi )
i=1
1 2 3 4 5 6 5 4 3 2 1
= 22 + 32 + 42 + 52 + 62 + 72 + 82 + 92 + 102 + 112 + 122
36 36 36 36 36 36 36 36 36 36 36
= = 54, 8.

Par conséquent V (Y ) = E(Y 2 ) − (E(Y ))2 = 54, 8 − (7)2 = 5, 8 et σ(Y ) = 5, 8 = 2, 4.

46
H.Gharout Variables aléatoires

Propriétés de V (X) et σ(X)

Désignons par X une variable aléatoire définie sur Ω, α et β deux constantes réelles.
1. La variance d’une constante est nulle : V (α) = 0, ∀α ∈ R.
2. V (X + α) = V (X), ∀α ∈ R.
3. V (αX) = α2 V (X), ∀α ∈ R.
4. V (αX + β) = α2 V (X), ∀α, β ∈ R.
D’où
1. σ(X + α) = σ(X), ∀α ∈ R.
2. σ(αX) = |α|σ(X), ∀α ∈ R.

Remarque 4.2. Soit X une variable aléatoire de moyenne µ et d’écart type σ, on définit
la variable aléatoire centrée réduite X ∗ correspondant à X par
X −µ
X∗ = ,
σ
avec E(X ∗ ) = 0 et V (X ∗ ) = 1.

4.2 Variables aléatoires continues


Une variable aléatoire est dite continue si elle peut prendre toutes valeurs comprises
dans un intervalle ]a, b].

Exemple 4.7. Le poids d’un enfant à la naissance est compris entre 2, 7 kg et 5, 6 kg.

4.2.1 Fonction de répartition


La fonction de répartition d’une variable continue X est définie par

FX (x) = p(X ≤ x).

La fonction FX indique la probabilité que X soit strictement inférieure à tout x de l’inter-


valle de définition.
Propriétés
1. FX (x) est positive et : lim FX (x) = 0, lim FX (x) = 1.
x→−∞ x→+∞
2. Si la fonction FX est continue et admet une dérivée, la variable aléatoire est dite
absolument continue.

47
H.Gharout Variables aléatoires

3. La représentation graphique de FX prend la forme d’une courbe cumulative.

Remarque 4.3. Dans le cas d’une variable aléatoire continue, on a :


1. La probabilité attachée à un point x est nulle : p(X = x) = 0.
2. p(X ≤ x) = p(X < x) + p(X = x) = p(X < x).
3. La probabilité que la v.a. X ∈ [a, b] est donnée par :

p(a ≤ X ≤ b) = p(a < X ≤ b)


= p(a ≤ X < b)
= p(a < X < b)
= p(X < b) − p(X < a)
= F (b) − F (a).

4.2.2 Densité de probabilité


Soit X une variable aléatoire dont l’ensemble de valeurs X(Ω) est l’intervalle [a, b].
Rappelons que par définition
∫ b
p(a ≤ X ≤ b) = f (x)dx = F (b) − F (a).
a

La fonction f est la distribution (densité de probabilité) de la variable aléatoire continue


X. Cette fonction satisfait les conditions suivantes :
∫x
1. f (x) ≥ 0 et F (x) = −∞ f (t)dt.
∫ +∞
2. −∞ f (x)dx = 1.

4.2.3 Espérance mathématique et variance d’une variable


aléatoire continue
Soit X une variable aléatoire de densité de probabilité f , dont le domaine de définition
est ] − ∞, +∞[.
1. Espérance mathématique
L’espérance mathématique de la v.a. X est définie par :
∫ +∞
E(X) = xf (x)dx
−∞

48
H.Gharout Variables aléatoires

2. Variance et écart type


La variance de la v.a. X est définie par :
∫ +∞
V (X) = (x − E(X))2 f (x)dx
−∞
∫ +∞
= x2 f (x)dx − (E(X))2
−∞
= E(X 2 ) − (E(X))2 .

Par définition, l’écart type est donné par σ(X) = V (X).

Exemple 4.8. Soit X une variable aléatoire ayant une densité de probabilité (fonction de
distribution) : { 1
2
(2 − x), si 0 ≤ x ≤ 2 ;
f (x) =
0, si x ∈] − ∞, 0[∪]2, +∞[.
1. La densité de probabilité vérifie :
∫ +∞
f (x) ≥ 0, ∀x ∈ [0, 2] et f (x)dx = 1.
−∞

Figure 4.4 – Densité de probabilité de la v.a. X.

En effet,

49
H.Gharout Variables aléatoires

∀x ∈ [0, 2], on a 0 ≤ f (x) ≤ 1 et f (x) = 0 ailleurs ;


∫ +∞ ∫ 2
f (x)dx = f (x)dx
−∞ 0
∫ 2
1
= (2 − x)dx
0 2

1 2
= (2 − x)dx
2 0
1 x2
= [2x − ]20
2 2
1
= (4 − 2 − 0) = 1.
2
2. La fonction de répartition F est :

∫ x  0, si x < 0 ;
FX (x) = f (t)dt = x − 4 x , si 0 ≤ x ≤ 2 ;
1 2
−∞ 
1, si x > 2.

Figure 4.5 – Fonction de répartition de la v.a. X.

50
H.Gharout Variables aléatoires

3. L’espérance de X :
∫ +∞ ∫ 2
E(X) = xf (x)dx = xf (x)dx
−∞ 0
∫ 2
1
= x(2 − x)dx
0 2

1 2
= (2x − x2 )dx
2 0
1 2 x3 2
= [x − ]0
2 3
2 2
= −0= .
3 3
4. La variance de X :
∫ +∞ ∫ 2
V (X) = x f (x)dx − E(X)
2 2
= x2 f (x)dx − E(X)2
−∞ 0
∫ 2
1 2 2
= x (2 − x)dx − ( )2
0 2 3
∫ 2
1 2
= (2x2 − x3 )dx − ( )2
2 0 3
4
1 2 3 x 2 2
= [ x − ]0 − ( )2
2 3 4 3
2 4 2
= − = .
3 9 9
√ √ √
2 2
5. L’écart type de X : σ(X) = V (X) = 9
= 3
.

4.2.4 Médiane et mode d’une variable aléatoire continue


La médiane

La médiane d’une variable aléatoire continue est le nombre réel M e tel que
1
F (M e) = 0.5 = .
2
Autrement dit, la médiane c’est la valeur M e de X tel que p(X < M e) = 0.5.

Le mode

Le mode M o est la valeur de X, qui correspond à un maximum de la fonction de densité.


Il peut exister plusieurs modes, si il existe un seul maximum la densité est dite unimodale.

51
H.Gharout Variables aléatoires

Exemple 4.9. Dans l’exemple 4.8, on a


√ √
1 2 1 4− 8 4+ 8
F (x) = x − x = ⇒ x = ou x = .
4 2 2 2

4− 8
x= ≃ 0, 5857864376 ∈ [0; 2]
2
et √
4+ 8
x= ≃ 3.414213562 ∈/[0; 2],
2
alors √
4− 8
Me = .
2
f admet un maximum pour la valeur de x = 0, alors M o = 0.

52
Chapitre 5

Lois usuelles de probabilités

5.1 Lois de probabilités discrètes


5.1.1 Loi de Bernoulli
Une expérience aléatoire ayant deux résultats possibles (succès et échec) est appelée
experience de Bernoulli.
Si A est l’événement succès et A est l’événement échec, on a :

p(A) = p, 0 ≤ p ≤ 1;
p(A) = 1 − p = q, 0 ≤ q ≤ 1.

On dit que X suit une loi de Bernoulli de probabilité p, et on note

X Bernoulli(p)

Espérance mathématique

La variable aléatoire X prend deux valeurs possibles {0; 1} : 0 en cas d’échec et 1 en


cas de réussite et son espérance mathématique est :

E(X) = p.

En effet,

1
E(X) = xi p(X = xi ) = 0.q + 1.p = p.
i=0

Variance

La variance de cette variable aléatoire qui suit une loi de Bernoulli(p) est :

V (X) = p.q

53
H.Gharout Lois usuelles

En effet,

V (X) = E(X 2 ) − (E(X)2 )


∑1
= x2i p(X = xi ) − (E(X)2 )
i=0
= (0 q + 12 p) − p2
2

= p − p2
= p(1 − p) = p.q

Écart type

L’écart type est


√ √
σ(X) = V (X) = p.q.
La loi de Bernoulli(p) se résume dans le tableau 5.1 :

k 0 1 E(X) = p
p(X = k) p(X = 0) = q p(X = 1) = p V (X) = p.q

0≤q≤1 0≤p≤1 σ(X) = p.q

Table 5.1 – Loi de Bernoulli(p).

Exemple 5.1. On jette un dé équilibré et on s’intéressera au résultat ”avoir le chiffre 2”.
A : ”obtenir le chiffre 2 sur la surface supérieure du dé”.

A = {2} et A = {1, 3, 4, 5, 6};


1 5
p(A) = p = et p(A) = 1 − p = q = .
6 6

Le jet d’un dé est une expérience de Bernoulli;


1 5
avec p = et q = ;
6 6
1
E(X) = p = ;
6
1 5 5
V (X) = p.q = × = ;
6 6 36 √
√ √ 5
σ(X) = V (X) = p.q = .
6

54
H.Gharout Lois usuelles

5.1.2 Loi binomiale


Soit une expérience de Bernoulli répétée n fois dans les mêmes conditions et de manières
∑n
indépendantes (X1 , X2 , ... , Xn ). La loi binomiale, notée B(n, p), X = Xi = X1 + X2 +
i=1
...+Xn modélise le nombre de succès obtenus lors de la répétition indépendante de plusieurs
expériences aléatoires identiques (avec p la probabilité du succès et q = 1 − p la probabilité
de l’échec).
La variable aléatoire X correspond au nombre de succès, si on a k succès on aura (n − k)
échecs et la probabilité d’avoir k succès dans une experience aléatoire répétée n fois, est :

p(X = k) = Cnk .pk .q (n−k) ,


n!
avec Cnk = (n−k)!k! .
Il est facile de démontrer que l’on a bien une loi de probabilité, car :

n ∑
n
p(X = k) = Cnk pk q (n−k) = (p + q)n = 1, car p + q = 1.
k=0 k=0

Remarque 5.1. Le développement du binôme de Newton (p + q)n permet d’obtenir l’en-


semble des probabilités pour une distribution binomiale B(n, p) avec n et p des valeurs
données.

Espérance mathématique

L’espérance mathématique de la distribution binomiale B(n, p) est :

E(X) = n.p

En effet,
∑n
E(X) = E( Xi ) où chaque Xi est une v.a. de Bernoulli
i=1
= E(X1 + X2 + ... + Xn )
= E(X1 ) + E(X2 ) + ... + E(Xn )
∑n ∑
n
= E(Xi ) = p = np.
i=1 i=1

Variance

La variance de cette variable aléatoire qui suit une loi de binomiale B(n, p) est :

V (X) = n.p.q

55
H.Gharout Lois usuelles

En effet,
∑n
V (X) = V ( Xi ) où chaque Xi est une v.a. de Bernoulli
i=1
= V (X1 + X2 + ... + Xn )
= V (X1 ) + V (X2 ) + ... + V (Xn )
∑n ∑
n
= V (Xi ) = pq = npq.
i=1 i=1

Écart type

L’écart type est


√ √
σ(X) = V (X) = n.p.q.
La loi binomiale B(n, p) se résume dans le tableau 5.2 :

Réalisations k = 0, 1, 2, ..., n E(X) = np


Probabilité d’avoir k réussites p(X = k) = Cnk .pk .q (n−k) V (X) = npq

avec 0 ≤ p ≤ 1 et 0 ≤ q ≤ 1 σ(X) = npq

Table 5.2 – Loi binomiale B(n, p).

Exemple 5.2. On reprend l’exemple du dé et on refait l’expérience du jet 5 fois (on jette
le dé 5 fois). On s’intéressera au nombre de fois, où on obtient un 2.
A : ”obtenir un 2 sur la surface supérieure du dé”.
p(A) = p = 16 et p(A) = q = 1 − p = 56 .
X suit une loi Binomiale B(n, p) = β(5, 61 ).

1 5
p(X = k) = Cnk .pk .q (n−k) = C5k .( )k .( )(5−k) .
6 6
1. Quelle est la probabilité d’obtenir :
(a) deux fois le chiffre 2 ?
(b) au moins trois fois le chiffre 2 ?
2. Calculer E(X), V (X) et σ(X).
Solution :

1. La probabilité d’obtenir :

56
H.Gharout Lois usuelles

(a) deux fois le chiffre 2 est :


1 5
p(X = 2) = C52 ( )2 ( )(5−2) = 10 × 0, 028 × 0, 58 = 0, 16.
6 6

(b) au moins trois fois le chiffre 2 est :

p(X ≥ 3) = p(X = 3) + p(X = 4) + p(X = 5)


= 1 − p(X < 3)
= 1 − [p(X = 0) + p(X = 1) + p(X = 2)]
1 5 1 5 1 5
= 1 − [C50 ( )0 ( )(5−0) + C51 ( )1 ( )(5−1) + C52 ( )2 ( )(5−2) ]
6 6 6 6 6 6
= 1 − [0, 4 + 0, 4 + 0, 16] = 0, 036.

2. Calcul de E(X), V (X) et σ(X) :


1 5
E(X) = np = 5 × = .
6 6
1 5 25
V (X) = npq = 5 × × = .
6 6 36
√ 5
σ(X) = V (X) = .
6

Théorème 5.1. Si X B(n, p) et Y B(m, p) sont deux variables aléatoires


indépendantes de même probabilité p, alors leurs somme X + Y est une variable aléatoire
qui suit une loi binomiale :
X +Y B(n + m, p).

5.1.3 Loi de Poisson


On dit qu’une variable aléatoire X suit une loi de poisson (appelée aussi loi des
événements rares ou de petits nombres) de paramètre réel λ, notée P(λ), si elle prend
des valeurs entières dont les probabilités de réalisation sont :

λk
∀k ∈ N, p(X = k) = e−λ , e = 2, 718...
k!

Paramètres de la loi de Poisson P(λ) :

Espérance mathématique : E(X) = λ.


Variance : V (X) = λ.

Écart type : σ(X) = λ.

57
H.Gharout Lois usuelles

Exemple 5.3. Une centrale téléphonique reçoit en moyenne 300 appels par heure. Quelle
est la probabilité que durant une minute, la centrale reçoit exactement deux appels ?
Solution :
Les appels dans cette centrale suivent une loi de poisson de paramètre λ = 300
60
= 5 appels
par minutes en moyenne.
λk 52
p(X = 2) = e−λ = e−5
k! 2!
= 0, 08422.

5.1.4 Table de la loi de Poisson


A l’intersection de la colonne λ et de la ligne k, figure la probabilité pour que la variable
de Poisson Y de paramètre λ soit égale à la valeur entière k : p(Y = k) = e−λ . λk!
k

Figure 5.1 – Table de la loi de Poisson.

Exemple 5.4. Sur une autoroute, il y a en moyenne deux accidents par semaine.
Quelle est la probabilité qu’il y aura cinq accidents durant un week-end ?
Solution : La loi de X du nombre d’accidents sur cette route suit une loi de Poisson de
paramètre λ = 2 et la probabilité qu’il y aura cinq accidents durant un week-end est
λk 25
p(X = 5) = e−λ = e−2 = 0, 0361.
k! 5!

58
H.Gharout

59
Figure 5.2 – Table de la loi de Poisson pour k variant de 0 à 30.
Lois usuelles
H.Gharout Lois usuelles

5.1.5 L’approximation de la loi binomiale par la loi de Poisson


Considérons une variable aléatoire X suivant une loi binomiale B(n; p). Si n tend vers
l’infini et p tend vers 0 (n → +∞ et p → 0), la loi binomiale converge vers une loi de
Poisson.
En pratique, si n > 25 et np < 5, alors la loi binomiale B(n; p) est approchée par la loi de
poisson P(λ), avec λ = np.
Exemple 5.5. Des observations ont montré que la probabilité qu’un homme soit atteint
d’une maladie M est p = 0, 1. En considérant 40 hommes pris au hasard, soit k le nombre
d’hommes touchés par la maladie et X la variable aléatoire qui compte le nombre d’hommes
malades.
1. Quelle est la loi que suit la v.a. X ? Donner sa loi de distribution p(X = k).
2. Calculer E(X), V (X) et σ(X).
3. Par quelle loi peut-on approcher la loi de X ?
4. Calculer p(X = 2) et p(X = 5).
Solution :

1. X suit une loi binomiale B(40; 0.1) :


k 1 k 9 (40−k)
p(X = k) = C40 .( ) .( )
10 10
2. Calcul de E(X), V (X) et σ(X) :
1
E(X) = np = 40 × = 4.
10
1 9
V (X) = npq = 40 × × = 3, 6.
√ 10 10
σ(X) = V (X) = 1, 89.

3. Cette loi binomiale B(40; 0.1) est approchée par une loi de Poisson P(λ) :
(n = 40 > 25 et np = 4 < 5) ⇒ Binomiale B(40; 0.1) Poisson P(λ), λ = np = 4.
λk 4k
p(X = k) = e−λ = e−4 .
k! k!
4. Calcul de p(X = 2) et p(X = 5) :
2
−4 4
p(X = 2) = e = 0, 14653.
2!

45
p(X = 5) = e−4 = 0, 15629.
5!

60
H.Gharout Lois usuelles

5.2 Lois de probabilités continues


5.2.1 Loi Normale
En théorie des probabilités et en statistique, la loi normale est l’une des lois de
probabilité les plus adaptées pour modéliser des phénomènes naturels issus de plusieurs
événements aléatoires. Elle est en lien avec de nombreux objets mathématiques dont le
mouvement brownien, le bruit blanc gaussien ou d’autres lois de probabilité. Elle est
également appelée loi gaussienne, loi de Gauss ou loi de Laplace-Gauss des noms de
Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens
qui l’ont étudiée.

Soit X une variable aléatoire. On dit que X suit une loi normale ou Laplace-Gauss de
paramètres m (ou µ) et σ (m ∈ R et σ ∈ R∗+ ), si sa densité de probabilité est définie par :

1 −1 x−m 2
f (x) = √ e 2 ( σ ) ,
σ 2π
avec x ∈ R, E(X) = m et σ est l’écart type de la v.a. X.

La courbe de cette densité de probabilité est appelée courbe de Gauss ou courbe en


cloche. La figure 5.3 donne une illustration de quelque densités de probabilités en variant
leurs paramètres correspondants (m et σ) et l’aire sous la courbe est toujours égale à 1.

Figure 5.3 – Illustration de lois normales avec variations de m et σ.

61
H.Gharout Lois usuelles

Fonction de répartition

La fonction de répartition F de la loi normale N (m, σ) est :


∫ x
1 −1 t−m 2
F (x) = p(X ≤ x) = √ e 2 ( σ ) dt.
σ 2π −∞

(a) Densités de probabilités

(b) Fonctions de répartitions

Figure 5.4 – Fonctions de répartition de la loi Normale N (µ, σ) avec variation des pa-
ramètres µ et σ. La courbe en couleur rouge est associée à la loi Normale centrée réduite
N (0, 1).

62
H.Gharout Lois usuelles

5.2.2 Loi Normale centrée réduite


Dans la pratique, on rencontre très souvent la loi normale. Afin d’éviter le calcul
numérique de la fonction de répartition pour chaque application, on utilisera la loi normale
centrée réduite, dont les valeurs existent et sont tablées.

Définition 5.1. Variable aléatoire centrée réduite


1. Une variable aléatoire centrée est une v.a. dont l’espérance est nulle E(X) = 0.
2. Une variable aléatoire réduite est une v.a. dont l’écart type σ(X) = 1 (V (X) = 1).
X−E(X)
3. La variable aléatoire σ(X)
est une v.a. centrée réduite.
En effet,

X − E(X) 1
E( ) = (E(X) − E(X)) = 0;
σ(X) σ(X)
X − E(X) 1 σ 2 (X)
V( ) = (V (X)) = = 1.
σ(X) σ 2 (X) σ 2 (X)

Théorème 5.2. Soit X une variable aléatoire continue suivant une loi normale N (m, σ).
Si on applique le changement de variable Z = X−mσ
et le changement de bornes correspon-
x−m
dantes z = σ , on a :

X −m x−m
FX (x) = p(X ≤ x) = p( ≤ ) = p(Z ≤ z) = FZ (z).
σ σ
La variable aléatoire Z suit une loi normale centrée réduite N (0, 1).

X −m
Si X N (m, σ) alors Z = N (0, 1).
σ

Densité de probabilité de Z

1 −1 2
f (z) = √ e 2 z , z ∈ R.

Fonction de répartition de Z

∫ z
1 −1 2
FZ (z) = √ e 2
t
dt.
2π −∞

Propriété 5.1. Si la variable aléatoire Z suit une loi normale centrée réduite N (0, 1),
alors :

63
H.Gharout Lois usuelles

1. f (z) = f (−z) ;
∫0 ∫ +∞ ∫ +∞
2. −∞ f (t)dt = 0 f (t)dt = 12 −∞ f (t)dt = 12 ;
∫ −z ∫ +∞
3. ∀z ∈ R+ , on a −∞ f (t)dt = z f (t)dt ;
4. ∀z ∈ R+ , on a FZ (−z) = 1 − FZ (z).
Exemple 5.6. On suppose qu’une certaine variable aléatoire Z suit une loi normale centrée
réduite N (0, 1).
1. Pour quelle proportion d’individus on a Z ≤ 1, 56 ?
2. Pour quelle proportion d’individus on a Z ≥ 1, 49 ?
3. Calculer p(Z ≤ −1, 1).
Solution
1. Calcul de p(Z ≤ 1, 56) :

La valeur de p(Z ≤ 1, 56) = F (1, 56) sera déduite à partir de la table de la loi normale
centrée réduite ; pour cela on cherche 1, 56 dans la table :
Donc p(Z ≤ 1, 56) = 0, 9406.

... 0.06 ...


.. ..
. .
1, 5 ... 0, 9406 ...
..
.

Pour 94, 06% des individus, la variable aléatoire Z est inférieure à 1, 56.
2. Calcul de p(Z ≥ 1, 49) :
p(Z ≥ 1, 49) = 1 − p(Z ≤ 1, 49)
= 1 − F (1, 49).
On cherche 1, 49 dans la table :
Donc p(Z ≤ 1, 49) = 0, 9319, alors p(Z ≥ 1, 49) = 1 − 0, 9319 = 0, 0681.

64
H.Gharout Lois usuelles

... ... 0.09


.. ..
. .
1, 4 ... ... 0, 9319
..
.

3. Si de plus on veut connaı̂tre p(1, 49 ≤ Z ≤ 1, 56, alors :

p(1, 49 ≤ Z ≤ 1, 56 = F (1, 56) − F (1, 49)


= 0, 9406 − 0, 9319 = 0, 0087.

4. On cherche p(Z ≤ −1.1), c’est-à-dire F (−1, 1).

On sait que p(Z ≤ −1.1) = F (−1, 1) = 1 − F (1, 1) = 1 − 0, 8643 = 0, 1357.


Autrement dit, p(Z ≤ −1, 1) = p(Z ≥ 1, 1) = 1 − 0, 8643 = 0, 1357.
Exemple 5.7. Soit X une variable aléatoire continue suivant une loi normale d’une
moyenne m = 2 et d’un écart type σ = 0, 16.
Quelle est la probabilité d’avoir 1, 94 ≤ X ≤ 2, 02 ?
Solution
X N (2; 0.16) ⇒ Z N (0; 1)

1, 94 − 2 2, 02 − 2
p(1, 94 ≤ X ≤ 2, 02) = p( ≤Z≤ )
0, 16 0, 16
= p(−0, 375 ≤ Z ≤ 0, 125)
= p(Z ≤ 0, 125) − p(Z ≤ −0, 375)
= FZ (0, 125) − FZ (−0, 375) = FZ (0, 125) − [1 − FZ (0, 375)]
= 0, 5497 − [1 − 0, 6462] = 0, 1959.

5.2.3 L’approximation de la loi binomiale par une loi de normale


Théorème 5.3. Soit X une variable aléatoire suivant une loi binomiale de paramètres n
et p, i.e. B(n; p), alors

65
H.Gharout Lois usuelles

1 −1 k−m 2
p(X = k) ≃ √ e 2 ( σ ) quand n → +∞, c’est à dire N (m; σ),
σ 2π
avec m = E(X) = n.p et σ 2 = V (X) = n.p.q, avec q = 1 − p.

Remarque 5.2. On considère que l’approximation est valable si pour n > 25, on a à la
fois np > 5 et nq > 5.

En résumé, on a :

Si n > 25,
np > 5, alors la loi binomiale B(n; p) loi Normale N (m; σ)

nq > 5, avec m = np et σ = n.p.q.

Exemple 5.8. Reprenons l’exemple 5.5, en considérant 100 hommes au lieu de 40. rap-
pelons que la probabilité qu’un homme soit atteint d’une maladie M est p = 0, 1 et la
probabilité qu’il ne soit pas atteint de cette maladie est q = 1 − p = 0, 9. Soit k le nombre
d’hommes touchés par la maladie et X la variable aléatoire qui compte le nombre d’hommes
malades.
1. Quelle est la loi que suit la v.a. X ? Donner sa loi de distribution p(X = k).
2. Calculer E(X), V (X) et σ(X).
3. Par quelle loi peut-on approcher la loi de X ?
4. Calculer p(X ≤ 2) et p(2 ≤ X ≤ 10).
Solution :

1. X suit une loi binomiale B(100; 0.1) :


k
p(X = k) = C100 .(0, 1)k .(0, 9)(100−k)

2. Calcul de E(X), V (X) et σ(X) :

E(X) = np = 100 × 0, 1 = 10.


V (X) = npq = 100 × 0, 1 × 0, 9 = 9.

σ(X) = V (X) = 3.

3. Cette loi binomiale B(100; 0.1) est approchée par une loi de normale N (m; σ) :

(n = 100 > 25, np = 10 > 5 et nq = 90 > 5 ) ⇒ binomiale B(100; 0.1) normale N (m, σ),

66
H.Gharout Lois usuelles


avec m = np = 10 et σ = n.p.q = 3.
1 −1 k−m 2 1 −1 k−10 2
p(X = k) ≃ √ e 2 ( σ ) = √ e 2 ( 3 ) .
σ 2π 3 2π
4. Calcul de p(X ≤ 2) et p(2 ≤ X ≤ 10) :
X −m 2−m X − 10 2 − 10
p(X ≤ 2) = p( ≤ ) = p( ≤ )
σ σ 3 3
−8 −8
= p(Z ≤ ) = F ( ) où Z est la loi normale centrée réduite
3 3
8
= 1 − F ( ) = 1 − F (2, 66666)
3
≃ 1 − 0, 980... ≃ 0, 02.

2−m X −m 10 − m 2 − 10 10 − 10
p(2 ≤ X ≤ 10) = p( ≤ ≤ ) = p( ≤Z≤ )
σ σ σ 3 3
10 − 10 2 − 10 0 −8
= p(Z ≤ ) − p(Z ≤ ) = p(Z ≤ ) − p(Z ≤ )
3 3 3 3
−8 8
= F (0) − F ( ) = F (0) − [1 − F ( )]
3 3
= F (0) − [1 − F (2, 66666)] ≃ 0, 5 − [1 − 0, 980...]
≃ 0, 5 − 0, 02 = 0, 48.

Remarque. Les valeurs de F (2, 66666) et F (0) sont déduites de la table de la loi
normale centrée réduite.

5.2.4 L’approximation de la loi de Poisson par une loi normale


Lorsque le paramètre λ d’une loi de Poisson est grand, la loi de Poisson peut être
approchée par une loi normale d’espérance λ et de variance λ. Le principe est analogue a
celui utilisé pour l’approximation de la loi binomiale par la loi normale.
Théorème 5.4. Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ,
alors

1 −1 k−λ
( √ )2
p(X = k) ≃ √ √ e 2 λ quand n → +∞,
λ 2π
avec E(X) = λ et V (X) = λ.
Remarque 5.3. On considère que l’approximation est valable si λ > 20.

Si λ > 20, alors la loi de Poisson P(λ) est approchée par la loi normale N (λ; λ).

67
H.Gharout Lois usuelles

5.2.5 Table de la loi normale centrée réduite


∫ t
1 x2
F (t) = P (X ≤ t) = √ e− 2 dx et F (−t) = 1 − F (t).
−∞ 2π

Utilisation : On lit les décimales dans les lignes et les centièmes en colonnes.
Par exemple, la valeur de F (1.54) se trouve à l’intersection de la ligne 1.5 et de la colonne
0.04 et on trouve F (1.54) = 0.9382 à 10−4 près.

68
Bibliographie

[1] A. Ayache and J. Hamonier. Cours : Statistique Descriptive et Calcul de Probabilités.


Université de Lille. France, 2014.
[2] R. Balan and G. Lamothe. Une introduction à la biostatistique. Presses de l’Université
du Québec, 2012.
[3] F. Carrat and A. Mallet. Biostatistique. Faculté médecine-Université Pierre et Marie
Curie, 2013.
[4] M. Colin and G. Payette. Biostatistiques pour les techniques biologiques. Montréal,
Québec, 3ème edition, 2004.
[5] J.P. Lecoutre. Statistique et probabilités - Cours et exercices corrigés. Dunod, 2012.
[6] D. Meghlaoui. Introduction à la Statistique Descriptive. Ecole Préparatoire en Sciences
Economiques Commerciales et des Sciences de Gestion de Constantine, 2010.
[7] M. MERCIER. Biostatistique et probabilités. Ellipses, 2011.
[8] V. Morice and A. Mallet. QCM corrigées et commentées de Biostatistique. Ellipses,
2012.
[9] H. Mzali. Cours : Staitistique et calcul de probabilité. Ecole Natianale de l’Admins-
tration. Tunis, 2013.
[10] X. Nogues, A. Garenne, X. Bouteiller, and V. Fiévet. Le cours de Biostatistique.
Collection tout en fiches : Dunod, 2018.
[11] A. Ruegg. Probabilités et Statistique. Presses Polytechniques et universitaires ro-
mandes. Suisse, 4ème edition, 1994.
[12] B. Scherrer. Biostatistique, volume 1. Gaetan Morin, 2ème edition, Novembre 2008.
[13] B. Scherrer. Biostatistique, volume 2. Gaetan Morin, 2ème edition, Mai 2009.
[14] C. Suquet. Introduction au calcul de probabilités. Université des Sciences et Techno-
logies de Lille U.F.R. de Mathématiques Pures et Appliquées. France, 2003.

69

View publication stats

Vous aimerez peut-être aussi