Cours de probabilités version finale (1)

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 71

momoo

Université Mohammed V – Rabat


Faculté des Sciences Juridiques,
Economique et Sociales - Salé

Tronc commun Gestion

Semestre 3
Groupes : A et B

Probabilité

Professeur BADDI HICHAM


Année universitaire : 2024-2025
Sommaire
I. Rappel sur la théorie des ensembles
1. Ensembles – éléments……………….……………………………………………... 3
2. Opérations sur les ensembles…………………………………………………………... 5
3. Propriétés des opérations………………………………………………………………. 6

II. Analyse combinatoire


1. Principe de multiplication……………………………………………………………… 7
2. Principe d’addition………………………………………………………………........... 7
3. Notation factoriel………………………………………………………………………. 7
4. Arrangements…………………………………………………………………………... 8
5. Permutations……………………………………………………………………………. 10
6. Combinaisons…………………………………………………………………………... 11

III. Calcul des probabilités


1. Concepts et définitions ………………………………………………………………… 15
2. Algèbre des événements………………………………………………………………... 16
3. Tribu (ou  -algèbre) des événements………………………………………………… 17
4. Espace probabilisable…………………………………………………………………... 18
5. Probabilité d’un événement………………………………………………………......... 18
6. Probabilité uniforme sur un univers fini………………………………………….......... 19
7. Probabilité conditionnelle……………………………………………………………… 22
8. Indépendance…………………………………………………………………………... 25
9. Formule des probabilités totales………………………………………………….......... 26
10. Théorème de Bayes……………………………………………………………….......... 26

IV. Variables aléatoires


1. Notion de la variable aléatoire…………………………………………………………. 29
2. Variable aléatoire discrète……………………………………………………………… 29
3. Variable aléatoire continue……………………………………………………….......... 34

V. Les lois de probabilités discrètes


1. Loi uniforme………………………………………………………………………......... 43
2. Loi de Bernoulli……………………………………………………………………….... 44
3. Loi de Binomiale………………………………………………………………….......... 45
4. Loi Hypergéométrique…………………………………………………………….......... 46
5. Loi de Poisson……………………………………………………………………........... 48
6. Approximation…………………………………………………………………………... 49

VI. Les lois de probabilités continues


1. Loi uniforme……………………………………………………………………….......... 52
2. Loi exponentielle………………………………………………………………………... 53
3. Loi de Laplace-Gauss ou loi Normale…………………………………………………... 55
4. Lois dérivées de la loi normale…………………………………………………….......... 65

2
I. La théorie des ensembles

La théorie des ensembles a été élaborée par le mathématicien Georg Cantor (1845-1918) et
développée par d’autres mathématiciens. Elle est d’une importance fondamentale dans l’étude
des probabilités et en général dans toutes les branches des mathématiques.

Ce chapitre a pour objet de présenter les principaux éléments de cette théorie nécessaires au
calcul des probabilités.

1. Ensembles – éléments
1.1 Notion d’un ensemble – élément d’un ensemble
Définition :
Un ensemble est une collection d’objets, appelés éléments.
Si un élément x appartient à l’ensemble E , on écrit x  E .
Si un élément y n’appartient pas à l’ensemble E , on écrit y  E .
Exemple :
Soit l’ensemble A  a, b, c .

a , b et c sont des éléments de l’ensemble A . On écrit a  A , b  A et c  A .


d , e et f ne sont pas des éléments de l’ensemble A . On écrit d  A , e  A et f  A .

1.2 Définition d’un ensemble


Définition :
Un ensemble peut être défini en extension ou en compréhension.
Un ensemble est défini en extension lorsque tous ses éléments sont écrits entre deux accolades
et séparés les uns des autres par des virgules.
Un ensemble est défini en compréhension lorsqu’on donne une propriété qui caractérise tous
ses éléments.
Exemple :
L’ensemble A constitué des éléments 0, 1, 2, 3 et 4 peut s’écrire de deux manières différentes :
En extension : A  0,1, 2,3, 4

En compréhension : A   x  /x 5

L’ensemble B constitué des éléments 2, 4, 6 et 8 peut s’écrire de deux manières différentes :


En extension : A  2, 4,6,8

En compréhension : A  x  / x est un nombre pair et 1 x 9

3
1.3 Diagramme de Venn
Définition :
Le diagramme de Venn permet de représenter graphiquement un ou plusieurs ensembles.
Un ensemble est représenté par une ligne fermée contenant les éléments de l’ensemble à son
intérieure.
Exemple :
Soit l’ensemble A  0,1, 2,3, 4 .

On peut représenter graphiquement cet ensemble à l’aide d’un diagramme de Venn comme
suit :

A
.0 .1

.2 .3 .4

1.4 Ensemble vide


Définition :
On dit que l’ensemble E est vide s’il ne contient aucun élément. On note E   ou E    .

Exemple :
- A  x  / x  2  0  

- B  x  / x 2  4  

1.5 Ensemble fini


Définition :
On dit que l’ensemble E est fini s’il se compose d’un nombre déterminé d’éléments.
Le nombre d’éléments de l’ensemble E s’appelle le cardinale de E et s’écrit card  E  .

Exemple :
A  15,30,60,90,100 est un ensemble fini et card  A  5 .

1.6 Ensemble infini


Définition :
On dit que l’ensemble E est infini s’il contient un nombre infini d’éléments.
Exemple :
A  0,1, 2,3,... et B  x  / x est impair sont deux ensembles infinis.

4
1.7 Inclusion-ensemble des parties
Définition 1 :
On dit que l’ensemble A est inclus dans l’ensemble E si tous les éléments de A appartiennent
à E et on écrit A  E .
On dit aussi que A est un sous ensemble de E .

Définition 2 :
L’ensemble de tous les sous-ensembles d’un ensemble E est un ensemble appelé l’ensemble
des parties de E, et est noté P( E ) .
Exemple :
Soit E  a, b, c un ensemble.

L’ensemble A  a, b est inclus dans l’ensemble E . On écrit A  E .

 
L’ensemble des parties de E est Ƥ ( E )  , a , b , c , a, b , a, c , b, c , a, b, c .

2. Opérations sur les ensembles

Définitions :
Soient A et B deux sous-ensembles d’un ensemble E .
La réunion de A et B est l’ensemble des éléments qui appartiennent à A ou à B . On note

A  B et on écrit A  B  x  E / x  A ou x  B .
L’intersection de A et B est l’ensemble des éléments qui appartiennent à la fois à A et à

B . On note A  B et on écrit A  B  x  E / x  A et x  B .
Si A  B   , c’est-à-dire s’il n’existe aucun élément commun à A et à B , on dit alors que
A et B sont disjoints.
Le complémentaire de A dans E est l’ensemble des éléments de E qui n’appartiennent pas

à A . On note A ou CE A et on écrit A   x  E; x  A .

La différence de A et B est l’ensemble des éléments qui appartiennent à A et qui

n’appartiennent pas à B . On note A \ B et on écrit A \ B  x  E / x  A et x  B  A  B.

La différence symétrique de A et B est l’ensemble des éléments qui appartiennent à une, et


une seule, des ensembles A et B . On note A B et on écrit A B   A  B  \  A  B  .

5
Exemple :
Soient A  0, 2, 4,6,8 et B  0,3,6,9 sont deux sous-ensembles de l’ensemble

E  0,1, 2,3, 4,5,6,7,8,9,10 . On a :

A  B  0, 2,3, 4,6,8,9 , A  B  0,6 , A  1,3,5,7,9,10 , B  1, 2, 4,5,7,8,10 ,

A \ B  2, 4,8 et A B   A  B  \  A  B   2,3, 4,8,9 .

3. Propriétés des opérations

Propriétés :

Soient A , B et C trois sous-ensembles d’un ensemble E .


Les lois de l’algèbre des ensembles sont résumées dans le tableau ci-dessous :

Loi idempotente A  A  A et A  A  A
Loi associative  A  B   C  A   B  C  et  A  B   C  A   B  C 
Loi commutative A  B  B  A et A  B  B  A
Loi de distributivité A   B  C    A  B    A  C  et

A   B  C    A  B   A  C 

Loi d’identité A   A, A  E  E, A    et A  E  A
Loi de complémentarité A  A  E, A  A  , A  A, E   et   E
Loi de Morgane A  B  A  B et A  B  A  B

Exemple :

Soient A et B sont deux sous-ensembles d’un ensemble E .

On montre que A  B  A  B et que A  B  A  B :

x  A  B  x  A  B  x  A ou x  B  x  A  B .

x  A  B  x  A  B  x  A et x  B  x  A et x  B  x  A  B

6
II. Analyse combinatoire

L’analyse combinatoire est une branche des mathématiques qui a pour but de dénombrer un
ensemble fini. Elle a des implications importantes dans plusieurs domaines et plus
particulièrement dans le domaine des probabilités.

L’objectif de ce chapitre est de présenter les principaux éléments de l’analyse combinatoire à


savoir les arrangements, les permutations et les combinaisons.

1. Principe de multiplication

Définition :

Si une expérience peut se décomposer en k opérations successives qui peuvent s’effectuer de


n1 , n2 , , n k manières différentes, alors l’expérience peut se faire de n1  n2   n k façons
différentes.

Exemple 1 :

On lance une pièce de monnaie quatre fois de suite. Combien y a-t-il d’issues possibles ?

Selon le principe de la multiplication, le nombre d’issues possibles est de 2  2  2  2  16 .

Exemple 2 :

Combien peut-on former de codes de 4 chiffres différents ?

Selon le principe de la multiplication, le nombre de codes possibles est de 10  9  8  7  5040.

Exemple 3 :

Dans un pays, les plaques d’immatriculation des voitures se composent d’une lettre et de quatre
chiffres dont le premier est différent de 0. Combien y-a-t-il de plaques possibles ?
Il y 26 manières différentes d’imprimer la lettre, 9 manières différentes d’imprimer le premier
chiffre et 10 manières différentes d’imprimer les trois derniers chiffres. Alors le nombre de
plaques possibles est de 26  9 10 10 10  234000 .

2. Le principe de l’addition

Définition :
Soit A une expérience qui peut être réalisée de n façons différentes et B une expérience qui
peut être réalisée de m manières distinctes.

7
Si les deux expériences A et B ne se réalisent pas simultanément, alors il y a m  n manières
différentes de réaliser A ou B .
Si les deux expériences A et B se réalisent simultanément, alors il y a m  n  p façons
distinctes de réaliser A ou B , avec p le nombre de réalisations communes.
Exemple :
Dans une bibliothèque, on a 50 livres de mathématiques, 40 livres d’économie et 20 livres de
sociologie. Combien y a-t-il de façon différente de choisir un livre de cette bibliothèque ?

On peut choisir soit un livre de mathématiques, soit un livre d’économie, soit un livre de
sociologie. Alors selon le principe d’addition on peut choisir un livre parmi les livres de la
bibliothèque de 50+40+20 = 110 façons différentes.

3. Notation factoriel

Définition :
Soit n  *
. On définit n factoriel, noté n ! , par n!  n  n  1 n  2  ...3.2.1

Par convention, on définit 0!  1.

On a aussi n!  n  n  1!

Exemple :
- 2!  2 1  2
- 3!  3  2 1  6
- 4!  4  3!  4  6  24
6! 6  5  4!
-   30
4! 4!
9! 9  8  7!
-   72
7! 7!

4. Arrangements

Soit E un ensemble fini de n éléments. On appelle arrangements de p éléments toutes suites


ordonnées de p éléments pris parmi les n éléments.

On distingue deux types d’arrangements : arrangements avec répétition et arrangements sans


répétition.

8
4.1 Arrangements sans répétition

Définition :

On appelle arrangement sans répétition une disposition ordonnée de p éléments distincts


pris parmi n . Le nombre d’arrangements sans répétition de p éléments pris parmi n , noté
n!
AnP , est donné par : AnP  n  n  1 n  2   n  p  1  avec 1  p  n et n, p *
.
 n  p !
Exemple 1 :

Soit l’ensemble E  a, b, c .

Le nombre d’arrangements sans répétition de deux éléments choisis parmi les trois éléments de
3!
l’ensemble E est : A32  6
 3  2 !
Les arrangements possibles sont alors :  a, b  ,  b, a  ,  a, c  ,  c, a  ,  b, c  et  c, b  .

Exemple 2 :

Une association regroupant 40 adhérents décide d’élire un bureau qui se compose d’un
président, d’un secrétaire et d’un trésorier.

De combien de manières différentes l’association peut élire son bureau ?

Le nombre de bureaux que l’association peut élire correspond à un arrangement de 3 éléments


40!
3
parmi 40 éléments. Ainsi, il est égal à A 40   59280 .
 40  3!

4.2 Arrangements avec répétition

Définition :

On appelle arrangement avec répétition une disposition ordonnée de p éléments non


forcément distincts pris parmi n . Le nombre d’arrangements avec répétition de p éléments

pris parmi n est donné par : n p avec 1  p  n et n, p *


.

Exemple 1 :

Soit l’ensemble E  a, b, c .

9
Le nombre d’arrangements avec répétition de deux éléments choisis parmi les trois éléments de
l’ensemble E est : 32  9 .

Les arrangements possibles sont alors :  a, b  ,  b, a  ,  a, c  ,  c, a  ,  b, c  ,  c, b  ,  a, a  ,  b, b 

et  c, c  .

Exemple 2 :

Combien de nombres de trois chiffres peut-on former avec des chiffres de 1 à 6 ?


Le nombre des nombres de trois chiffres qu’on peut écrire avec des chiffres de 1 à 6 correspond
à un arrangement avec répétition de 3 éléments choisis parmi 6 éléments. Ainsi, il est égal à
63  216 .

5. Permutations
5.1 Permutations sans répétition

Définition :

On appelle permutations sans répétition de n éléments distincts toute suite ordonnée de ces
n éléments. Le nombre de permutations de n éléments distincts est donné par : Ann  n !

Exemple 1 :

Soit l’ensemble E  a, b, c .

Le nombre de permutations sans répétition de 3 éléments choisis parmi les trois éléments de
l’ensemble E est : 3!  6 .

Les permutations possibles sont alors : abc , acb , bac , bca , cab et cba

Exemple 2 :

De combien de façons différentes 5 personnes peuvent-elles prendre place sur un banc de 5


places ?

Les cinq personnes peuvent s’asseoir sur le banc de 5!  120 manières différentes.

10
5.2 Permutations avec répétition

Définition :

On appelle permutations de n éléments avec n1 , n2 , , nk répétitions toute suite ordonnée de


ces n éléments.

Le nombre de permutations de n éléments avec n1 , n2 , , nk répétitions est donné par :


n!
n1 ! n2 !  nk !

Exemple :

7!
- Le nombre de mots différents formés avec les lettres du mot monnaie est égal à  2520
2!
11!
- Le nombre d'anagrammes du mot philosophie est égal à  2494800
2! 2! 2! 2!
6. Combinaisons

Une combinaison de p éléments choisis parmi n éléments d’un ensemble est une disposition
non ordonnée de ces p éléments. On distingue les combinaisons sans répétition et les
combinaisons avec répétition.

6.1 Combinaison sans répétition

Définition :

Soit E un ensemble fini de cardinal n et p un entier tel que p  n .

On appelle combinaison sans répétition de p éléments parmi les n éléments de l’ensemble


E toute disposition non ordonnée de p éléments distincts choisis parmi les n éléments de

n
l’ensemble E . Le nombre de ces combinaisons se note CnP ou   et il est donné par :
 p
 n  Ap n!
C nP     n  .
 p  p ! p !(n  p)!

Exemple 1 :

6! 6! 6  5
- C 62     15 .
2!(6  2)! 2!4! 2!

11
9! 9! 9  8  7
- C 93     84 .
3!(9  3)! 3!6! 3!
12! 12! 12 1110  9  8
- C127     792 .
7!(12  7)! 7!5! 5!

Exemple 2 :

De combien de manières différentes peut-on constituer une équipe de 4 joueurs choisis parmi
un groupe de dix élèves.

Le nombre d’équipes de 4 joueurs qu’on peut constituer à partir d’un groupe de dix élèves
correspond à une combinaison de 4 éléments choisis parmi 10 éléments. Ainsi, il est égal à
10!
C104   210
4!(10  4)!

Propriétés :

1. Cn  Cn  1 .
0 n

n p
2. C n  C n .
p

p 1
3. Cn  Cn1  Cn1 . Cette relation permet de construire le triangle de Pascal.
p p

Exemple 3 :

On considère un groupe de huit hommes et six femmes.

1. De combien de manière peut-on former un jury de trois hommes et deux femmes parmi les
personnes de ce groupe ?
2. De combien de manière peut-on former cette fois ci un jury de cinq hommes et quatre
femmes parmi les personnes de ce groupe ?

Solution :

3
1. Les trois hommes peuvent être choisis parmi les 8 hommes de C 8 façons, et les deux
2
femmes parmi les 6 femmes de C 6 façons.

8! 6!
Alors le jury peut être formé de C 83  C 62    840 façons différentes.
3!5! 2!4!

12
2. Les cinq hommes peuvent être choisis parmi les 8 hommes de C 85 façons, et les quatre

femmes parmi les 6 femmes de C64 façons.


8! 6!
Alors le jury peut être formé de C85  C64    840 façons différentes.
5!3! 4!2!

Formule du binôme de Newton :

n
Pour tout n  , on a :  x  y    C np x n  p y p
n

p 0

Exemple 4 :

Développons  x  y  :
3

3
 x  y   Cnp x n p y p
3
On a
p 0

 x  y   C30 x3 y 0  C31 x 2 y1  C32 x1 y 2  C33 x 0 y 3


3

 x  y   1 x3 1  3  x 2 y1  3x1 y 2  11 y 3
3

 x  y   x3  3x 2 y  3xy 2  y 3
3

6.2 Combinaison avec répétition

Définition :

Soit E un ensemble fini de cardinal n et p un entier tel que p  n .

On appelle combinaison avec répétition de p éléments parmi les n éléments de l’ensemble


E toute disposition non ordonnée de p éléments non nécessairement distincts choisis parmi
les n éléments de l’ensemble E .

P
Le nombre de combinaisons avec répétition se note K n et il est donné par :

 n  p  1  n  p  1!
K nP  CnP p 1    .
 p  p !(n  1)!

Exemple :

Soit l’ensemble E  1, 2,3, 4 .

13
Le nombre de combinaisons avec répétition de deux éléments choisis parmi les éléments de
5!
l’ensemble E est : K 42  C42 21  C52   10 .
2!3!

Les combinaisons sont : 1, 2 ,1,3 ,1, 4 ,2,3 ,2, 4 ,3, 4 ,1,1 ,2, 2 ,3,3 ,4, 4 .

Tableau : Les principaux éléments de l’analyse combinatoire :

On peut résumer les différents éléments de l’analyse combinatoire dans le tableau suivant :

Type Ordre Avec Formule


important ? répétition ?
Arrangement sans Oui Non n!
Anp 
répétition (n  p)!

Arrangement avec Oui Oui np


répétition
Permutation sans Oui Non n!
répétition
Permutation avec Oui Oui, avec n!
répétition p1 , p2 ,..., pn p1 ! p2 ! ...  p n!

répétitions.
Combinaison sans Non Non  n  Ap n!
CnP     n 
répétition  p  p ! p !(n  p)!
Combinaison avec Non Oui  n  p  1  n  p  1!
K nP  CnP p 1   
répétition  p  p !(n  1)!

14
III. Calcul des probabilités

La probabilité est une branche des mathématiques qui a pour objectif d’étudier les phénomènes
ou les expériences aléatoires. Elle est appliquée dans de nombreux domaines de la science et
plus particulièrement dans les sciences sociales. Les premiers fondements des probabilités ont
été établis au XVIIe siècle par Pascal et Fermat. D’autres mathématiciens, tels que Huyghens,
Bernoulli, de Moivre, Bayes, Laplace et Borel, vont contribuer par la suite à l’émergence et au
développement de la théorie des probabilités.

L’objectif de ce chapitre est de présenter d’une part les notions fondamentales des probabilités
et d’autre part, d’évaluer la probabilité d’un événement.

1. Concepts et définitions
1.1 Expérience aléatoire

Définition :

Une expérience ou épreuve est dite aléatoire si on ne peut pas prévoir d’avance son résultat et
si, répétée dans des conditions identiques, elle peut conduire à des résultats différents.
Exemple :
Exemples de certaines expériences aléatoires :
- Lancer un dé.
- Lancer une pièce de monnaie.
- Tirer une boule d’une urne.
- Tirer une carte d’un jeu de 52 cartes.
1.2 Univers

Définition :

L’univers ou l’univers des possibles est l’ensemble des résultats (des issues, des éventualités,
des réalisations) possibles d’une expérience aléatoire. Il est noté  .

Exemple :
- Quand on jette un dé à six faces, on obtient les résultats suivants : 1, 2, 3, 4,5 et 6. Alors
  1, 2,3, 4,5,6 .
- Quand on lance une pièce de monnaie, on obtient les résultats suivants : Pile ou face. Alors
  P, F  .

15
- Quand on tire au hasard une boule d’une urne contenant deux boules vertes, une boule
blanche et une boule rouge, on obtient les résultats suivants : boule verte, boule blanche
ou boule rouge. Alors   V , B, R .

1.3 Evénement

Définition :

Un événement est un sous ensemble de l’ensemble des résultats possibles, c’est-à-dire, un sous
ensemble de  .

Exemple :
Dans le lancer simultané de deux dés à six faces numérotées de 1 à 6, on s'intéresse aux chiffres
inscrits sur les faces supérieures et on peut par exemple considérer les événements suivants :
- Evénements A : Les deux chiffres sont identiques.
Ainsi A  1,1 ,  2, 2  ,  3,3 ,  4, 4  , 5,5 ,  6,6 

- Evénements B : Les deux chiffres sont pairs. Ainsi


B   2, 2 ,  4, 2  ,  6, 2  ,  2, 4  ,  4, 4  ,  6, 4  ,  2,6  ,  4,6  , 6,6  .

- Evénements C : La somme des deux chiffres est égale à 7. Ainsi


C   6,1 ,  5, 2  ,  4,3 , 3, 4  ,  2,5 , 1,6  , .

2. Algèbre des événements


2.1 Evénements particuliers

Définitions :

- Un événement élémentaire est un événement qui ne contient qu’une seule issue.


- Un événement certain est un événement qui est toujours réalisé.
- Un événement est impossible est un événement qui n’est jamais réalisé.

Exemple :

On lance un dé à six faces et on définit les événements suivants :


- L’événement A : « le numéro obtenu est égal à 4 » est un événement élémentaire. A  4

- L’événement B : « le numéro obtenu est inférieur ou égal à 6 » est un événement certain.


B  1, 2,3, 4,5,6 .

16
- L’événement C : « le numéro obtenu est strictement inférieur à 1 » est un événement
impossible. C   .
2.2 Opérations sur les événements

Définitions :

- L’événement contraire ou complémentaire d’un événement A se note A . Il est réalisé, si


est seulement si, l’événement A n’est pas réalisé.
- L’événement A  B est réalisé, si et seulement si, les deux événements A et B sont
simultanément réalisés.
- Les événements A et B sont incompatibles ou mutuellement exclusifs si A  B   ,
c’est-à-dire si les deux événements A et B ne se réalisent pas simultanément.
- L’événement A  B est réalisé, si et seulement si, l’un au moins des deux événements est
réalisé.

Exemple :
On lance un dé à 6 faces et on considère les événements suivants :
- L’événement A : « le numéro obtenu est strictement inférieur à 4 ». Ainsi, A  1, 2,3 .

- L’événement B : « le numéro obtenu est impair ». Ainsi, B  1,3,5 .

- L’événement contraire A est donc : « obtenir un numéro supérieur ou égal à 4 ». Ainsi,


A  4,5,6 .

- L’événement contraire B est donc : « obtenir un numéro pair ». Ainsi, B  2, 4,6 .

- L’événement A  B est donc : « obtenir un numéro strictement inférieur à 4 et impair ».


Ainsi, A  B  1,3 .

- L’événement A  B est donc : « obtenir un numéro strictement inférieur à 4 ou impair ».


Ainsi, A  B  1, 2,3,5 .

3. Tribu (ou  -algèbre) des événements

Définition :

Soit  un ensemble non vide.

On appelle tribu ou  -algèbre sur  tout sous-ensemble T de P    vérifiant :

17
-  T
- A T , A T
- Pour tout suite An d’éléments de T , on a n An  T

Exemple :

- T0  ,  est une tribu sur  appelée tribu grossière.

- P    est une tribu sur  .

- Soit A , T  , A, A,  est une tribu sur  .

- Si   a, b, c et T  , , a, b , a, c , c , alors T n’est pas une tribu sur  , car

b  T .
4. Espace probabilisable

Définition :

On appelle espace probabilisable lié à une expérience aléatoire, le couple  ,T  où  est

l’ensemble des issues possibles et T la tribu des événements liés à cette expérience.

Remarque :

Dans le cas où  est fini où infini, on considère que T  P    .

5. Probabilité d’un événement

Définition :

Soit  , P()  un espace probabilisable fini. On appelle probabilité toute application

 :   0,1; A P  A vérifiant les propriétés suivantes :

- P    1

- Pour toute réunion finie ou infinie dénombrable d’éléments de P    , deux à deux

 
incompatible, on a : P U Ai   P  Ai  .
i
i

18
Propriétés :

La probabilité P d’un événement vérifie les propriétés suivantes :

- P   0

- P  A   1  P  A .

- 0  P  A  1 .

- Si A  B , alors P  A  P  B  .

- Si  An  est un système d’événements complet, on a :  P A  1.


n
n

- Si A et B deux événements quelconques, on a : P  A  B   P  A  P  B   P  A  B  .

- Si A , B et C des événements quelconques, on a :


P  A  B  C   P  A  P  B   P  C   P  A  B   P  A  C   P  B  C   P  A  B  C 

Théorème (Formule du crible, ou de Poincaré) :

Pour toute famille d’événements  Ai 1i n , on a :

 n  n
P  A i    P  Ai     1  P  Ai1  Ai 2  Aik     1 P  A1  A2  An 
k 1 n 1

 i 1  i 1 1i1i 2 ik  n

6. Probabilité uniforme sur un univers fini

Définition :

Soit   w1 , w2 , , wn  un univers fini et p une probabilité sur P    .

La probabilité p est dite uniforme ou une équiprobabilité, si tous les évènements élémentaires
ont la même probabilité d’être réalisés. On a alors :

p wï  
1 1
- 
card    n

card  A nombre d ' issues favorables


- Pour tout événement A on a : p  A   .
card    nombre d ' issues total

19
Exemple 1 :

On jette un dé équilibré à 6 faces et on définit les événements suivants :

- L’événement A : obtenir le nombre 3. Ainsi, A  3 .

- L’événement B : obtenir un nombre pair. Ainsi, B  2, 4,6 .

- L’événement C : obtenir un nombre strictement supérieur à 4. Ainsi, C  5,6 .

On calcule la probabilité de chacun des événements suivants : A , B et C .

Comme le nombre des issues possibles est égal à 6, alors :

card  A 1
- p  A  
card    6

card  B  3 1
- p  B   
card    6 2

card  C  2 1
- p C    
card    6 3

Exemple 2 :

On jette trois fois de suite une pièce de monnaie et on note le nombre de piles obtenu. Le nombre
des issues (résultats) possibles est égal à 23  8 .

1
- La probabilité d’obtenir 0 pile est de .
8
3
- La probabilité d’obtenir pile est de .
8
3
- La probabilité d’obtenir 2 piles est de .
8
1
- La probabilité d’obtenir 3 piles est de .
8

Exemple 3 :

On considère la distribution des salaires d’une entreprise :

20
salaire effectif

0;4000 45

 4000;6000 35

6000;10000 20

Total 100
On interroge au hasard un des salariés de cette entreprise.

45
- La probabilité pour qu’un salarié gagne moins de 4000 est de p  S 4000    0, 45 .
100
- La probabilité pour qu’un salarié gagne un salaire supérieur ou égal à 6000 est de
20
p  S  6000    0, 2 .
100
- La probabilité pour qu’un salarié gagne un salaire inférieur à 6000 est de
45 35
pS 6000   p  0  S 4000   p  4000  S 6000    0.8 .
100 100

Exemple 4 :

On considère un jeu de cartes contenant 4 couleurs : trèfle, carreau, cœur et pique. Dans chaque
couleur, on a 13 cartes : as, roi, dame, valet, 10, 9, 8, 7, 6, 5, 4, 3, 2. On tire au hasard une carte.

- La probabilité de tirer un valet ou roi est de :


4 4 8 2
p V  R   p V   p  R   p V  R    0  
52 52 52 13
- La probabilité de tirer une dame ou carreau de :
4 13 1 16 4
p  D  CA  p  D   p  CA  p  D  CA     
52 52 52 52 13
- La probabilité de tirer un roi ou trèfle ou cœur :
p  R  T  CO   p  R   p T   p  CO 
 p  R  T   p  R  CO   p T  CO   p  R  T  CO 
4 13 13 1 1 28 7
     00  
52 52 52 52 52 52 13

21
7. Probabilité conditionnelle

Définition :

Soit  , P(), P  un espace probabilisé et B un événement de probabilité non nulle.

On appelle probabilité conditionnelle sachant B l’application P() dans  0,1 , notée P( A / B)

P  A  B
, définie par : A  P    , P( A / B)  .
P  B

Remarque :

- P( A / B) se note aussi PB ( A) et se lit la probabilité de A sachant que B est réalisé.

- P( B / A) se note aussi PA ( B) et se lit la probabilité de B sachant que A est réalisé.

Propriétés :

- Si P( A)  0 et P( B)  0 , alors : P( A  B)  P( B / A)  P( A)  P( A / B)  P( B) .

- P( A / B )  1  P ( A / B ) .
- P(B C/ A)  P( B / A)  P(C / A)  P(B C / A)

Exemple 1 :

On lance un dé deux fois de suite et on définit les événements suivants :

L’événement A : « la somme des deux chiffres est égale à 4 ».

L’événement B : « les deux chiffres sont impairs ».

On calcule les probabilités suivantes :

- La probabilité de A sachant B .
- La probabilité de B sachant A .

Pour cette expérience aléatoire on a 36 issues.

Et on a :

- A  1,3 ,  2, 2  ,  3,1  .

22
- B  1,1 , 1,3 , 1,5 , 3,1 , 3,3 , 3,5 , 5,1 , 5,3 , 5,5   .

- A  B  1,3 ,  3,1  .

Alors :

card ( A) 3 1
- p  A    .
card () 36 12
card ( B) 9 1
- p  B    .
card () 36 4
card ( A  B) 2 1
- p  A  B    .
card () 36 18

Par conséquent, la probabilité de A sachant B est de :

1
p( A  B) 18 4 2
p  A / B     ,
p( B) 1 18 9
4

Et la probabilité de B sachant A est de :

1
p( A  B) 18 12 2
p  B / A    
p(A) 1 18 3
12

Exemple 2 :

Deux usines produisent des pièces. La production de l’usine A est défectueuse à 7%. La
production de l’usine B est défectueuse à 5%. L’usine A réalise 35% de la production totale.
On tire au hasard une pièce fabriquée par les deux usines :

1- Calculer la probabilité que la pièce soit défectueuse.


2- Si une pièce est défectueuse, quelle est la probabilité qu’elle est produite par l’usine A ?

Solution:

1. On calcule la probabilité que la pièce soit défectueuse.


Pour résoudre le problème, on va définir d’abord les événements suivants :
- Evénement A : la pièce est produite par l’usine A .
- Evénement B : la pièce est produite par l’usine B .

23
- Evénement D : la pièce est défectueuse.

Ensuite, on va le schématiser par l’arbre ci-dessous :

0.07 D
0.35 A
0.93 D
0.05 D
0.65 B
0.95
D
On a : p  A  0.35 , p  B   0.65 , p  D / A  0.07 et p  D / B   0.05

Alors, la probabilité qu'une pièce soit fabriquée par l’usine A et soit défectueuse est :

p( A  D)  p(D/ A)  p( A)
 0.07  0.35
 0.0245

Et la probabilité qu'une pièce soit fabriquée par l’usine B et soit défectueuse est :

p( B  D)  p(D/ B)  p( B)
 0.05  0.65
 0.0325

Par conséquent, la probabilité que la pièce soit défectueuse est de :

p( D)  p( A  D)  p( B  D)
 0.0245  0.0325
 0.057
2. On calcule la probabilité que la pièce est produite par l’usine A sachant qu’elle est
défectueuse.
p  A  D
p( A / D) 
p  D
0.0245

0.057
 0.429

24
8. Indépendance

Définition :

On dit que deux événements A et B sont indépendants si et seulement si


p  A  B   p  A  p  B  .

Propriété :

Les deux événements A et B de probabilités non nulles sont indépendants si :

p  A / B   p  A ou p  B / A  p  B 

Indépendance mutuelle :

Les événements A1 , A2 ,...., An sont indépendants ou mutuellement indépendants si pour toute

 
partie I de l’ensemble 1, 2,...., n : P  Ai    P  Ai 
 iI  iI

Exemple :

On jette trois fois de suite une pièce de monnaie et on définit les événements suivants :

- L’évènement A : le premier jet donne pile.


- L’événement B : le second jet donne pile.

On a : l’ensemble des issues possibles est   FFF , FFP, FPF , FPP, PFF , PFP, PPF , PPP

, A   PFF , PFP, PPF , PPP , B   FPF , FPP, PPF , PPP et A  B   PPF , PPP

Donc :

card  A 4 1
- p  A   
card    8 2

card  B  4 1
- p  B   
card    8 2

card  A  B  2 1
- p  A  B   
card    8 4

Comme p  A  B   p  A . p  B  , alors les deux événements A et B sont indépendants.

25
9. Formule des probabilités totales

Définition :

Soit  Ai  un système complet d’événements de probabilités non nulles.

Alors, pour tout événement B , on a : P  B    P  B  Ai    P  B / Ai   P  Ai 


i i

10. Théorème de Bayes

Théorème :

Selon la définition des probabilités conditionnelles, on peut écrire :

P( A  B)  P( B / A)  P( A)  P( A / B)  P( B)

On en déduit la première formule de Bayes :

P( A / B)  P( B)
P( B / A) 
P( A)

Selon la formule des probabilités totales P( A) peut s’écrire comme suit :

P  A   P  A  Bi    P  A / Bi   P  Bi 
i i

On en déduit alors la deuxième formule de Bayes :

P( A / Bi )  P( Bi )
P( Bi / A) 
 P  A / Bk   P  Bk 
k

Exemple :

Dans une usine, trois machine automatiques M 1 , M 2 et M 3 fabriquent des pièces de moteurs

du même type. La machine M 1 produit 50 % du total des pièces, la machine M 2 35 % et la

machine M 3 produit 15 %. En moyenne, les pourcentages des pièces défectueuses sont de 0,3%

pour la machine M 1 , de 0,8 % pour la machine M 2 et de 1 % pour la machine M 3 . On choisit


au hasard une pièce dans la production totale des trois machines. On constate qu’elle est
défectueuse.

1. Quelle est la probabilité qu’elle ait été produite par la machine M 1 ?

26
2. Quelle est la probabilité qu’elle ait été produite par la machine M 2 ?

3. Quelle est la probabilité qu’elle ait été produite par la machine M 3 ?

Solution :

1. On calcule la probabilité que la pièce soit produite par la machine M 1 sachant qu’elle est
défectueuse.
Pour résoudre le problème, on va définir d’abord les événements :
- Evénement M 1 : la pièce est produite par la machine M 1 .

- Evénement M 2 : la pièce est produite par la machine M 2 .

- Evénement M 3 : la pièce est produite par la machine M 3 .


- Evénement D : la pièce est défectueuse.

Ensuite, on va le schématiser par l’arbre de probabilités ci-dessous :

0.003 D
M1
0.5 0.997 D
0.008 D
0.35 M2

0.992 D
0.15 0.01 D
M3

0.99 D
Ainsi, on a :

- p  M1   0.5 , p  M 2   0.35 et p  M 3   0.15 .

- p  D / M1   0.003 , p  D / M 2   0.008 et p  D / M 3   0.01 .

D’après le théorème de Bayes, la probabilité que la pièce soit produite par la machine M 1
sachant qu’elle est défectueuse est de :

27
p  D / M1  p  M1 
p  M1 / D   3

 pD / M  pM 
1
i i

p  D / M1  p  M1 

p  D / M1  p  M1   p  D / M 2  p  M 2   p  D / M 3  p  M 3 
0.003  0.5

0.003  0.5  0.008  0.35  0.01 0.15
 0.258

2. On calcule la probabilité que la pièce soit produite par la machine M 2 sachant qu’elle est
défectueuse.

D’après le théorème de Bayes, la probabilité que la pièce soit produite par la machine M 2
sachant qu’elle est défectueuse est de :

pD / M2  p M2 
p  M 2 / D  3

 pD / M  pM 
1
i i

pD / M2  p M2 

p  D / M1  p  M1   p  D / M 2  p  M 2   p  D / M 3  p  M 3 
0.008  0.35

0.003  0.5  0.008  0.35  0.01 0.15
 0.482

3. On calcule la probabilité que la pièce soit produite par la machine M 3 sachant qu’elle est
défectueuse.

D’après le théorème de Bayes, la probabilité que la pièce soit produite par la machine M 3
sachant qu’elle est défectueuse est de :

p  D / M3  p M3 
p  M 3 / D  3

 pD / M  p M 
1
i i

p  D / M3  p M3 

p  D / M1  p  M1   p  D / M 2  p  M 2   p  D / M 3  p  M 3 
0.01 0.15

0.003  0.5  0.008  0.35  0.01 0.15
 0.258

28
IV. Variables aléatoires

L’objectif de ce chapitre est d’étudier la notion de variable aléatoire et ses principales


caractéristiques.

1. Notion de la variable aléatoire

Définition:

Une variable aléatoire X est une fonction définie sur l’ensemble  , qui associé une valeur
numérique à chaque résultat de l’expérience aléatoire. Autrement dit, elle est une application
de l’ensemble  dans .

Notation :

On note X la variable aléatoire et x la valeur prise par cette variable aléatoire.

Exemple :

- Nombre de piles apparaissant après 3 jets d’une pièce de monnaie.


- Nombre de clients entrant dans une banque le lundi.
- Taille d’un groupe d’individus.
- Durée de vie d’une pièce mécanique.

2. Variable aléatoire discrète


2.1 Définition de la variable aléatoire discrète

Définition:

On dit que X est une variable aléatoire discrète si X    est fini ou dénombrable.

Exemple :

On lance deux dés à six faces parfaitement équilibrés. On note X la variable aléatoire
représentant la somme des deux chiffres obtenus.

L’univers associé à cet expérience aléatoire est l’ensemble  défini par :


   x, y  / x, y  1,2,3,4,5,6 .

Comme X est la variable aléatoire correspondant à la somme des deux chiffres obtenus, elle
peut prendre les valeurs suivantes : 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12.

29
Donc, X    2,3, 4,5,6,7,8,9,10,11,12 .

Puisque X    est un ensemble fini, la variable aléatoire X est discrète.

2.2 Loi de probabilité

Définition:

La loi de probabilité ou distribution de la variable aléatoire X est définie par l’application qui
fait correspondre xi  X    sa probabilité P  X  xi  .

Exemple :

Pour déterminer la loi de probabilité de la variable aléatoire X représentant la somme des deux
chiffres obtenus après avoir lancé deux dès parfaitement équilibrés, il faut calculer P  X  xi 

pour tout xi  X    .

Ainsi, la loi de probabilité de cette variable aléatoire est donnée par le tableau suivant:

xi 2 3 4 5 6 7 8 9 10 11 12 Total

P  X  xi  1 2 3 4 5 6 5 4 3 2 1 1
36 36 36 36 36 36 36 36 36 36 36

On peut représenter cette loi sous la forme d’un diagramme en bâton.

Figure 1 : Représentation graphique de la loi de probabilité de la variable aléatoire X .

0,18
P(X=X)

0,16
0,14
0,12
0,1
0,08
0,06
0,04
0,02
0
2 3 4 5 6 7 8 9 10 11 12
X

30
2.3 Fonction de répartition

Définition :

On appelle fonction de répartition d’une variable aléatoire X , la fonction FX définie par :

FX  x   P  X  x  , x  .

Propriétés :

Soit FX la fonction de répartition d’une variable aléatoire X .

- x  , 0  FX  x   1 .

- La fonction de répartition est une fonction croissante à valeur dans  0,1 .

- La fonction de répartition est partout continue à droite.


- lim FX  x   0 et lim FX  x   1 .
x  x 

Exemple :

La fonction de répartition de la variable aléatoire X de l’exemple précédent est définie par :

xi 2 3 4 5 6 7 8 9 10 11 12

FX  xi  1 3 6 10 15 21 26 30 33 35 36
36 36 36 36 36 36 36 36 36 36 36

 21
0 si x 2  36 si 7  x 8
1 
 si 2  x 3  26
 36 si 8  x 9
 36
3 
 si 3  x 4  30
 36 si 9  x 10
 36
Ainsi, F ( x)   6 et F ( x)  
 36 si 4  x 5  33 si 10  x 11
  36
 10 si 5  x 6  35
 36  si 11  x 12
  36
 15 si 6  x 7  36
 36  si x  12
 36

31
Cette fonction de répartition peut être représentée par une courbe cumulative en escalier.

Figure 2 : Représentation graphique de la fonction de répartition de la variable aléatoire X .

2.4 Espérance et variance

Définition 1:

Soit X une variable aléatoire discrète. L’espérance de la variable X est donnée par :
n
E  X    pi xi .
i 1

Propriétés 1 :

Si X est une variable aléatoire discrète admettant une espérance, alors  a; b , on a :

- E a  a

- E  aX  b   aE  X   b

Si X et Y sont deux variables aléatoires discrètes indépendantes, admettant chacune


une espérance, alors :

- E  X  Y   E  X   E Y  .

- E  X  Y   E  X   E Y  .

- E  XY   E  X   E Y  .

32
Exemple 1 :

On jette trois fois de suite une pièce de monnaie et on note X la variable aléatoire représentant
le nombre de faces obtenues.

L’univers associé à cet expérience aléatoire est l’ensemble  défini par :

  FFF , FFP, FPF , FPP, PFF , PFP, PPF , PPP .

Puisque X est le nombre de faces obtenues, elle peut prendre les valeurs suivantes : 0, 1, 2, 3.
Ainsi, X     0,1, 2,3 .

Pour calculer l’espérance de la variable aléatoire X , il faut déterminer sa loi de probabilité.

La loi de probabilité de cette variable est définie par :

x 0 1 2 3 Total

P  X  x 1 3 3 1 1
8 8 8 8

Ainsi, l’espérance de la variable aléatoire X est :

n
E  X    pi xi
i 1

 1  3  3  1
  0     1    2     3  
 8  8  8  8
3

2

Définition 2:

Soit X une variable aléatoire discrète.

n 2

La variance de la variable X est donnée par : V  X     xi  E  X   pi


i 1

L’écart type de la variable X est donnée par :   X   V ( X ) .

Propriétés 1 :

Soit X une variable aléatoire discrète et a , b  , on a :

33
V  X   E  X 2    E  X  (Formule de Koenig-Huyghens).
2
-

- V a  0

- V  aX  b   a 2V  X  .

-   aX  b   a   X 

Exemple 2 :

On calcule la variance et l’écart type de la variable aléatoire X de l’exemple précèdent.

La variance de cette variable est définie par : V  X   E  X 2    E  X 


2

  1 3
On a, E X 2  02   12   22   32 
8 8
3
8
1
8

2
1 3 3 1 3 3
Donc, V  X   0   12   22   32     
2

8 8 8 8 2 4

3
Alors, l’écart type de cette variable est :   X   .
2

3. Variable aléatoire continue


3.1 Notion de variable aléatoire continue

Définition:

Une variable aléatoire est dite continue lorsqu’elle peut prendre ses valeurs dans un intervalle
I de .

Exemple :

Les variables suivantes sont des variables aléatoires continues :

- Taille d’un individu.


- Temps d’attente à une caisse.
- Poids d’un individu.

34
3.2 Densité de probabilité

Définition 1:

On dit que X est une variable aléatoire à densité ou une variable aléatoire continue si, et
seulement si, il existe une fonction f satisfaisant les conditions suivantes :

- f est continue sur privé d’un nombre fini de points ;

- f t   0 t  ;

-  f  t  dt  1 .


Définition 2:

Soit f une densité de probabilité. La variable aléatoire X est une variable à densité ou variable

aléatoire continue si, pour tout a et b réels tels que a  b : P  a  X  b    f  t  dt .


b

Exemple :

Soit f la fonction définie sur par :

x
 si 0  x  2
f  x   2
0 sinon

Montrer que f est une densité de probabilité d’une variable aléatoire X .

Solution :

Pour montrer que f est une densité de probabilité d’une variable aléatoire X , il faut vérifier

qu’elle est une fonction positive et continue sur et que  f  x  dx  1 .


- Positivité de f :

, car pour tout x   0, 2 ,


x
La fonction f est positif sur  0.
2
- Continuité de f :

La fonction f est continue sur ,0  2,  , puisqu’elle est nulle.

La fonction f est continue sur 0, 2 , car elle est une fonction polynôme.

35
En 0, on a lim f ( x)  lim f ( x)  f (0)  0 , donc f est continue en 0.
x 0 x 0

En 2, on a lim f ( x)  lim f ( x) , donc f n’est pas continue en 2.


x 2 x 2

Ainsi, f est continue sur  2 .



- Calcul de l’intégrale  f  x  dx :


 
f  x  dx   f  x  dx   f  x  dx   f  x  dx
0 2
  0 0

  f  x  dx
2

0
2 x
 dx
0 2
2
 x2 
 
 4 0
4 0
    1
4 4

En conclusion, f est une densité de probabilité.

3.3 Relation entre fonction de densité et fonction de répartition

Définition :

Soit X une variable aléatoire. On appelle fonction de répartition de X la fonction F définie

par : F  x   P  X  x    f  t  dt .
x
sur


Proposition :

Soit F une fonction de répartition d’une variable aléatoire de densité f .

- F est croissante sur .


- F est continue sur .
- Pour tout x  , 0  F  x   1 .

- lim F  x   0 et lim F  x   1
x  x 

- F '  x   f ( x) pour tout x  éventuellement privé d’un ensemble de points.

Propriétés:

Soit a, b  tels que a  b , on a :

36
P  X  a    f  t  dt  0
a
-
a

P  a  X  b    f  t  dt  F  b   F  a  .
b
-
a

P  X  b   f  t  dt  F  b  .
b
-



- P X a   f  t  dt  1  P  X  a   1  F  a  .
a

Exemple:

Soit f une densité de probabilité d’une variable aléatoire X définie par :

 3 2
 x x si 0  x  2
f  x   8
0 sinon

1. Déterminer la fonction de répartition de la variable X .


2. Calculer la probabilité P  0.5  X  1 .

3. Calculer la probabilité P  X  1 .

4. Calculer la probabilité P  X 1.5 .

Solution :

1. On détermine la fonction de répartition de la variable X .

On sait que la fonction de répartition d’une variable aléatoire est définie par :

x  , F  x    f  t  dt .
x



Ainsi,

0 , on a F  x    0 dt  0 .
x
- Si x


x
 3t 2   t 3 t 2  x3 x 2
Si 0  x  2 , on a F  x    0 dt   
0 x
-  t  dt       .
 0
 8   8 2 0 8 2
2
 3t 2   t 3 t 2 
2 , on a F  x    0 dt  
0 2 x 2
- Si x f (t ) dt   0 dt     t  dt      1.
 0 2 0
 8   8 2 0

En conclusion :

37
0 si x 0
 3
 x x2
x  , F  x     si 0  x  2
 8 2
1 si x 2

2. On calcule la probabilité P  0.5  X  1 .

 13 12    0.5  0.5  17
3 2

P  0.5  X  1  F 1  F  0.5          


 8 2   8 2  64

3. On calcule la probabilité P  X  1 .

 13 12  3
P  X  1  F 1      
 8 2 8

4. On calcule la probabilité P  X  1.5 .

 1.53 1.52  19
P X 1.5  1  F 1.5  1     
 8 2  64
 

3.4 Les caractéristiques d’une variable aléatoire continue


3.4.1 Espérance

Définition

Soit X une variable aléatoire de densité f .


X admet une espérance si l’intégrale 

f ( x) dx converge.


L’espérance de X , notée E  X  est définie alors par : E  X    x f ( x) dx


Propriétés

Soient X et Y deux variables à densité admettant une espérance et a et b deux réels, on a :

- E  aX  b   aE  X   b .

- E  X  Y   E  X   E Y  .

- E  X  Y   E  X   E Y  .

38
Exemple :
Soit X une variable aléatoire de densité f donnée par :

12 x 2 1  x  si 0  x  1
f  x  
0 sinon

On calcule l’espérance de la variable aléatoire X .



Par définition, on a E  X    x f ( x) dx .


Donc,

EX   
0 1
x f ( x ) dx   x f ( x ) dx   x f ( x ) dx
 0 1

x  0 dx   12 x 3 1  x  dx  
0 1
 x  0 dx
 0 1

12 x  12 x 4  dx  0
1
 0  3
0

12 x  12 x 4  dx
1
 3
0
1
12 x 4 12 x 5 
 
 4 5  0
 12  3
 3 0 
 5  5

3.4.2 Variance et Ecart type

Définition

Soit X une variable aléatoire de densité f et d’espérance E  X  .

La variance de la variable aléatoire X, notée V X , est définie par :



V  X     x  E  X  f ( x) dx .
2



L’écart type de la variable aléatoire X , noté   X  , est donnée par :   X   V  X  .

Propriétés

Si X et Y sont deux variables à densité admettant une espérance et une variance, alors pour
tout a; b  , on a :

- V  aX  b   a 2V  X  .

-   aX  b   a   X  .

39
Si X et Y sont deux variables aléatoires indépendantes, alors on a :

- V  X  Y   V  X   V Y  .

- V  X  Y   V  X   V Y  .

- V  XY   V  X  V Y  .

Exemple :

Soit X une variable aléatoire de densité f donnée par :

1
 1  x  si 0  x  3
2
f  x   12
0 sinon

On calcule la variance de la variable aléatoire X .

Par définition, on a : V  X   E  X 2    E  X      
  2
2
x f ( x) dx 
2
x f ( x) dx .
 

Ainsi,


EX    x f ( x) dx

0 3 
  x f ( x) dx   x f ( x) dx   x f ( x) dx
 0 3

 
0 1 3 
  x  0 dx 
12 0 3 x  0 dx
x 1  x 2
dx 


3
1  x2 x4 
   
12  2 4  0
1  9 81   33
   0 
12  2 4   16
EX2  

x 2 f ( x) dx

0 3 
  x 2 f ( x) dx   x 2 f ( x) dx   x 2 f ( x) dx
 0 3

 
0 1 3 2 
  x 2  0 dx   x 1  x 2
dx   x 2  0 dx
 12 0 3

3
1  x3 x5 
   
12  3 5  0
1  27 243   24
   0 
12  3 5   5

40
2
24  33 
En conclusion, V  X     0.546 et   X   0.546  0.738 .
5 16 

3.4.3 Variable centrée réduite

Définition :

Une variable aléatoire est dite centrée si elle admet une espérance et si cette espérance est nulle.

Une variable aléatoire est dite réduite si elle admet une variance et si cette variance est égale à
1.

Une variable aléatoire est dite centrée réduite si son espérance est nulle et si sa variance est
égale à 1.

On définit une variable aléatoire U centrée réduite, associée à X , par la relation suivante:
X EX 
U .
X

3.4.4 Inégalité de Markov et de Bienaymé-Tchebychev

Si l’espérance d’une distribution est connue ainsi que sa variance, on peut utiliser l’inégalité de
Bienaymé-Tchebyschev pour borner la valeur de certaines probabilités.

Définition :

Soit X une variable aléatoire admettant une espérance et une variance. Alors, pour tout  0
, on a :

EX 
- P X    .

V X 
- 
P X EX      2
.

V X 
- 
P X  EX     1
2

Exemple :

Soit X la variable aléatoire définie par le nombre de pièces produite par une entreprise pendant
une semaine d’espérance 40 et de variance 20.

D’après l’inégalité de Bienaymé-Tchebyschev, on a :

41
- P( X  10)  4 .

P  X  40  10  
1
- .
5

P  X  40 10  
4
- .
5

42
V. Les lois de probabilités discrètes

Pour étudier un phénomène statistique, il sera nécessaire de le modéliser par une loi de
probabilité. Le choix de cette loi dépend de la nature de ce phénomène, de la forme de la
distribution de probabilité de la variable aléatoire, des caractéristiques de cette variable
(espérance, variance) et du nombre des paramètres de la loi.

Ainsi, l’objectif de ce chapitre est de présenter les lois de probabilités discrètes qui sont souvent
utilisées dans les modèles.

1. Loi uniforme

Définition :

Soit X une variable aléatoire prenant chaque valeur de l’ensemble  x1 , x2 ,..., xn  . On dit que

1
X suit la loi uniforme si : P  X  xi   pour tout 1  i  n .
n

La variable aléatoire X suit alors une loi uniforme de paramètre n . On note X U  n .

Propriétés:

Si la variable aléatoire X suit une loi uniforme de paramètre n , alors :

n 1
- EX   .
2
n2  1
- V X   .
12

n2  1
-  X   V X  
12

Domaine d’application:

La loi uniforme s’applique aux jeux du hasard tels que pile ou face, jeu de dés, jeu de cartes et
jeu de loterie. Elle intervient aussi dans les sondages.

Exemple :

On lance un dé équilibré à six faces et on désigne par X la variable aléatoire représentant le


résultat obtenu.

43
La loi de probabilité de la variable X est définie par :

x 1 2 3 4 5 6 Total

P  X  x 1 1 1 1 1 1 1
6 6 6 6 6 6

La variable X suit une loi uniforme de paramètre 6.


1
Ainsi,  k  1, 2,3, 4,5, 6 P X  k  .
6

n 1 6 1 7 n2  1 36  1 35
Alors, E  X     et V  X     .
2 2 2 12 12 12
2. Loi de Bernoulli

Définition :

C'est la loi d'une variable aléatoire X ne pouvant prendre que deux valeurs notées 1 en cas de
succès et 0 en cas d’échec. Soit p la probabilité que la variable aléatoire soit égale à 1 et
q  1  p est la probabilité que X soit égale à 0.

 P  X  1  p
La loi de probabilité de X est donnée par : 
 P  X  0   1  p

On dit alors que la variable aléatoire X suit une loi de Bernoulli de paramètre p et on écrit :

X B  p .

Propriétés:

Si la variable aléatoire X suit une loi Bernoulli de paramètre p , alors :

- EX   p.

- V  X   p 1  p   pq .

-   X   V  X   pq

Domaine d’application:

La loi de Bernoulli intervient soit dans l’étude des jeux du hasard de type binaire tel que le jeu
de pile ou face, soit dans la modélisation des systèmes en fonction ou à l’arrêt.

44
Exemple:

Une entreprise fabrique des pièces dont 5% sont défectueuses. On considère la variable aléatoire
X prenant la valeur 1 si la pièce n’est pas défectueuse et 0 si elle est défectueuse.

La variable aléatoire X suit alors une loi de Bernoulli de paramètre p  0.95 .

D’où E  X   p  0.95 et EV  X   pq  0.95  0.05  0.0475 .

3. Loi de Binomiale

Définition 1:

On effectue n répétitions indépendantes d’une épreuve de Bernoulli dont la probabilité de


succès est p .

On définit alors la variable aléatoire X associée au nombre de succès obtenus sur les n
répétitions.

On dit que X suit une loi Binomiale de paramètres n et p , et on note X B  n, p  .

Définition 2:

Si la variable aléatoire X suit une loi Binomiale de paramètres n et p , alors la loi de


probabilité de cette variable est donnée par :

Pour tout K 0,1, 2,..., n , P  X  k   Cnk p k 1  p 


nk

Propriétés:

 Si la variable aléatoire X suit une loi Binomiale de paramètre n et p , alors :

- E  X   np .

- V  X   np 1  p   npq .

-   X   V  X   npq

 Si la variable aléatoire X suit une loi B  n, p  , alors la variable Y  n  X suit une loi

B  n,1  p  .

45
 Si X suit une loi B  n1 , p  et Y une loi B  n2 , p  , et si X et Y sont indépendantes, alors

X  Y suit une B  n1  n2 , p  .

Domaine d’application:

La loi binomiale intervient lorsqu’on cherche à dénombrer les réussites lors de la répétition
d’expériences identiques et indépendantes. Elle est aussi utilisée en contrôle qualité pour
évaluer la probabilité de défaillance d’un matériel technique.

Exemple:

Une usine fabrique des articles. La probabilité pour qu’un article fabriqué soit défectueux est
égale 5%. Soit X la variable aléatoire représentant le nombre d’articles défectueux dans un
échantillon de 20 articles.

1. Quelle est la probabilité d’avoir deux articles défectueux dans l’échantillon ?


2. Quelle est la probabilité d’observer au moins trois articles défectueux dans l’échantillon ?

Solution :

La variable aléatoire X représentant le nombre d’articles défectueux dans l’échantillon suit


une loi binomiale de paramètres n  20 et p  0.05 .

1. La probabilité pour que dans l’échantillon, deux articles soient défectueux est de:

P( X  2)  C202   0.05  1  0.05 


2 20  2

 C202   0.05   0.95


2 18

 0.188

2. La probabilité d’observer au moins trois articles défectueux dans l’échantillon est de :

P( X  3)  1  P( X 3)
 1  C20   0.05    0.95   C20   0.05    0.95   C202   0.05    0.95 
0 0 20 1 1 19 2 18

 0.075

4. Loi Hypergéométrique

Définition

46
On considère une population de taille N , soit p la proportion d’individus possédant une

propriété particulière P0 . On prélève un échantillon de taille n dans cette population, le tirage


s’effectue sans remise.

Soit X la variable aléatoire représentant le nombre d’individus de l’échantillon qui possèdent


la propriété P0 .

On dit que X suit une loi hypergéométrique de paramètres N , n, p et on écrit : X H  N , n, p 

CNk p CNn kN p


La loi de probabilité de X est définie par : P  X  k  
CNn

C Nn est le nombre d’échantillons de taille n de la population ;

CNk p est le nombre d’individus possédant la propriété P0 choisis parmi les N p individus de la

population entière possédant P0 ;

CNn kN p est le nombre des individus ne possédant pas la propriété P0 choisis parmi les N  N p

individus de la population ne possédant pas P0 ;

n
est le taux de sondage.
N

Propriétés:

Si la variable aléatoire X suit une loi Hypergéométrique de paramètre N , n, p , alors :

- E  X   np .

N n
- V  X   np 1  p  .
N 1

N n
-   X   V  X   np 1  p 
N 1

Domaine d’application:

La loi Hypergéométrique est souvent appliquée dans le domaine du contrôle de qualité.

47
Exemple:

Sur 40 pièces produites par une machine, 4 sont défectueuses. Le responsable qualité contrôle
30 pièces et accepte le lot que s’il ne contient aucune pièce défectueuse.

Calculer la probabilité que le lot soit rejeté.


Solution :

Soit X la variable aléatoire représentant le nombre de pièces défectueuses dans les 30 pièces
contrôlées.

 4 
La variable X suit alors une loi Hypergéométrique H  40,30,  .
 40 

Ainsi, la probabilité que le lot soit rejeté est de :

P  X  1  1  P  X 1
 1  P  X  0
30 .
C40  C36
 1 30
C40
 0.997

5. Loi de Poisson

Définition

On dit qu’une variable aléatoire X suit une loi de Poisson de paramètre  0 , noté P    , si

k
et seulement si pour tout k  : P  X  k   e  .
k!

Propriétés:

 Si la variable aléatoire X suit une loi de poisson de paramètre  , alors :

- EX   .

- V X    .

-  X   V X    .

 Si X suit une loi P  1  et Y une loi P  2  , et si X et Y sont indépendantes, alors X  Y

suit une P  1  2  .

48
Domaine d’application:

La loi de Poisson est dite loi des petites probabilités ou loi des événements rares. Elle est
appliquée dans les cas suivants :

- Nombre d’accidents.
- Nombre de fautes d’orthographe.
- Nombre d’appels reçus par un standard téléphonique.
- Nombre de pièces défectueuses dans une livraison importante.
- Les processus des files d’attente, ainsi que dans d’autres cas.

Exemple :

Une banque reçoit en moyenne dix chèques sans provision par jour.

1. Quelle est probabilité que la banque reçoit trois chèques sans provision par jour ?
2. Quelle est probabilité que la banque reçoit au moins trois chèques sans provision par jour?

Soit X la variable aléatoire correspondant au nombre de chèques sans provision reçu par la
banque par jour.

La variable X suit une loi de Poisson de paramètre   10 , alors,

1. La probabilité que la banque reçoit trois chèques sans provision par jour est de :

103
P  X  3  e10  0.007 .
3!

2. La probabilité que la banque reçoit au moins trois chèques sans provision par jour :

P  X  3  1  P  X 3
 1  P  X  0   P  X  1  P  X  2 
10 100 10 10
1
10 10
2
 1 e e e
0! 1! 2!
 0,997

49
6. Approximation
6.1 Approximation d’une loi hypergéométrique par une binomiale

Théorème :

Soit X une variable aléatoire suivant une loi Hypergéométrique H  N , n, p  . Si N tend vers

 alors X suit approximativement une loi Binomiale B  n, p  .

CNk p CNn kN p


Ainsi, P  X  k   Cnk  p  1  p 
k nk
n
C N

En pratique, on fasse l’approximation de la loi Hypergéométrique H  N , n, p  par la loi

Binomiale B  n, p  quand
n
 0.1 .
N

Exemple :

Dans une entreprise de 300 salariés, 240 seulement bénéficient d’une couverture sociale. On
choisit au hasard un groupe de 8 salariés. Trouver la probabilité que cinq d'entre eux aient une
couverture sociale.

Soit X la variable aléatoire représentant le nombre des salariés bénéficiant d’une couverture
sociale.

 240 
La variable X suit alors une loi Hypergéométrique H  300,8, .
 300 

n 8
Puisque   0.1 , on peut approcher la loi de la variable X par la loi binomiale
N 300
 240 
B  8, .
 300 

Ainsi, la probabilité que cinq d'entre eux aient une couverture sociale est de :

5 8 5
 240   240 
P  X  5  C 
5
8  1  
 300   300 
 C85  0.8   0.2 
5 3

 0.146

6.2 Approximation de la loi binomiale par la loi de poisson

50
Théorème :

Soit X une variable aléatoire suivant une loi binomiale B  n, p  . Si n tend vers  , p est

petite et np   (  valeur finie), alors X suit approximativement une loi de poisson P    .

 np 
k

Ainsi, P  X  k   C p 1  p 
k k nk  np
n e .
k!

En pratique, on utilise cette approximation lorsque p 0.1 , n 30 et np 15 .

Exemple :

Une machine produit des pièces dont 2% sont défectueuses. On prélève au hasard un échantillon
de 100 pièces.

Quelle est la probabilité que quatre pièces dans l’échantillon soient défectueuses ?

Soit X la variable aléatoire représentant le nombre de pièces défectueuses dans l’échantillon.

La variable X suit une loi binomiale de paramètres n  100 et p  0.02 .

Puisque n  100 30 , p  0.02 0.1 et np  2 15 , on peut approcher la loi de la variable X

par la loi de Poisson P  np  2  .

Ainsi, la probabilité que quatre pièces dans l’échantillon soient défectueuses est de :

24
P  X  4  e 2
 0.09
4!

51
VI. Les lois de probabilités continues

Dans ce chapitre, on va présenter les principales lois de probabilités continues à savoir : la loi
uniforme, la loi exponentielle et la loi normale.

1. Loi uniforme

Définition :

On dit que la variable aléatoire X suit la loi uniforme sur  a, b , notée U  a, b , si elle admet

pour fonction de densité de probabilité la fonction f définie par :

 1
 si x   a, b 
f ( x)   b  a

0 sinon

La fonction de répartition de la loi uniforme sur  a, b est la fonction F donnée par :

0 si x  a
xa

F ( x)   si a  x  b
b  a

1 si x  b

Propriétés:

Si la variable aléatoire X suit une loi uniforme sur  a, b , alors :

ab
- EX   .
2

b  a 
2

- V X   .
12

-  X  
b  a  .
12

- La somme de deux variables suivant une loi uniforme sur  a, b ne suit pas une loi uniforme
sur  a, b .
- Soit X et Y deux variables suivant une loi uniforme sur  a, b leur somme Z , si elles
sont indépendantes, est une variable de densité triangulaire.

52
Domaine d’application:

La loi uniforme permet de modéliser les situations où il y a des tirages au hasard dans un
intervalle  a, b .

Exemple:

Le métro de certaines lignes circule toutes les demi-heures de 6h00 du matin à minuit. Quelle
est la probabilité pour qu’une personne qui arrive à une station doit attendre au moins 20
minutes ?

Soit X la variable aléatoire correspondant au temps d’attente en minutes.

La variable aléatoire X suit une loi uniforme sur  0,30 .

Ainsi, la probabilité pour qu’une personne doit attendre au moins 20 minutes est de :

P  X  20    f ( x) dx
30

20
30 1
 dx
20 30  0
1
  x 20 
30

30
1 1
  30  20  
30 3

On peut également calculer cette probabilité de la manière suivante :

P  X  20   1  F  20 
20  0
1 
30  0
2
 1
3
1

3

2. Loi exponentielle

Définition :

La variable aléatoire X suit une loi exponentielle de paramètre  positif, notée     , si sa

fonction de densité de probabilité est la fonction f définie par :

53
 e   si x  0
f ( x)  
0 si x 0

Sa fonction de répartition est donnée par :

0 si x 0
F ( x)    x
1  e si x  0

Propriétés:

Soit X une variable aléatoire suivant une loi exponentielle, alors:

1
- EX   .

1
- V X   .
2
1
- L’espérance d’une variable exponentielle est égale à son écart-type. Ainsi,   X   .

- La somme de deux variables aléatoires indépendantes, suivant des lois exponentielles de
paramètres respectifs 1 et 2 , est une variable aléatoire suivant une loi exponentielle de

paramètre 1  2

Domaine d’application:

La loi exponentielle est utilisée en fiabilité. Elle permet de modéliser la durée de vie de circuits
électroniques ou de certains matériels subissant des défaillances brutales. Le paramètre 
s’appelle le taux de défaillance et son inverse le taux moyen de bon fonctionnement.

Exemple:

Le temps d’attente exprimé en minutes à chaque caisse d’un supermarché est une variable
aléatoire suivant la loi exponentielle de paramètre   0.1 .

Quelle est la probabilité qu'un client attende entre 5 et 10 minutes ?

Soit X la variable aléatoire correspondant au temps d’attente exprimé en minutes à chaque


caisse d’un supermarché.

Comme X suit une loi exponentielle de paramètre   0.1 , la probabilité qu’un client attende
entre 10 et 15 minutes est de :

54
P  5  X  10   F 10   F  5 
 1  e0.110   1  e0.15 
 e0.15  e0.110
 0.238

3. Loi de Laplace-Gauss ou loi Normale


3.1 Définition et caractéristiques de la loi normale

Définition :

La variable aléatoire X suit une loi normale de paramètres  et  , noté N   ,   , si elle

admet pour densité de probabilité la fonction f définie sur par :

( x   )2
1 
f ( x)  e 2 2

 2

La fonction de répartition de X est donnée par :

( t   )2
x 1 x 
F ( x)   f (t )dt   e 2 2
dt

 2 

La courbe densité de la loi normale:

La représentation graphique de la fonction de densité de probabilité d'une variable normale est


une courbe en forme de cloche symétrique par rapport à la droite d’équation x   et
1
caractérisée par l’existence d’un maximum en  (ce maximum valant ).
 2

Figure – Densité de probabilité de la loi normale

55
Propriétés:

Soit X une variable aléatoire suivant une loi normale de paramètres  et  , alors:

- EX    .

- V (X )   2 .

Domaine d’application:

La loi normale intervient dans la modélisation des phénomènes qui résultent d’un ensemble de
composantes aléatoires indépendantes.

Par exemple, les diamètres des pièces produites par une usine, peuvent résulter de nombreux
facteurs tels que la qualité des matières premières, le réglage de la machine, l'usure de l'outil ou
la température.

3.2 Loi normale centrée réduite

Définition 1 :

On dit que la variable aléatoire Z suit une loi normale centrée réduite N  0,1 lorsqu’elle
2
u
1 
admet pour densité de probabilité la fonction f définie par : f (u)  e 2 .
2

On note Z N  0,1 .

Remarque :

La courbe représentative de la fonction de densité de la loi normale centrée réduite N  0,1 est

symétrique par rapport à l’axe des ordonnées.

Définition 2 :

Si Z est un variable aléatoire suivant une loi normale centrée réduite N  0,1 , alors sa fonction

de répartition est définie par :   x      t  dt


x



Propriétés:

Soit Z est un variable aléatoire suivant une loi normale centrée réduite N  0,1 , alors :

56
- E Z   0

- V Z  1

Théorème :

X 
Si une variable aléatoire X suit la loi normale N   ,   , alors la variable aléatoire Z 

suit la loi normale centrée réduite N  0,1 .

La variable Z s’appelle la variable centrée réduite associée à X .

Proposition :

Soit Z une variable aléatoire suivant une loi normale centrée réduite, alors pour tout a et b
tels que a  b , on a :

- P  Z  a   a

- P  a  Z  b    b     a  .

- P  Z  a  1  a .

- P  Z  a   P  Z  a   1    a  , par symétrie de la courbe.

- P  a  Z  a   2  a   1 .

Où  est la fonction de répartition de la loi normale centrée réduite.

Remarque :

- Pour calculer les probabilités, on utilise la table de la fonction de répartition de la loi


normale centrée réduite.
- En raison de la symétrie de la distribution, les valeurs de  sont tabulées uniquement pour
les valeurs positive. Ainsi, pour tout x 0 , on a :    x   1    x 

X 
- Par le changement de variable suivant Z  , toutes les variables normales peuvent se

ramener à la loi normale réduite.

Exemple 1 :

Soit X une variable aléatoire suivant une loi normale de paramètres   0 et   1 .

57
1. Calculer les probabilités suivantes :
a. P  X  1.65 . b. P  0.85  X  1.85

c. P  X  2.5 d. P  X  1.92 

e. P  3  X  3

2. Déterminer  tel que P  X     0.9961 .

Solution :

1. On calcule les probabilités suivantes :


a. P  X  1.65   1.65  0.9505 .

b. P  0.85  X  1.85   1.85    0.85  0.9678  0.8023  0.1655 .

c. P  X  2.5  P  X  2.5  1    2.5  1  0,9938  0.0062 .

d. P  X  1.92  1   1.92   1  0,9726  0.0274 .

e. P  3  X  3  2  3  1   2  0,99865  1  0.9973 .

2. On déterminer  tel que P  X     0.9961 .

On a : P  X     0.9961

Donc,     0.9961 .

Par lecture inverse dans la table de la loi normale centrée réduite, on obtient :   2.66  0.9961

Alors,   2.66      .

Ainsi,   2.66 .

Il faut noter que les valeurs de   a  sont lues sur la table statistique de la loi normale centrée

réduite.

Par exemple, la valeur de  1.85 se lit à l’intersection de la ligne 1.8 et de la colonne 0.05.

Exemple 2 :

La taille des étudiants sont distribuées normalement avec une moyenne 168 cm et un écart-type
de 8 cm.

58
1. Calculer la probabilité qu’un étudiant choisi au hasard ait une taille inférieure à 164 cm.
2. Calculer la probabilité qu’un étudiant choisi au hasard ait une taille comprise entre 166 cm
et 170 cm.

Solution :

1. On calcule la probabilité qu’un étudiant choisi au hasard ait une taille inférieure à 164 cm.

Soit X la variable aléatoire représentant la taille des étudiants.

Comme X est une variable aléatoire qui suit une loi N 168,8 , la variable Z définie par

X  168
Z suit une loi normale centrée réduite N  0,1 .
8

Ainsi, la probabilité qu’un étudiant choisi au hasard ait une taille inférieure à 164 cm est de :

 X  168 164  168 


P X 164   P  
 8 8 
 164  168 
 PZ 
 8 
 PZ 0.5 
 1    0.5 
 0.3085

2. La probabilité qu’un étudiant choisi au hasard ait une taille comprise entre 166 cm et 170
cm est de :

 166  168 X  168 170  168 


P 166  X  170   P    
 8 8 8 
 P  0.25  Z  0.25 
 2  0.25   1
  2  0.5987   1
 0.1974

59
3.3 Somme de deux variables normales

Théorème :

Si X et Y sont des variables indépendantes suivant respectivement des lois normales N (1;1 )

et N (2 ; 2 ) , alors leur somme  X  Y  est une variable aléatoire suivant une loi normale aussi

de paramètres 1  2 et  12   22 .

Exemple :

Pour se rendre à son travail un ouvrier prend deux bus. La durée en minutes du trajet du premier
bus suit une loi normale de paramètres 1  26 et  1  4 . Quant à celle du trajet du deuxième

bus, elle suit une loi normale de paramètres 2  32 et  2  3 .

Quelle est la probabilité que cet ouvrier n’arrive pas en retard s’il dispose d’une heure ?

Solution :

Si la variable aléatoire X représentant la durée du trajet du premier bus suit une loi N  26, 4 

et la variable aléatoire Y correspondant à la durée du trajet du deuxième bus suit une loi
N  32,3 .

Alors, la variable aléatoire Z  X  Y qui représentent la durée des deux trajets suit également

une loi normale de paramètres   26  32  58 et   42  32  5 .

Pour que l’ouvrier n’arrive pas en retard, il faut que la durée des deux trajets ne dépasse pas 60
minutes.

Ainsi, la probabilité pour qu’il n’arrive pas en retard est de :

Z  58 60  58
P( Z  60)  P(  )
5 5
= P (U  0.4)
=   0.4 
= 0, 6554

60
3.4 Théorème central limite

Théorème :

Soient X1 , X 2 ,..., X n n variables aléatoires indépendantes de même loi, d’espérance  et de

variance  2 . Notons Sn  X1  X 2   Xn .

S n  n
Alors, lorsque n tend vers l’infini, Z n  converge en loi vers une variable aléatoire
 n
normale centrée réduite.

Exemple :

Une caisse d’assurance maladie reçoit 144 personnes pour l’obtention de remboursements. On
suppose que la somme à rembourser à chaque personne est une variable aléatoire de moyenne
1000 dirhams et d’écart type 625 dirhams. La caisse dispose de 150000 dirhams. Quelle est le
risque que cette somme ne soit pas suffisante pour rembourser toutes les personnes ?

Solution :

Soit X i , avec i  1, 2,...,144 , la somme à rembourser à chaque personne et X la somme

totale que la caisse doit payer aux 144 personnes. Ainsi, X  X1  X 2   Xn .

Les variables aléatoires X1 , X 2 , , X n sont indépendantes de même loi, d’espérance 1000 HDS
et d’écart type 625 DHS.

X  144  1000 
Puisque n  144 est grand, la variable Z  suit une loi normale centrée
625 144

réduite N  0,1 .

Ainsi, le risque que la somme de 150000 DHS ne soit pas suffisante pour rembourser toutes les
personnes est de :

61
P X 150000   1  P  X  150000 
 X  144  1000  150000  144  1000  
=1  P   
 625 144 625 144 
= 1  P( Z  0.8)
= 1  (0.8)
= 1- 0, 7881
= 0.2119

3.4 Approximation
3.4.1 Approximation d’une loi Binomiale par une loi Normale

Théorème :

Soit X une variable aléatoire suivant une loi Binomiale B  n, p  . Si n est assez grand alors


X suit approximativement une loi Normale N np, np 1  p  . 
En pratique, on fasse l’approximation de la loi Binomiale B  n, p  par la loi Normale

 
N np, np 1  p  quand n  30 , np 5 et n 1  p  5.

Remarque :

Puisque, l’approximation ici est d’une loi discrète par une loi continue, on doit utiliser la
correction de la continuité. Par exemple, la probabilité P  X  K  calculée avec la loi

binomiale sera estimée par la probabilité P  K  0.5  X  K  0.5 calculée avec la loi

Normale. De même, la probabilité P  a  X  b  relative à la loi binomiale sera estimée par la

probabilité P  a  0.5  X  b  0.5 calculée avec la loi Normale.

Exemple :

Soit X une variable aléatoire suivant la loi binomiale de paramètres n  100 et p  0.2 .

Calculer la probabilité suivante : P  X  15

Comme n 30 , np  20 5 et n 1  p   80 5 , on peut approcher la loi de la variable X


par la loi Normale N 20, 16 . 

62
En utilisant la loi Binomiale, on a : P( X  15)  C100
15
 0.215  0.885  0.048 .

 
Et en utilisant la loi N 20, 16 , on trouve :

P  X  15   P(15  0.5  X  15  0.5)


 P(14.5  X  15.5)
 14.5  20 X  20 15.5  20 
 P   
 4 4 4 
 P(1,37  Z  1,12)
   1,12     1,37 
 1   1,12    1   1,37  
  1,37    1,12 
 0, 0482

3.4.2 Approximation d’une loi de Poisson par une loi Normale

Théorème :

Soit X une variable aléatoire suivant une loi de Poisson P    . Si  est assez grand alors X

suit approximativement une loi Normale N  ,  .  



En pratique, on fasse l’approximation de la loi de Poisson P    par la loi Normale N  ,  
quand   20 .

Remarque :

Il faut également dans ce cas faire une correction de continuité.

Exemple :

Soit X une variable aléatoire suivant une loi de Poisson de paramètres   64 .

Calculer la probabilité suivante : P  44.5  X  51.5 .

Puisque  
20 , on peut approcher la loi de la variable X par la loi Normale N 64, 64 . 
Ainsi,

63
P  44.5  X  51.5   P  44  X  52 
 44  64 X  64 52  64 
 P   
 8 8 8 
 X  64 
 P  2.5   1.5 
 8 
   1.5     2.5 
 1   1.5    1    2.5  
   2.5    1.5 
 0,9938  0,9332
 0, 0606

3.4.3 Résumé des approximations

Le Schéma ci-dessous présente l’ensemble des approximations des lois de probabilités ainsi
que les conditions nécessaires à respecter.

Loi Hypergéométrique : Loi Binomiale :


X H  N , n, p  n X B  n, p 
 0.1
N
CNk p CNn kN p P  X  k   Cnk p k 1  p 
nk

P X  k 
CNn

p 0.1 et n 30 np 5 et n 1  p  5

Loi de Poisson : Loi normale :

X P   X N  , 
  20
k
P X  k  e 

k!

64
4. Lois dérivées de la loi normale
4.1 Loi du khi-deux

Définition :

Soient X1 , X 2 ,..., X n des variables aléatoires indépendantes distribuées selon une loi normale
n
centrée réduite N  0,1 . La variable Z n   X i2 suit la loi du Khi-deux à n degrés de liberté,
i 1

notée  2  n  .

Propriétés

n
Si une variable Z n   X i2 suit une loi du Khi-deux à n degrés de liberté, alors :
i 1

- Zn 0 , la loi du Khi-deux n’est pas symétrique.

- E  Zn   n .

- V  Z n   2n .

- Si n  30 , alors Z n  2n  1 suit une loi normale centrée réduite N  0,1 .

4.2 Loi de Student

Définition :

Si X et Y sont deux variables aléatoires indépendantes distribuées respectivement selon une


loi normale centrée réduite et une loi du Khi-deux à n degrés de liberté, alors la variable

suit une loi de Student à n degrés de liberté. On note cette loi T  n  .


X
T
Y
n

Propriétés

Soit T une variable suivant une loi de Student à n degrés de liberté.

- La fonction de densité de T est paire, donc cette loi est symétrique.


- E T   0 .

n
- V T   , si n 2.
n2
- Si n 30 , alors T  n  peut être approchée par une loi normale centrée réduite.

65
4.3 La loi F de Fisher Snédécor

Définition :

Si Z1 et Z 2 deux variables aléatoires indépendantes suivant des lois du Khi-deux à n1 et n2

Z1 n1
degrés de liberté respectivement, alors la variable F  suit la loi de Fisher-Snédécor à
Z 2 n2

n1 et n2 degrés de liberté. On note cette loi F  n1 , n2 

Propriétés

Soit F une variable suivant une loi de Fisher-Snédécor à n1 et n2 degrés de liberté.

n2
- E ( F )= , pour tout n2 2.
n2  2

2n2 2  (n1  n2 )
- V ( F )= , pour tout n2 4.
n1 (n2  2)2 (n2  4)

66
Annexes :

Tableau 1 : Fonction de répartition de la loi normale réduite :

67
Tableau 2 : Table de la loi de Student :

68
Tableau 3 : Table de la loi du Khi-deux :

69
Tableau 4 : Table de Fisher-Snedecor, α = 5%:

70
71

Vous aimerez peut-être aussi