Polycop de Probabilités
Polycop de Probabilités
Polycop de Probabilités
S4 : SMA
FSR
Printemps 2013
Pr. A. ZOGLAT
La première partie de ce cours traite les notions de base de la statistique descriptive. Le deuxième partie
est une introduction au calcul de probabilité où sont présentées quelques notions fondamentales prérequises
Ce polycopié reète en partie mon enseignement des probabilités au cours de ces dernières années. Il est
certainement loin d'être parfait et ne cesse d'être amélioré. Mes remerciements vont à tous mes étudiants qui
m'ont aidé à l'améliorer. Je serai reconnaissant à tout lecteur qui aura l'amabilité de me signaler des erreurs
A. Zoglat.
i
Table des matières
1 Statistiques descriptives 1
1.1 Généralités et principales dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Fréquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.7 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2 Éléments de Probabilités 1
2.1 Méthodes de dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
ii
2.5 Formule de BAYES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3 Variables Aléatoires 14
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.3 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5 Théorèmes limites 49
5.1 Modes de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
0
Partie I : Statistique Descriptive
Chapitre 1
Statistiques descriptives
La statistique peut être dénie par l'ensemble des méthodes pour recueillir, présenter, résumer et analyser
des données. Il existe deux catégories de statistique : La statistique descriptive et la statistique inférentielle.
La statistique descriptive est un ensemble de méthodes pour décrire les données et dégager l'essentiel de
l'information qu'elles contiennent. Cette information peut être résumée par des représentations graphiques,
des tableaux ou des caractéristiques obtenues par un calcul algébrique. Tandis que la statistique inférentielle
a pour but d'analyser les données recueillies auprès d'une partie de la population an de tirer des conclusions
Avant de présenter des outils de la statistique descriptive, nous allons préciser quelques dénitions utiles.
Population : La population est l'ensemble de référence sur lequel porte l'étude dans le cadre de laquelle les
Individu ou unité statistique : Un individu est un élément de la population. L'ensemble des individus
Échantillon : L'échantillon est un sous-groupe de la population, composé des individus pour lesquelles des
Variable : Un individu peut être décrit selon une ou plusieurs caractéristiques qu'on appelle variable.
Variables catégorielles : Une variable catégorielle, aussi appelée variable qualitative, prend comme
valeurs des caractères ou modalités que l'on ne peut pas mesurer numériquement.
Exemple 1.1.1.
1
1.1 Généralités et principales dénitions A. Zoglat
1. L'état civil d'une personne est une variable catégorielle qui peut prendre comme valeurs céliba-
2. Le niveau de satisfaction d'un service peut être représenté par un chire de 1 à 3 où 1 signie
pas satisfait, 2 signie moyennement satisfait et 3 signie très satisfait.
On peut même dénir deux types de variables catégorielles : nominales et ordinales. Les variables
catégorielles nominales, tel l'état civil d'une personne, prennent des valeurs qui ne suivent pas un ordre
naturel. À l'opposé, les variables catégorielles dont les modalités peuvent être classées dans un ordre
Variables numériques : Les variables numériques, tel que leur nom l'indique, peuvent être mesurées nu-
mériquement. Elles portent aussi le nom de variables quantitatives. Attention, une variable décrite
par un nombre n'est pas obligatoirement numérique. C'est le cas par exemple du niveau de satisfac-
tion représenté par un nombre de 1 à 3 décrit précédemment. On distingues deux types de variables
numériques :
Variables discrètes : Une variable discrète est une variable qui prend ces valeurs dans un sous-
Exemple 1.1.2.
1. Le nombre d'étudiants possédants un ordinateur portable est une variable discrète à valeurs
2. Les nombre de lancers, dans une parties de Pile ou Face, nécessaires pour obtenir Face
Variables continues : Une variable est dite continue si elle prend ses valeurs dans un sous-ensemble
Exemple 1.1.3. Les variables telles le temps, le poids ou la taille sont le plus souvent consi-
dérées comme des variables continues, un point de vue qui facilite généralement leur étude. Bien
sûr, en raison de la précision limitée des instruments de mesures, on n'observe en pratique qu'un
2
A. Zoglat 1.2 Fréquences
An de décrire une variable prise séparément, on utilise des outils de la statistique descriptive univariée.
Les statistiques univariées calculables sur une variable dépendent du type de celle-ci.
1.2 Fréquences
Dans le cas des variables catégorielles ou discrètes, on appelle :
l'échantillon.
- Eectif cumulé, associée à une valeur xi de la variable, le nombre d'individus dont la mesure est
inférieure ou égale à xi .
X
Ni = nj .
j:xj ≤xi
- Fréquence cumulée, associée à une valeur xi de la variable, la somme des fréquences relatives asso-
ciées aux valeurs inférieures ou égales à xi :
X
Fi = fj .
j:xj ≤xi
Remarque. On peut calculer l'eectif et la fréquence pour tous les types de variables, alors que l'eectif cumulé
Exemple 1.2.1.
- Un fabricant d'ordinateurs portables teste 100 machines choisies dans la production du jour et compte
le nombre de défauts sur chaque machine. Le variable d'intérêt ici est le nombre de défauts par machine.
xi 0 1 2 3 4 5
ni 53 25 11 6 3 2
Ni 53 78 89 95 98 100
Une étude a été menée pour explorer les diérents moyens de transport des étudiants pour se rendre à
3
1.3 Représentations graphiques A. Zoglat
Autobus 64 0.29
Marche 92 0.40
Moto 6 0.03
Vélo 11 0.05
Totaux n = 224 1
distinguer trois caractéristiques d'un tel échantillon : la position, la variabilité (ou dispersion) et la forme.
et cela de manière simple et directe. Le choix d'un graphique dépend du type des variables étudiées ainsi que
du genre d'analyse que l'on souhaite faire. Une représentation graphique peut avoir 4 utilités principales en
statistique :
Pour faire de bons graphiques, il faut d'abord savoir identier l'information importante à présenter et choisir
le bon type de graphique pour mettre en lumière cette information. Nous allons présenter diérents types de
Diagramme en secteurs
Dans un diagramme en secteurs, chaque modalité est représentée par un secteur circulaire dont l'angle
est proportionnel à l'eectif de cette modalité. La gure 1.1 présente un exemple de diagramme en secteurs.
4
A. Zoglat 1.3 Représentations graphiques
est proportionnelle à l'eectif de cette modalité et dont la largeur est la même pour toutes les modalités. Ce
diagramme est réservé aux variables catégorielles (les modalités sont sur l'axe des abscisses dans un ordre
Exemple 1.3.1. Reprenons l'exemple sur les moyens de transport des étudiants :
Eectif ni 51 64 92 6 11 n= 224
Diagramme en bâtons
Pour le diagramme en bâtons, chaque modalité (valeur numérique) est représentée par un rectangle dont
la hauteur est proportionnelle à l'eectif de cette modalité et dont la largeur est la même pour toutes les
5
1.3 Représentations graphiques A. Zoglat
Exemple 1.3.2. On a relevé le nombre d'enfants de 100 familles choisies au hasard. Le tableau suivant
xi 0 1 2 3 4 5 6 7 Total
ni 20 25 30 10 5 5 3 2 100
valeurs possibles, nous présentons cinq types de graphiques : l'histogramme, le polygone des fréquences, le
6
A. Zoglat 1.3 Représentations graphiques
Histogramme
Pour la représentation d'une variable numérique X, on convient de diviser l'ensemble des valeurs de cette
variable en k intervalles disjoints contigus ([ai , ai+1 [, i = 1, . . . , k ) recouvrant la totalité de cet ensemble.
Ces intervalles sont aussi appelés classes. Toutes les valeurs appartenant à une même classe sont alors
regroupées, faisant ainsi de chaque classe une modalité. On prendra toujours des classes de même amplitude
a = ai+1 − ai =constante. Pour tout i, on note ni le nombre de valeurs de X dans la classe [ai , ai+1 [ que l'on
Le nombre de classes ne doit être ni trop petit (perte d'informations) ni trop grand (le regroupement en
classes est alors inutile et de plus, certaines classes pourraient avoir des eectifs trop faibles). En général,
le nombre de classes est compris entre 5 et 15 ; il dépend du nombre n d'observations et de l'étalement des
Pour dresser le tableau des distributions des eectifs (ou de fréquences) on pourra suivre les étapes
suivantes :
7
1.3 Représentations graphiques A. Zoglat
Etape 2 : Calculer l'étendue : e = x(n) − x(1) , où x(1) est la valeur minimale de l'échantillon et x(n) est
sa valeur maximale.
Etape 3 : Diviser l'étendue par k, pour avoir une idée sur la valeur de l'amplitude des classes que l'on
a1 ≤ x(1) et a1 + ka ≥ x(n) .
Etape 5 : S'assurer que chaque observation appartient à une classe et une seule.
Exemple 1.3.3. Les données suivantes sont les poids (en kg) de 32 étudiants :
64; 59; 64; 62; 75; 60; 68; 63; 54; 70; 66; 54; 53; 65; 59; 60;
64; 72; 76; 55; 80; 67; 62; 68; 71; 72; 69; 70; 51; 68; 60; 61.
En appliquant la formule de Sturges, on a 1 + 3.222 × log10 (32) = 5.846, nous prendrons k = 6 classes.
Nous avons x(1) = 51 et x(n) = 80. D'où e = 80 − 51 = 29 et a = 29/6 = 4.68 ' 5.
On a alors le tableau de distribution des fréquences suivant :
Remarquons que la dernière colonne contient les fréquences cumulées associées aux bornes supérieures
des classes.
La Figure 1.4 représente l'histogramme associé au tableau de distribution des fréquences ci-dessus.
Polygone de fréquences
Il permet de représenter sous forme de courbe, la distribution des fréquences. Il est obtenu en joignant,
par des segments de droite, les milieux des côtés supérieurs de chaque rectangle de l'histogramme. Pour
Exemple 1.3.4. Reprenons l'Exemple 1.3.3, le polygone de fréquences pour les données de cet exemple est
8
A. Zoglat 1.3 Représentations graphiques
Exemple 1.3.5. Reprenons l'Exemple 1.3.3, le polygone de fréquences cumulées pour les données de cet
Le polygone des fréquences cumulées permet d'estimer le pourcentage d'observations inférieures ou égales
Exemple 1.3.6. Reprenons l'Exemple 1.3.3. Calculons, par exemple, le pourcentage d'observations infé-
rieures ou égales à 73. Notons F (73) la fréquence cumulée correspondant à 73 (F(73) est la fréquence des
observations se trouvant dans l'intervalle [50, 73]). Comme 73 est situé dans la classe [70, 75[ et comme F est
70 ≤ 73 ≤ 75
d'où l'on peut conclure qu'à peu près 85% des étudiants pèsent 73 kg ou moins.
9
1.3 Représentations graphiques A. Zoglat
Diagramme Tige-et-Feuilles
Cette représentation est une sorte d'histogramme horizontal. On décompose une donnée numérique en
deux parties :
On écrit les tiges les unes sous les autres et en regard de chaque tige, les feuilles correspondantes. Les tiges
Lorsque les données sont des nombres à deux chires, le choix est clair : On prend les dizaines comme
tiges et les unités comme feuilles. Quand les données sont des nombres à trois chires ou plus, il est possible
de prendre les chires des unités comme feuilles et les deux autres comme tiges. Une autre possibilité serait
d'arrondir les données de sorte que le chire des unités soit toujours 0. On peut ensuite l'ignorer et procéder
comme si les données étaient à deux chires. Ces techniques sont illustrées par l'exemple suivant :
Exemple 1.3.7. Les données ci-dessous sont les tailles (en mm) de 34 spectateurs choisis au hasard à la
sortie d'un stade après un match de football. 945 994 1030 1086 1171 1390 1668
10
A. Zoglat 1.3 Représentations graphiques
Après avoir arrondi ces données on obtient : 950 990 1030 1090 1170 1390 1670
En rajoutant un 0 à gauche si cela est nécessaire, on peut considérer que ces données arrondies sont à
quatre chires avec 0 comme chire des unités. On peut ensuite laisser tomber le chire des unités, et dénir
le chire des dizaines comme feuilles et les deux chires des centaines et milliers comme tiges. On obtient
alors :
07 8
08
09 2 5 5 5 6 8 9
10 0 0 2 2 3 5 5 6 8 9
11 1 3 5 6 7
12 0 4 5
13 4 9
14 2 9
15 2 3
16 7
17 1
11
1.4 Mesures de position A. Zoglat
centre de l'échantillon.
donc dire que la ou les catégories associées à la plus grande fréquence sont les modes de la variable. Ainsi, le
Exemple 1.4.1.
- Considérons l'échantillon suivant :
Toutes les valeurs sont de même fréquence =1, il n'y a pas de mode.
n
1 X
x= xi .
n
i=1
S'il y a à peu près autant de petites valeurs que de grandes valeurs dans l'échantillon, la moyenne de
l'échantillon permet d'obtenir une notion satisfaisante du centre de l'échantillon. Cette mesure a cependant
l'inconvénient d'être très sensible aux valeurs extrêmes. En fait, un seul xi extrême sut pour rendre la
moyenne x très grande (petite). On exprime ce phénomène en disant que la moyenne est une mesure de
12
A. Zoglat 1.4 Mesures de position
Exemple 1.4.2. L'échantillon suivant représente les salaires de 7 joueurs de football en milliers d'Euros :
L'observationx7 est beaucoup plus large que toutes les autres. C'est une valeur extrême. Le salaire moyen
7
1 X 16800
est x= xi = = 2400. L'observation extrême x7 est si inuente que la moyenne est supérieure
7 7
i=1
à toutes les autres observations au lieu d'être au milieu d'elles.
On ordonne les éléments x1 , . . . , x n de l'échantillon dans l'ordre croissant et on note x(i) l'observation se
x(k+1)
si n = 2k + 1
x̃ =
x(k) + x(k+1)
si n = 2k.
2
Contrairement à la moyenne de l'échantillon, x̃ est insensible aux valeurs extrêmes. On la qualie en ce sens
de mesure de position robuste. En fait, on peut constater que x̃ reste inchangée lorsqu'on modie quelques
Exemple 1.4.3. Reprenons l'exemple des salaires des joueurs de football en milliers d'Euros :
x(1) = 750, x(2) = 900, x(3) = 1020, x(4) = 1050, x(5) = 1200, x(6) = 1350, x(7) = 10530.
- Si l'on additionne une même constante à chacune des données, chacune des mesures est augmentée de
la même constante.
- Si l'on multiplie chacune des données par la même constante, chacune des mesures est multipliée par
la même constante.
13
1.5 Mesures de variabilité A. Zoglat
Exemple 1.5.1.
- Reprenons l'exemple des salaires des joueurs de football en milliers d'Euros :
Q1 ≤ Q2 ≤ Q3 ,
25% des observations sont inférieures ou égales à Q1 , 25% des observations sont entre Q1 et Q2 , 25%
des observations sont entre Q2 et Q3 et les 25% restantes sont supérieures ou égales à Q3 .
n+1
2- Pour i = 1, 2 ou 3, on calcule αi = i .
4
3- Pour i = 1, 2 ou 3, on note pi la partie entière de αi (l'entier vériant pi ≤ αi < pi + 1).
Si αi − pi < 0.5, alors Qi = x(pi ) i.e ; Qi est la pi ème observation.
14
A. Zoglat 1.5 Mesures de variabilité
En ordonnant ces 10 observations suivant l'ordre croissant, on obtient : 4, 4, 5, 7, 8, 10, 11, 12, 13, 14. D'où,
10 + 1
α1 = 1 × = 2.75, d'où Q1 = x(3) = 5,
4
10 + 1 x(5) + x(6) 8 + 10
α2 = 2 × = 5.5, d'où Q1 = = = 9,
4 2 2
10 + 1
α3 = 3 × = 8.25, d'où Q3 = x(8) = 12.
4
L'intervalle [Q1 , Q3 ] contient 50% des observations, le reste des observations se réparti avec 25% à gauche de
Q1 et 25% à droite de Q3 . On l'appelle l'intervalle interquartile et on note IRQ=Q3 − Q1 sa largeur.
s'annule seulement dans le cas extrême où toutes les observations sont égales. Dans ce cas il n'y a pas de
variabilité.
On mesure aussi très souvent la dispersion à l'aide de S (la racine carrée de S 2 ), que l'on appelle écart-
type de l'échantillon. Remarquons que si les xi s'expriment en kg, S2 2
s'exprimera en kg . Comme racine
carrée de la variance, l'écart-type S s'exprimera dans la même unité que les xi . Si une seule observation xi est
extrême, les diérences xj − x deviennent très grandes et donc S 2 et S également. La variance et l'écart-type
d'échantillon sont donc sensibles aux données extrêmes. En ce sens, ce sont des mesures de variabilité peu
robustes.
Exemple 1.5.3.
Données x S2 S
{1, 0, 2, 0, 3, 0, 4, 0, 5, 0} 1.50 3.61 1.90
15
1.5 Mesures de variabilité A. Zoglat
n
1 hX 2 i
S2 = xi − n x2 .
n−1
i=1
L'exemple suivant montre que la variance ne dépend pas de la position des observations. Il montre également
que si on multiplie les données par une constante c, l'écart-type et la variance sont multipliées respectivement
par |c| et c2 .
Exemple 1.5.4.
Données x S2 S
{25, 8, 14, 33, 16} 19.2 96.7 9.8
2 8 -11.2 125.44 64
n
ère formule de la variance donne : 1 X 1
La 1 S2 = (xi − x)2 = × 386.80 = 96.7.
n−1 5−1
i=1
n
ème formule de la variance donne : 2 1 hX 2 i 1
xi − n x2 = × 2230 − 5 × 19.22 = 96.7.
La 2 S =
n−1 5−1
i=1
cas, il peut cependant être intéressant de relativiser la mesure de variabilité par rapport à la moyenne. Ainsi
une variation de poids de quelques kg dans un échantillon de baleines n'a pas la même signication que la
même variation observée dans un échantillon de bovins. Le coecient de variation est un exemple de mesure
de variabilité relative.
16
A. Zoglat 1.6 Mesures de forme
variation par :
S
C.V. = .
x
On exprime parfois le coecient de variation en pourcentage. Ainsi, un C.V. de 0.35 signie que l'écart-type
Le coecient de variation n'a pas d'unité. Il est utilisé pour comparer la variabilité de deux jeux de données
Exemple 1.5.5. Le tableau suivant contient les données concernant le poids (en kg) et la taille (en cm) de
Taille 110 125 130 115 105 132 117 120 95 90 113.9 14.07 0.12
On peut conclure qu'il y a plus de variabilité dans la variable taille que dans la variable poids.
Remarque : Une distribution est symétrique si le polygone des fréquences a la forme d'une cloche :
Une distribution qui n'est pas symétrique est dite asymétrique à gauche (respectivement asymétrique
à droite) si la moitié gauche (respectivement à droite) de son histogramme est plus allongée que sa moitié
droite (respectivement gauche).
17
1.6 Mesures de forme A. Zoglat
par
n
µ3 1X
γ1 = , où µ3 = (xi − x)3 .
S3 n
i=1
Ce nombre peut être positif ou négatif, le signe étant déterminé par les grandes déviations de la forme (xi −x).
- Si γ1 > 0, la distribution est étalée vers la droite. On dit que la distribution est asymétrique (avec
une queue) à droite.
- Si γ1 < 0, la distribution est étalée vers la gauche. On dit que la distribution est asymétrique (avec
une queue) à gauche.
- Si la distribution est symétrique, γ1 = 0.
Exemple 1.6.1. Soient les observations 1, 1, 1, 1, 2, 6. Alors x = 2, S 2 = 4 et les (xi − x)3 valent respective-
10
ment -1,-1,-1,-1, 0, 64, et donc γ1 = > 0. D'où une distribution asymétrie avec une queue à droite.
8
à l'intervalle interquartile [Q1 , Q3 ]. Ce type de représentation est particulièrement utile pour décrire les
propriétés fondamentales d'un échantillon telles que la position, la variabilité, l'asymétrie, mais aussi pour
Le centre de ce graphique est une boîte, délimitée par les quartiles Q1 et Q2 , coupée en deux par un
segment placé à la hauteur de Q2 . De chaque coté de la boîte, on trace ensuite une moustache (un segment
de droite) de longueur 1.5(Q3 − Q1 ). Toutes les observations à l'extérieur des moustaches sont considérées
Exemple 1.6.2. Reprenons les données concernant les poids (en kg) de 32 étudiants (avec un modication
18
A. Zoglat 1.7 Applications
64; 59; 64; 62; 75; 60; 68; 63; 54; 70; 66; 54; 53; 65; 59; 60;
64; 72; 76; 55; 85; 67; 62; 68; 71; 72; 69; 70; 51; 68; 60; 61.
Les quartiles sont Q1 = 60, Q2 = 64 et Q3 = 69.75. Sur le diagramme de la boîte à moustaches suivant,
on constate que la plus grande observation est une valeur extrême. En eet 69.75 + 1.5 × (69.75 − 60) =
84.375 < 85.
1.7 Applications
Nous avons vu qu'il existe plusieurs mesures de positions et de dispersion. La moyenne est sans doute la
mesure de position la plus répandue alors que la variance et l'écart-type sont les mesures de dispersion les
plus utilisées. Nous allons voir comment estimer le pourcentage de données se trouvant autour de la moyenne.
Le théorème de Tchebychev : Il permet d'évaluer le pourcentage des données qui se trouvent à k écart-
types de la moyenne, pour un réel k donné.
Théorème : Pour tout réel k > 1, au moins (1 − 1/k 2 )100% des observations d'une série de données, se
Exemple 1.7.1. Les notes de 100 étudiants d'un contrôle de statistique ont une moyenne x = 14 avec un
d'étudiants ayant obtenus une note entre 12 et 16 est supérieur ou égal à (1 − 1/22 )% = 75%.
Le pourcentage garanti par le théorème de Tchebychev est mieux évalué sous la condition de symétrie.
19
Partie II : Probabilités
Chapitre 2
Éléments de Probabilités
Les origines de la théorie des probabilités remontent au 17
ème siècle lorsque les deux célèbres mathé-
maticiens français Blaise Pascal et Pierre De Fermat tentaient de résoudre certains problèmes liés aux jeux
du hasard. Des problèmes analogues à ceux qui ont été résolus par Pascal et De Fermat ont incité d'autres
mathématiciens tels que Huygens, Bernoulli, De Moivre et d'autres à établir les bases d'une théorie ma-
thématique des probabilités. De nos jours, la théorie des probabilités est une branche mathématique bien
développée dont les domaines d'application sont aussi multiples que variés. Elle peut, par exemple, fournir
des outils précieux pour le traitement des les d'attente, la modélisation de la propagation d'une épidémie,
Ce chapitre est une introduction aux calculs des probabilités où nous allons présenter les concepts fonda-
mentaux qui sont nécessaires pour le développement des éléments de base de la statistique mathématique.
possibilités pour qu'un événement donné se réalise. Nous allons, dans ce paragraphe, étudier les méthodes
Considérons une expérience qui se réalise en n étapes. Pour i = 1, . . . , n, on note mi le nombre de résultats
possibles à la ième étape.
Résultat Le nombre total des résultats possibles à la n d'une telle expérience est égal à
m = m1 × m2 × . . . × mn .
21
2.1 Méthodes de dénombrement A. Zoglat
Exemple : Dans un restaurant, un menu comprend une entrée (2 choix :une salade verte ou une soupe),
un plat principal (3 choix : de la viande, du poulet ou du poisson) et un dessert (2 choix : une glace ou un
Il y a 2 possibilités de choix d'entrée, pour chaque choix d'entrée il y a 3 possibilités de choix de plat
principal et pour chaque choix d'entrée et de plat principal il y 2 possibilités de choix de dessert. Ainsi,
comme le montre la gure2.1 ci-dessous, le nombre de façons de composer un menu est égal à 2 × 3 × 2 = 12.
Glace (1)
Viande
@
@ Fruit (2)
Glace (3)
Salade Poulet
@ @
@ Fruit (4)
@
Glace (5)
@
@
Poisson
@
Début @
@ Fruit (6)
@
Glace (7)
Viande
@
@ @
@ Fruit (8)
@
Glace (9)
@
@ Soupe Poulet
@ @
@ Fruit (10)
@
Glace (11)
@
Poisson
@
@
@ Fruit (12)
Figure 2.1 Arbre des Menus
Permutations
Exemple : Les permutations sans répétitions possibles des lettres A, B et C sont : ABC, ACB, BAC,
n! = 1 × 2 × 3 . . . × n.
22
A. Zoglat 2.1 Méthodes de dénombrement
Exemple Les permutations possibles des lettres A, A, B, B et B sont : AABBB, ABABB, ABBAB,
Il n'est pas toujours facile d'énumérer toutes les possibilités et pourtant on a besoin de connaître leur
nombre. Un moyen permettant de faire le calcul consiste à dénombrer toutes les permutations comme si
toutes les lettres étaient distinctes (5 !=120) puis diviser par le nombre de permutations possibles des lettres
A (2 !=2) et celui des lettres B (3 !=6) puisque ces permutations ne sont pas discernables. Ainsi on a
120
= 10 possibilités de ranger les lettres A, A, B, B et B.
2×6
Résultat Un ensemble E contient n1 objets identiques de type T1 , n2 objets identiques de type T2 , ...
et nr objets identiques de type Tr . Le nombre de possibilités pour ranger les éléments de E est donné par
n!
, où n = n1 + n2 + . . . + nr .
n1 !n2 ! . . . nr !
Arrangements et Combinaisons
Considérons une urne contenant n boules numérotées de 1 à n. L'expérience consiste à tirer p boules
de cette urne. Quel est le nombre de résultats possibles ? Pour répondre à cette question, on distingue les
Lorsque l'ordre des résultats est pris en considération, on parle d'arrangements. Lorsque l'ordre des résultats
23
2.1 Méthodes de dénombrement A. Zoglat
Pour répondre à cette question, remarquons que la formation d'un p−uplet (Oi1 , Oi2 , . . . , Oip ), où les Oij
ne sont pas forcément distincts, est une expérience qui se réalise en p étapes. À chaque étape, le nombre de
possibilités est égale à n. Cela justie donc, compte tenu du principe de comptage évoqué au paragraphe 2.1,
le résultat suivant.
Résultat Le nombre d'arrangements avec répétitions de p objets choisis parmi n est égal à np .
Exercice Montrer que le nombre d'applications d'un ensemble à p éléments vers un ensemble à n éléments
est égal à np .
Remarquons que cela n'est possible que si n ≥ p. On supposera alors qu'il en est ainsi quand c'est
indispensable.
Ici, la formation d'un p−uplet (Oi1 , Oi2 , . . . , Oip ), où les Oij sont tous distincts, est une expérience qui
se réalise en p étapes. Mais, à la ième étape le nombre de réalisations possibles est égale à n − (i − 1). Cela
Résultat Le nombre d'arrangements sans répétitions de p objets choisis parmi n, noté Apn , est donné par
n!
Apn = n(n − 1) . . . (n − (p − 1)) = .
(n − p)!
Exercice Montrer que le nombre d'applications injectives d'un ensemble à p éléments vers un ensemble
à n éléments est égal à Apn .
Exercice Un entraîneur dispose d'un groupe de 20 joueurs. Combien d'équipes, de 11 joueurs chacune,
est-il possible de former ? On suppose que chaque joueur est capable d'occuper n'importe quel poste sur le
terrain.
combinaisons possibles ?
24
A. Zoglat 2.1 Méthodes de dénombrement
On sait que si l'on tenait compte de l'ordre on aurait Apn cas possibles. Dans ce cas chaque groupe de p
numéros engendre p! combinaisons ordonnée. Pour obtenir le nombre de combinaisons non ordonnées, il suf-
t de diviser Apn par p!. Le problème revient à calculer le nombre de possibilités de choisir p boules parmi les n.
n!
Cnp = .
p!(n − p)!
X
(a + b)n = Cnp ap bn−p .
p
Indication : Remarquer que (1 + X)n+m = (1 + X)n (1 + X)m et identier les coecients de Xk dans les
deux expressions.
Question Supposons que l'on eectue p tirages avec remise dans une urne contenant n boules numérotées
On dispose de p enveloppes identiques que l'on aimerait répartir dans n boîtes aux lettres numérotées de 1
Exemple Une personne est chargée de distribuer des prospectus aux habitants d'un quartier. A la n de
sa tournée, cette personne dispose encore de 6 prospectus qu'elle décide de distribuer au hasard dans les 4
boîtes aux lettres du dernier immeuble. De combien de façons est-il possible de répartir 6 prospectus dans
les 4 boîtes ?
25
2.1 Méthodes de dénombrement A. Zoglat
Le quadruplet (x1 , . . . , x4 ) = (2, 3, 0, 1) est une possibilité que nous schématisons par
bP P | PPP | |P c
bP P P P P | | |P c
permutant les P et les barres verticales. Pour calculer le nombre de solutions possibles, remarquons d'abord
que l'on doit toujours avoir une barre à l'extrémités gauche et une autre à l'extrémité droite car elles délimitent
respectivement la première et la dernière boîte. On ne doit donc permuter que les 3 barres verticales qui sont
au milieu et les 6 P. D'après le résultat sur les permutations avec répétitions, le nombre de permutations
Résultat Le nombre de possibilités de répartir p objets identiques dans n cases est égal à Cpp+n−1 .
Jusqu'ici nous avons considéré le nombre de possibilités de diviser un ensemble de n éléments en 2 sous-
ensembles : l'un contenant p éléments et l'autre n−p éléments. Quel serait ce nombre si on divisait un ensemble
de n éléments en r sous-ensembles contenants respectivement p1 , . . . , pr éléments ? (où p1 + . . . + pr = n.)
n!
Cnp1 ,...,pr = .
p1 ! . . . pr !
Démonstration.
p2 pr
Cnp1 Cn−p 1
. . . Cn−p 1 −p2 −...−pr−1
= Cnp1 ,...,pr
Exemple De combien de façons est-il possibles de répartir 12 étudiants en équipes pour travailler sur 3
projets, sachant que pour le projet A on a besoin de 3 étudiants, pour le projet B on a besoin de 2 étudiants
26
A. Zoglat 2.2 Expériences et événements aléatoires
4 qui vont travailler sur les projets et une équipe des 3 étudiants restants qui ne vont travailler sur aucun
3, 2, 4, 3 12
C12 = .
3!2!4!3!
Applications Formule du binôme généralisée :
résultats possibles d'une expérience aléatoire est connu, il est impossible de prédire avec certitude une issue.
Par exemple, on sait d'avance qu'en lançant un dé à six faces numérotées de 1 à 6, le résultat qui sera indiqué
sur la face supérieure du dé est un chire entre 1 et 6. Et pourtant personne ne peut prédire avec certitude
le résultat d'un lancer de dé (sauf si celui-ci est truqué auquel cas le résultat ne dépend pas du hasard !)
Dénition 2.2.1. L'ensemble des résultats possibles d'une expérience aléatoire est noté Ω. On l'appelle l'ensemble
fondamental ou univers des possibles. Ses éléments sont notés ω.
Exemples
1. Une expérience consiste à lancer d'un dé à 6 faces numérotées de 1 à 6 et noter le numéro marqué
sur la face supérieure. L'ensemble fondamental relatif à cette expérience est Ω = {1, 2, 3, 4, 5, 6}. Ici
2. Une expérience consiste à compter le nombre de lancers, d'un dé à 6 faces numérotées, nécessaires pour
obtenir un 6 pour la première fois. Dans ce cas, on a Ω = N∗ . Il s'agit ici d'un ensemble fondamental
inni et dénombrable.
3. Une expérience consiste à mesurer le temps séparant deux appels consécutifs qui arrivent à un cen-
tral téléphonique. Dans ce cas, on a Ω =]0, ∞[. Il s'agit ici d'un ensemble fondamental inni et non
dénombrable.
Dénition 2.2.2. On appelle événement tout sous-ensemble de Ω. Les singletons sont appelés des événe-
ments simples ou élémentaires. Un événement contenant au mois deux éléments de Ω est appelé événement
composite.
Remarque En tant que sous-ensembles de Ω, ∅ et Ω sont deux événements appelés respectivement
Exemples Une expérience consiste à lancer un dé à 6 faces numérotées de 1 à 6 et noter le numéro marqué
composite.
3. L'événement obtenir le numéro 7 est un événement qui ne peut pas se réaliser. C'est un événement
impossible.
4. L'événement obtenir un numéro < 7 se réalise toujours. C'est un événement certain.
événements A et B se réalise.
Dénition 2.3.1. On dit qu'une fonction P : (Ω, P(Ω)) → [0, 1] est une probabilité si elle vérie les axiomes
suivants :
n[ o X
P An = P{An }.
n n
Propriétés.
a- L'axiome A2 reste bien entendu valable lorsque (An )n est une suite nie.
b- Pour tout A ∈ P(Ω), P{A} = 1 − P{A}. En eet, comme A ∪ A = Ω, le résultat découle des axiomes
A1 et A2.
28
A. Zoglat 2.3 Bases axiomatiques des probabilités
S
e- Soit (An )n une suite croissante d'éléments de F (i.e. ∀n, An ⊂ An+1 ) et soit A= n An . Alors
n[ o n
X
∀k ∈ N, P{An } = P Bk = P{Bk }.
k≤n k=1
limn P{An } = ∞
P
En passant à la limite on obtient k=1 P{Bk }. Pour conclure, il sut de remarquer que
nS o P
P k≥1 Bk = ∞
S S
k=1 P{Bk } et que k≥1 Bk = k≥1 Ak .
T
f- Soit (An )n une suite décroissante d'éléments de F (i.e. ∀n, An+1 ⊂ An ) et soit A= n An . Alors
A0n = An A0 = 0 (A0n )n
S
Démonstration. Pour tout n ∈ N, on pose et n An . La suite est croissante. On
a donc, d'après la propriété précédente, P{A0 } = limn→∞ P{A0n }. Pour conclure il sut de remarquer
Événements équiprobables
Pour certaines expériences, l'ensemble fondamental est ni ( Ω = {ω1 , . . . , ωn }) et les événements simples
ont la même probabilité :
1
P{Ω} = P{ω1 } + . . . + P{ωn } = n p ou encore p=
n
29
2.4 Probabilités conditionnelles A. Zoglat
Résultat Soit Ω = {ω1 , . . . , ωn } un espace fondamental dont les éléments sont équiprobables. Alors pour
tout A⊂Ω on a
Card(A)
P{A} = ,
Card(Ω)
où Card(B) désigne le nombre d'éléments de l'ensemble B.
Exemple Une urne contient 6 boules blanches et 5 boules noires. On en tire au hasard et sans remise 2
boules. Quelle est la probabilité que l'on tire une boule blanche et une boule noire ?
(1) En tenant compte de l'ordre dans lequel les deux boules sont tirées (dans ce cas on numérote les
(2) Sans tenir compte de l'ordre dans lequel les deux boules sont tirées.
Nous allons considérer les deux cas de gure et nous allons voir qu'ils conduisent au même résultat. Remar-
quons tout d'abord que puisque les tirages se font au hasard, toutes les boules ont la même chance d'être
(1) Lorsque l'ordre des tirages est pris en considération, il y a 11 possibilités de choisir la première boule
une boules noire puis une boule blanche. Notons A, A1 et A2 les événements dénis par
30 30 6
P{A} = P{A1 } + P{A2 }= + = .
110 110 11
(2) Lorsque l'ordre n'est pas pris en considération, il y a C211 = 55 possibilités de tirer deux boules et
donc Card(Ω) = 55. Le nombre de possibilités de choisir une boule blanche et une boule noire est égale à
C ×C
1
6
1
5 = 30. D'où la probabilité de tirer une boule blanche et une boule noire est égale à
30
55
6
= .
11
30
A. Zoglat 2.5 Formule de BAYES
{X = 6} et A l'événement {X > 4}. Comme tous les événements simples sont équiprobables nous avons
1 1 1
P{B} = , P{A} = , P{A ∩ B} = .
6 3 6
Supposons maintenant que le dé a été jeté et que nous savons que l'événement A s'est réalisé, quelle est
la probabilité que B se réalise ? Désignons cette probabilité par P{B/A}. Pour la calculer on considère
comme nouvel ensemble fondamental Ω0 = {5, 6} = A. Comme les éléments de Ω, ceux de Ω0 sont également
équiprobables et on a
Card(B ∩ A)
1 Card(B ∩ A) Card(Ω) P{B ∩ A}
P{B/A} = = 0
= = .
2 Card(Ω ) Card(A) P{A}
Card(Ω)
Dénition 2.4.1. Soient Ω un ensemble fondamental et E et F deux sous ensembles de Ω avec P{F } =
6 0. On
appelle probabilité conditionnelle de E sachant F et on note P{E/F } la quantité
P{E ∩ F }
P{E/F } =
P{F }
Remarques
1. Comme P{E/F } désigne la probabilité que E se réalise sachant que F s'est réalisé, il est possible de
lui donner un sens en convenant que P{E/F } = 0 lorsque P{F } = 0. Cela signie que puisque F ne
n
X
P{E} = P{E/Ai } × P{Ai }, (Formule de probabilité totale),
i=1
31
2.6 Événements indépendants A. Zoglat
P{E/Ai } × P{Ai }
∀i ∈ {1, 2, . . . , n}, P{Ai /E} = Pn (Formule de Bays).
j=1 P{E/Aj } × P{Aj }
Exemple Une société d'assurance classe ses clients en 3 catégories ; HR : client à haut risque , MR :
client à moyen risque et FR : client à faible risque . Sachant qu'un client est classé HR ( respectivement
MR et FR), la probabilité qu'il fasse une réclamation est de 0.30 (respectivement 0.15 et 0.05). Par ailleurs,
les Clients classés HR représentent 10% des clients de la société. Alors que ceux classés FR représentent
70%.
a- Quelle est la probabilité qu'un client choisi au hasard fasse une réclamation ?
b- Si un client n'a fait aucune réclamation, quelle est la probabilité qu'il s'agisse d'un client à haut
risque ?
Soit Ω l'ensemble fondamental formé par tous les clients de la société. Notons A1 l'ensemble des clients classés
HR, A2 l'ensemble des clients classés MR et A3 l'ensemble des clients classés FR. Les événements A1 , A2 et
a- D'après le théorème de Bayes, P{B} = P{B/A1 }P{A1 } + P{B/A2 }P{A2 } + P{B/A3 }P{A3 }.
P{B/A1 }P{A1 }
b- On cherche P{A1 /B}. D'après le théorème de Bayes, P{A1 /B} = P{B}
.
réalisation de l'autre. Dans ce paragraphe nous allons donner une dénition précise et quelques propriétés
de l'indépendance.
P{A/B} = P{A}.
Exemple On tire au hasard une carte d'un jeu de 52 cartes bien mélangées. On désigne par A l'événement
la carte tirée est une dame et par B l'événement la carte tirée est un carreau. Alors A est indépendant
Propriétés.
32
A. Zoglat 2.6 Événements indépendants
1- L'événement A est indépendant de l'événement B si, et seulement si, P{A ∩ B} = P{A} × P{B}. Cette
caractérisation montre que Si A est indépendant de B alors B est indépendant de A. On dit que A et B
sont indépendants.
Supposons que A est indépendant de B1 et de B2 . Pourrait-on conclure que A est indépendant de B1 ∩B2 ?
La réponse est non en général comme le montre l'exemple suivant.
Exemple Une urne contient 4 boules ; elles portent respectivement les nombres 1, 2, 3 et 123. On tire une
boule de l'urne et on considère les événements A : " on observe le chire 1 sur la boule tirée", B1 : " on
observe le chire 2 sur la boule tirée", et B2 : " on observe le chire 3 sur la boule tirée". Ces événements
On a P{A} = P{B1 } = P{B2 } = 1/2. Il est facile de voir que P{A ∩ B1 } = P{A}P{B1 }, P{A ∩ B2 } =
P{A}P{B2 } et P{B1 ∩ B2 } = P{B1 }P{B2 }. Mais P{A ∩ (B1 ∩ B2 )} =
6 P{A}P{B1 }P{B2 }.
Cet exemple montre que pour que A indépendant de B1 et A indépendant de B2 impliquent que A
est indépendant de B1 ∩ B2 , on a besoin d'une notion plus forte que l'indépendance 2 à 2.
Plus généralement, (An )n∈N est une suite d'événements mutuellement indépendants si pour tout n ∈ N les
Souvent, par abus de langage et lorsqu'aucune confusion n'est à craindre, on laisse tomber le terme mu-
tuellement.
Exemple Un système électrique a n composants qui tombent en panne indépendamment. Soient Ai l'évé-
nement le i
ème composant est défaillant, avec P{Ai } = pi . L'événement B le système est défaillant se
produit si le courant ne peut pas passer d'un bout du système à l'autre. Calculer la probabilité que le sys-
tème fonctionne selon que les composants sont montés en parallèle ou en série.
33
Chapitre 3
Variables Aléatoires
3.1 Généralités
Dans de nombreuses situations les événements d'intérêt ne constituent qu'un sous-ensemble de P(Ω). Ce
sous-ensemble doit posséder certaines propriétés qui garantissent les opérations sur les événements.
Dénition 3.1.1. Soient Ω un ensemble non vide et F un sous-ensemble de P(Ω). On dit que F est une
Remarque 3.1.1. Si F σ -algèbre, alors elle est stable pour une intersection dénombrable
est une :
\ \ [
∀(An )n ⊂ F, An ∈ F. En eet, An = An ∈ F.
n n n
Exemple 3.1.1.
• {Ω, ∅} et P(Ω) sont deux σ -algèbres. Elles sont dites triviales.
\
σ(A) = F
F ∈F (A)
34
A. Zoglat 3.1 Généralités
Convention
Pour simplier, nous allons supposer dans tout ce qui suit que, les σ -algèbres sont boreliennes.
Dénition 3.1.2. Soient Ω un ensemble non vide et F une σ -algèbre de Ω. Le couple (Ω, F) est appelé espace
probabilisable.
Dénition 3.1.3. Soit (Ω, F) un espace probabilisable. On dit qu'une fonction P : F → [0, 1] est une proba-
bilité si elle vérie les axiomes suivants :
A1. P{Ω} = 1 et P{∅} = 0
A2. Pour toute suite (An )n d'éléments de F deux à deux disjoints ( Ai ∩ Aj = ∅, lorsque i 6= j ) on a :
n[ o X
P An = P{An }.
n n
Après avoir réalisé une expérience, il arrive bien souvent qu'on s'intéresse plus à une fonction du résultat
qu'au résultat lui-même. Expliquons ceci au moyen des exemples suivants : lorsqu'on joue aux dés, certains
jeux accordent de l'importance à la somme obtenue sur deux dés, 7 par exemple, plutôt qu'à la question de
savoir si c'est la paire (1,6) qui est apparue, ou (2,5), (3,4), (4,3), (5,2) ou plutôt (6,1). Dans le cas du jet
d'une pièce, il peut être plus intéressant de connaître le nombre de fois où pile est apparue plutôt que la
séquence détaillée des piles et faces. Ces grandeurs auxquelles on s'intéresse sont en fait des fonctions réelles
dénies sur l'ensemble fondamental et sont appelées variables aléatoires (v.a.).Ci-après nous en donnons
une dénition plus précise.
Dénition 3.1.4. Soient (Ω1 , F1 ) et (Ω2 , F2 ) deux espaces probabilisables et X : (Ω1 , F1 ) → (Ω2 , F2 ) une
∀B ∈ F2 , X −1 (B) ∈ F1 .
Exemple 3.1.2.
Une expérience consiste à lancer 2 dés identiques à six faces numérotées de 1 à 6. L'espace fondamental
est Ω = {(i, j); 1 ≤ i, j ≤ 6}. On s'intéresse à la somme des deux numéros obtenus. On note E =
{2, 3, . . . 12}. Alors
X: Ω, P(Ω) −→ E, P(E)
(i, j) 7−→ i+j
est une v.a.
35
3.1 Généralités A. Zoglat
Du fait que la valeur d'une v.a. est déterminée par le résultat de l'expérience, il est possible d'attribuer une
Les v.a. que nous allons considérer dans ce cours sont toutes des fonctions à valeurs dans R ou une partie
de R muni de sa σ -algèbre borélienne.
Dans toute la suite (Ω, BΩ , P) désignera un espace probabilisé et (S, BS ) un espace probabilisable. La
−1 −1 (B ), d'où
S S
d'éléments disjoints de BΩ . X
De plus on a n Bn = nX n
[ n[ o X X
PX Bn = P An = P{An } = PX {Bn }.
n n n n
Dénition 3.1.5. La fonction PX ainsi dénie sur BS est appelée la loi de probabilité de X.
Soient X le nombre de succès observés après 1 lancer et Y le nombre de succès observés après 3 lancers
36
A. Zoglat 3.1 Généralités
2- Y de Ω = {(P, P, P), (P, P, F), (P, F, P), (F, P, P), (F, F, P), (F, P, F),(P, F, F), (F, F, F)} dans
{0, 1, 2, 3} est une v.a. L'événement (P, F, P), par exemple, signie obtenir successivement P puis
F puis P . Par indépendance on a donc
= 3(1 − p)2 p.
= 3(1 − p) p2 .
Remarque 3.1.2. Dans le cas d'une v.a. discrète X , PX est également appelée fonction masse de proba-
bilité de X (f.m.p).
Notation : Pour simplier les notations, on écrit {X ≤ x} pour désigner {ω ∈ Ω : X(ω) ≤ x}.
continue à droite. Soient x ∈ R et (xn )n une suite qui décroît vers x (i.e. ∀n, xn ≥ xn+1 et limn xn = x).
Montrons que limn FX (xn ) = FX (x).
T
Posons, pour n ≥ 1, An =]−∞, xn ] et A =]−∞, x]. La suite (An )n est décroissante et on a n An = A.
D'où limn P{An } = P{A}.
37
3.1 Généralités A. Zoglat
3- De plus on a n o
∀a, b ∈ R, P X ∈]a, b] = FX (b) − FX (a).
n o n o n o
P X ∈]a, b] = P X ∈] − ∞, b] − P X ∈] − ∞, b] = FX (b) − FX (a).
Exemple 3.1.4. La f.r. FY , où Y est la v.a. de l'exemple précédent avec p = 0.5 est donnée par
0.000 si x < 0,
0.125 0 ≤ x < 1,
si
FY (x) = 0.500 si 1 ≤ x < 2,
0.875 si 2 ≤ x < 3,
1.000 si x ≥ 3.
n o Z b
∀a, b ∈ R, P X ∈]a, b] = FX (b) − FX (a) = fX (t)dt,
a
Dénition 3.1.6. La fonction fX , lorsqu'elle existe, s'appelle la fonction densité de probabilité ( fdp) de X .
38
A. Zoglat 3.1 Généralités
∀x ∈ R, P{X = x} = 0.
La loi de probabilité d'une v.a. X est parfaitement déterminée si l'on connaît sa f.r. FX ou sa fdp fX .
Exemple 3.1.5. Soit X la durée de vie, en heures, d'une lampe électrique. On suppose que sa f.r. est
donnée par
1 − e−x
si x ≥ 0,
∀x ∈ R, FX (x) =
0 sinon.
n o Z 15 h i15
P X ∈ [10, 15] = e−t dt = −e−t = FX (15) − FX (10).
10 10
Alors Y = g(X) est une v.a. qui admet une fdp donnée par
1
∀y ∈ g(S), fY (y) = f (g −1 (y)). (3.1)
g 0 (g −1 (y)) X
Démonstration. Comme g est croissante de S dans g(S), elle admet une fonction réciproque g −1 .
Exemple 3.1.6. Soit X la durée de vie d'une lampe électrique dont la fdp est donnée par fX (x) = e−x si
x≥0 et 0 sinon (voir Exemple 3.1.5). Déterminons la loi de la v.a. Y = X 2. Ici la fonction g : R+ −→ R+
dénie par ∀x ≥ 0, g(x) = x2 . En appliquant la formule (3.1), on a
1 √
√ e− y
si y > 0,
fY (y) = 2 y
0
sinon.
39
3.1 Généralités A. Zoglat
Xi : (Ω, BΩ , P) −→ (Si , BSi ), i = 1, . . . , p, des v.a. dénies sur le même espace probabilisé. On note
Soient
Q
S = S1 ×S2 ×. . .×Sp et BS sa σ -algèbre borelienne i.e. BS = σ I
i i ; où I i est un ouvert de S i , i = 1, . . . , p .
La fonction X : (Ω, BΩ , P) −→ (S, BS ) dénie par ∀ω ∈ Ω, X(ω) = X1 (ω), X2 (ω), . . . , Xp (ω) est une v.a.
à valeurs dans Rp . On dit aussi que c'est un vecteur aléatoire.
Dénition 3.1.7. La fonction FX dénie sur Rp par
n o
p
∀(x1 , x2 , . . . , xp ) ∈ R , FX (x1 , x2 , . . . , xp ) = P {X1 ≤ x1 } ∩ {X2 ≤ x2 , . . . , Xp ≤ xp }
Remarque 3.1.4.
• La fonction FX possède des propriétés analogues à celles d'une f.r. d'une v.a. réelle :
n o
∀(x1 , x2 , . . . , xp ) ∈ Rp , FX (x1 , x2 , . . . , xp ) = P X1 ≤ x1 , X2 ≤ x2 , . . . , Xp ≤ xp
X
= P{X1 = u1 , X2 = u2 , . . . , Xp = up }.
ui ≤xi
i=1,...,p
Comme dans le cas de v.a. réelles, certaines v.a. à valeurs dans Rp peuvent avoir des fdp.
Dénition 3.1.8. Soient X : (Ω, BΩ , P) −→ (S, BS ) un vecteur aléatoire et fX : Rp → [0, ∞[ une fonction telle
que
Z x1 Z x2 Z xp
p
∀(x1 , x2 , . . . , xp ) ∈ R , FX (x1 , x2 , . . . , xp ) = ... fX (u1 , u2 , . . . , up ) du1 du2 . . . dup .
−∞ −∞ −∞
On dit alors que X est un vecteur aléatoire de loi continue et que fX est sa fdp.
40
A. Zoglat 3.1 Généralités
σ(X) = σ {X −1 (B), B ∈ BS }
Dénition 3.1.10. Soient X1 : (Ω, BΩ , P) −→ (S1 , BS1 ) et X2 : (Ω, BΩ , P) −→ (S2 , BS2 ) deux v.a. dénies sur
le même espace probabilisé. On dit qu'elle sont indépendantes si les σ-algèbres engendrées par X1 et X2 sont
indépendantes, c'est à dire,
Dénition 3.1.11. Soit (Xn )n une suite de v.a. toutes dénies sur un même espace probabilisé (Ω, BΩ , P). On
dit que les Xn sont mutuellement indépendantes si pour tout I ⊂ N ni, on a
n\ o Y
∀Ai ∈ σ(Xi ), i ∈ I, P Ai = P{Ai }.
i∈I i∈I
Proposition 3. Soient X1 : (Ω, BΩ , P) −→ (S1 , BS1 ) et X2 : (Ω, BΩ , P) −→ (S2 , BS2 ) deux v.a. dénies sur le
Remarque 3.1.6. Les résultats ci-dessus sont également valables dans le cas d'un vecteur aléatoire X=
(X1 , . . . , Xn ). Par exemple, si X1 , . . . , Xn sont des v.a. indépendantes alors,
n
Y
∀(x1 , . . . , xn ) ∈ Rn , FX (x1 , . . . , xn ) = FXi (xi ).
i=1
41
3.2 Espérance mathématique A. Zoglat
P
x PX (x) si S est ni ou dénombrable,
x∈S
E[X] =
R ∞ x f (x) dx
si FX est dérivable.
−∞ X
Exemple 3.2.1.
• Soit X la v.a. dont la loi est donnée par
1 3 2
PX (−3) = , PX (1) = , PX (2) = .
6 6 6
Comme PX (−3) + PX (1) + PX (2) = 1, la v.a. X est à valeurs dans S = {−3, 1, 2}. Son espérance
1 3 2 2
E[X] = −3 × +1× +2× = .
6 6 6 3
• Soit X la durée de vie, en heures, d'une lampe électrique (voir Exemple 3.1.5). Sa fdp est donnée par
= 1.
E[g(X)] = x∈S
Z
g(x) fX (x) dx fX
Si existe.
R
42
A. Zoglat 3.3 Variance
3.3 Variance
Dénition 3.3.1. Soit X:Ω→S une v.a. de moyenne µX On appelle variance de X et on note Var[X] la
quantité
h i
Var[X] = E (X − µX )2 .
Remarque 3.3.1. La variance d'une v.a. aléatoire X mesure la dispersion des valeurs de X par rapport à
• Var(X + a) = Var(X).
• Var(a X) = a2 Var(X).
• Var(X + Y ) = Var(X) + Var(Y ) + 2E (X − µX )(Y − µY ) .
Démonstration. Nous allons démontrer ces propriétés pour des v.a. discrètes, le cas de v.a. admettant des
fdp peut être traité en utilisant les même arguments et en remplaçant les sommes par des intégrales.
X X X X
E Y2 = (f (x))2 PX (x) = a2 x2 PX (x) + b2 PX (x) + 2ab x PX (x)
x∈S x∈S x∈S x∈S
= a2 E X 2 + b2 + 2ab µX .
D'autre part, on a
43
3.3 Variance A. Zoglat
de X et Y.
44
Chapitre 4
pratique. Nous commençons par des exemples de v. a., dites discrètes, à valeurs dans des ensembles nis ou
dénombrables. Les v. a. dont la loi de probabilité admet une fonction densité de probabilité (fdp) sont dites
échec.
Dénition 4.1.1. On dit qu'une v. a. X suit une loi de Bernoulli de paramètre p ∈ [0, 1] et on note
PX (1) = p et PX (0) = 1 − p.
de sortes que les résultats soient mutuellement indépendants. Notons p ∈ [0, 1] la probabilité du succès
et suivent la même loi de Bernoulli(p). Avec ces notations, si X désigne le nombre total de succès, alors
45
4.1 Lois discrètes A. Zoglat
X = X1 + X2 + . . . + Xn . Il est alors facile de calculer E[X] et Var[X] avant même de calculer PX . En eet
on a
L'événement Ai1 ∩ Ai2 ∩ . . . ∩ Aik ∩ Aik+1 ∩ Aik+2 ∩ . . . ∩ Ain signie en particulier qu'il y a eu k succès et
n−k échecs. Le nombre des diérents événements de ce genre est égal au nombre de possibilités de choisir
k expériences parmi n. Ils sont tous de même probabilité et leur réunion est égale à l'événement {X = k}.
Ainsi on a
Exemple 4.1.1. Les réacteurs d'un avion peuvent, chacun avec probabilité 1−p, tomber en panne en cours de
vol. Les défaillances se produisent indépendamment les unes des autres. L'avion peut terminer sans diculté
son vol si au moins la moitié de ses réacteurs fonctionnent. Pour quelles valeurs de p les quadriréacteurs
est une variable aléatoire qui suit une loi Binômiale. La probabilité pour un quadriréacteur d'achever son vol
est donc
P{X ≥ 2} = P{X = 2} + P{X = 3} + P{X = 4} = C24 p2(1 − p)2 + C34p3(1 − p) + C44p4(1 − p)0
= 6p2 (1 − p)2 + 6p3 (1 − p) + p4 .
46
A. Zoglat 4.1 Lois discrètes
Le quadriréacteur est donc plus sûr lorsque 6p2 (1 − p)2 + 6p3 (1 − p) + p4 ≥ 2p(1 − p) + p2 ou de façon
expérience n fois et on note xi le nombre de fois où le résultat Ri se réalise, pour i ∈ {1, 2, . . . , k}. Il est clair
que
k
X k
X
pi = 1 et xi = n.
i=1 i=1
n!
P{A(x1 , . . . , xk )} = px1 px2 . . . pxk k .
x 1 ! x 2 ! . . . xk ! 1 2
Exemple 4.1.2. On jette 6 fois deux pièces équilibrées. Calculer la probabilité d'obtenir 2 fois 2 Faces, 1
1 1 1
P{R1 } = = p1 , P{R2 } = = p2 , P{R3 } = = p3 .
4 4 2
6!
P{A(2, 1, 3)} = (0.25)2 (0.25)1 (0.5)3 .
2!1! 3!
Exemple 4.1.3. Dans une chaîne de production, 95% des articles ne présentent aucun défaut de fabrication,
3% présentent un défaut de type 1 et 2% présentent un défaut de type 2. Un contrôleur de qualité prélève
20 articles pour inspection. Quelle est la probabilité qu'il trouve au moins 2 articles qui présentent un défaut
47
4.1 Lois discrètes A. Zoglat
On a alors,
Pour i = 0, 1 ou 2, on note Xi le nombre de fois l'événement Ri a été observé. Soit A l'événement déni par
P{A} = 1 − P{A}
= 1 − P{A(20, 0, 0)} + P{A(19, 1, 0)} + P{A(19, 0, 1)} + P{A(18, 1, 1)}
X 20! 20−i−j
=1− p0 pi1 pj2 .
i! j!
0≤i,j≤1
du succès. On répète cette expérience jusqu'à l'obtention du premier succès et on note X le nombre d'essais
∀k ≥ 1, fX (k) = p (1 − p)k−1 .
Exemple 4.1.4. Une urne contient N boules blanches et M noires. On tire des boules une par une avec
remise jusqu'à l'apparition d'une noire. Quelle est la probabilité qu'il faille exactement n tirages ?
Désignons par X le nombre de tirages nécessaires jusqu'à l'apparition de la première boule noire. La
M
probabilité de succès est p= , d'où
N +M
N n−1 M
P{X = n} = .
N +M N +M
1 1−p
E[X] = et Var(X) = .
p p2
48
A. Zoglat 4.1 Lois discrètes
réalisation d'un événement rare pendant un intervalle de temps ou d'espace donné. On cite ci-dessous
quelques exemples :
• le nombre d'individus dépassant l'âge de 100 ans dans une communauté humaine,
• le nombre de paquets de biscuits pour chien vendus dans un magasin donné en l'espace d'un jour,
• le nombre de particules α émises par un matériau radioactif pendant un certain laps de temps.
Dénition 4.1.3. On dit qu'une v. a. X suit une loi de poisson de paramètre λ et on note X ∼ Poisson(λ) si
Les situations où un événement particulier se reproduit à intervalles réguliers au cours du temps peuvent
fournir des cas d'application de la loi de Poisson. On peut citer comme exemple d'un tel événement un trem-
blement de terre, ou l'entrée d'une personne dans un établissement donné (banque, poste, station d'essence,
etc.) Supposons que l'on ait aaire à de tels événements et qu'en plus il existe une constante positive λ pour
En termes approximatifs, les conditions 1 et 2 établissent que lorsque h est petit, la probabilité d'observer
exactement 1 événement durant un intervalle de longueur h est λh plus quelque chose de petit comparé à h,
tandis que celle d'observer deux événements ou plus est petite comparée à h. La condition 3 garantit que ce
qui se passe au cours d'un intervalle n'a pas d'inuence sur ce qui arrive durant tout autre intervalle disjoint
du premier.
On montre que sous les trois conditions précitées, le nombre d'événements survenant dans un laps de
temps d'origine quelconque et de durée t est une variable aléatoire de Poisson avec paramètre λt.
Remarque 4.1.1. Le paramètre λ pour une loi de Poisson représente le taux moyen d'événements par unité
49
4.1 Lois discrètes A. Zoglat
E[X] = λ et Var(X) = λ.
X λk X λk−1 X λj
E[X] = e−λ k = e−λ λ = λ e−λ = λ.
k! (k − 1)! j!
k≥0 k≥1 j≥0
X λk X λk−1 X λk−1
E(X 2 ) = e−λ k 2 = e−λ λ k = e−λ λ (1 + (k − 1))
k! (k − 1)! (k − 1)!
k≥0 k≥1 k≥1
X λj X λj
= λ e−λ + e−λ j = λ(1 + λ).D'où
j! j!
j≥0 j≥0
2
Var(X) = E[X 2 ] − E[X] = λ.
Démonstration. Soit n ∈ N,
n
X n
X
P{X1 + X2 = n} = P{X1 + X2 = n, X2 = k} = P{X1 = n − k, X2 = k}
k=0 k=0
Xn
= P{X1 = n − k}P{X2 = k} (par indépendance)
k=0
n
X λn−k
1 e−λ1 λk2 e−λ2
=
(n − k)! k!
k=0
n
1 X n!
= e−(λ1 +λ2 ) λn−k λk2
n! k! (n − k)! 1
k=0
(λ1 + λ2 )n
= exp (−λ1 − λ2 ) .
n!
Remarque 4.1.2. Il est clair que si X1 , . . . , Xn sont des v. a. mutuellement indépendantes telles que Xi ∼
Poisson(λi ), alors X1 + X2 + . . . + Xn ∼ Poisson(λ1 + λ2 + . . . + λn ).
Exemple 4.1.5. Les clients arrivent à un guichet automatique au taux moyen de 1.9 clients par minute.
50
A. Zoglat 4.1 Lois discrètes
1- Quelle est la probabilité qu'au cours d'une minute donnée, le nombre de clients qui arrivent au guichet
est égal à 5.
2- Quelle est la probabilité qu'au cours d'un intervalle de 3 minutes, le nombre de clients qui arrivent
Solution :
1- Soit X le nombre de clients qui arrivent au guichet au cours d'une minute. C'est une v. a. qui suit
e−1.9 (1.9)5
une loi de Poisson(λ = 1.9). Ainsi P{X = 5} = .
5!
2- Notons Xi le nombre de clients qui arrivent au guichet durant la ième minute pour i = 1, 2 ou 3. Les
clients qui arrivent au guichet au cours d'un intervalle de 3 minutes. C'est une v. a. qui suit une loi de
e−5.7 (5.7)8
Poisson(λ0 = 3λ = 5.7). D'où P{Y = 8} = .
8!
n tend vers l'inni et la probabilité de succès p tend vers 0 de sorte que le produit np = λ reste constant.
Soit X une v. a. qui suit la loi Binômiale(n, p). Pour tout k ∈ {0, 1, . . . n} on a :
n!
PX (k) = pk (1 − p)n−k
k!(n − k)!
n! λ k λ n−k
= 1−
k!(n − k)! n n
λ k n! 1 λ n λ −k
= 1 − 1 −
k! (n − k)! nk n n
Lorsque n → ∞,
λ n! 1 λ n λ −k λk e−λ
→ 0, → 1, 1− → e−λ , et 1− → 1. D'où PX (k) → .
n (n − k)! nk n n k!
Résultat : L'approximation d'une loi de Binômiale(n, p) par une une loi de Poisson(λ = np) est d'autant
Exemple 4.1.6. On lance deux dés équilibrés 100 fois et on note X le nombre de fois où l'on a obtenu un
double 6. Il est clair que X ∼Binômiale(100, 1/36). Comme n ≥ 25 et p = 1/36 = 0.0278 ≤ 0.05, on peut
faire l'approximation de la loi de X par la loi de Poisson(λ = 2.78). Le tableau suivant donne PX (k) et son
51
4.2 Lois continues A. Zoglat
k 0 1 2 3 4 5
k 6 7 8 9 10 11
Exemple 4.1.7. Un manufacturier sait que 2% des articles qu'il produit sont défectueux. Il choisit au
hasard un échantillon de 30 articles pour inspection. Quelle est la probabilité qu'il trouve au plus 5 articles
défectueux ?
52
A. Zoglat 4.2 Lois continues
a+b (b − a)2
E[X] = et Var(X) = .
2 12
En eet,
Z Z b
1 a+b
E[X] = x fX (x) dx = x dx = .
R b − a a 2
Z b
b2 + ab + a2
Z
1
E[X 2 ] = x2 fX (x) dx = x2 dx = .
R b−a a 3
a. N ∼ Poisson(λ), pour un λ > 0 donné. On note T le temps qui sépare deux événements consécutifs. C'est
une v. a. dont nous allons déterminer la loi. Il est clair que T est à valeurs dans ]0, ∞[, donc FT (t) = 0 pour
tout t < 0. Soit t ≥ 0, et soit N[0,t] le nombre d'événements qui se produisent au cours de l'intervalle [0, t].
On a N[0,t] ∼ Poisson(λt) et donc
(λt)0
P{T > t} = P{N[0,t] = 0} = e−λt = e−λt .
0!
D'où
1 − e−λt
si t ≥ 0, λ e−λt
si t ≥ 0,
FT (t) = et fT (t) =
0
0
sinon. sinon.
Dénition 4.2.2. On dit qu'une v. a. X suit une loi exponentielle de paramètre λ > 0
et on note X ∼
Exponentielle(λ) si sa fdp est donnée par λ e−λx
si x ≥ 0,
fX (x) =
0 sinon.
Ainsi
1 1
E[X] = et Var(X) = .
λ λ2
La loi exponentielle fait partie de la famille des lois Gamma que nous introduisons maintenant.
53
4.2 Lois continues A. Zoglat
Dénition 4.2.3. Soit Y une v. a. à valeurs dans R+ . On dit que Y suit une loi gamma de paramètres α > 0
β α y α−1 e−β y
∀y ∈ R, fY (y) = I[0,∞[ (y), où
Γ(α)
∞ 1 si y∈A
Z
Γ(α) = uα−1 e−u du et IA (y) =
0
0 sinon.
Remarque 4.2.1.
• On a Γ(α + 1) = α Γ(α). En particulier, pour tout n ∈ N, Γ(n + 1) = n!.
Γ(α + 1)
• Un calcul simple montre que si Y ∼ Γ(α, β), alors E[Y ] = .
β Γ(α)
• Lorsque α = 1, on a Γ(1, β) = Exponentielle(1/β).
Dénition 4.2.4. On dit que Z suit la loi normale (ou gaussienne) standard et on note Z ∼ N (0, 1) si sa
Proposition 11. Soit Z une v. a. qui suit une loi normale standard N (0, 1). Alors on a
E[Z] = 0 et Var(Z) = 1.
Notation : Dans toute la suite Z désignera une v. a. qui suit la loi normale standard.
Pour tout z ∈ R, FZ (z) est égale à la surface délimitée par l'axe x0 ox, la courbe de la fonction fZ et la droite
x = z.
Remarque 4.2.2. Il existe des tables qui donnent FZ (z) pour les diérentes valeurs de z. Une table de la
loi normale standard est donnée à la n du chapitre. Comme la fdp de Z est une fonction paire, donc admet
54
A. Zoglat 4.2 Lois continues
Les deux derniers termes sont disponibles sur une table de la loi normale standard.
Il existe d'autres lois normales qui peuvent être obtenues à partir de la loi normale standard.
Soient Z ∼ N (0, 1), µ ∈ R et σ > 0. Déterminons la loi de X = σZ + µ. Il est clair que E[X] = µ et
Var(X) = σ 2 . Soit x ∈ R,
n x − µo x − µ
FX (x) = P{X ≤ x} = P Z ≤ = FZ , d'où
σ σ
1 x−µ 1 (x − µ)2
fX (x) = fZ = √ exp − .
σ σ σ 2π 2σ 2
Dénition 4.2.5. On dit qu'une v. a. X suit une loi normale de moyenne µ et de variance σ 2 , et on note
1 (x − µ)2
∀x ∈ R, fX (x) = √ exp − .
σ 2π 2σ 2
X −µ
Remarque 4.2.3. On peut facilement vérier que si X ∼ N (µ, σ 2 ) alors ∼ N (0, 1).
σ
Exemple 4.2.1. Soit X ∼ N (23, 1.52 ). P{20 ≤ X ≤ 25}.
Calculer
n 20 − 23 25 − 23 o
P{20 ≤ X ≤ 25} = P ≤Z≤
1.5 1.5
= P{−2 ≤ Z ≤ 1.33} = P{Z ≤ 1.33} − P{Z ≤ −2}
55
4.2 Lois continues A. Zoglat
a X1 + b ∼ N (aµ1 + b, (aσ1 )2 ).
deuxième assertion, et sans perdre de généralité (justier !), dans le cas de v. a. normales standards. Pour
simplier les notations, on prendra a=1 et b = 1, le cas général peut être traité selon la même démarche.
Z ∞
fZ1 +Z2 (v) = fZ1 (u) fZ2 (v − u) du.
−∞
2
exp −t
∀t ∈ R, fZ1 +Z2 (v) = √ √2×2 .
2 2π
56
A. Zoglat 4.3 Autres Lois Importantes
Soient X = (X1 , . . . , Xd ) un vecteur aléatoire et FX sa fr. Soit ϕ : Rd → R une application telle que
Y = ϕ(X) soit une v.a. Alors l'espérance mathématique de Y , lorsqu'elle existe, est donnée par :
E[Y ] = E[ϕ(X1 , . . . , Xd )]
Z
= ϕ(x1 , . . . , xd )fX (x1 , . . . , xd ) dx1 . . . dxd si fX existe, et
Rd
E[Y ] = E[ϕ(X1 , . . . , Xd )]
X
= ϕ(x1 , . . . , xd )PX (x1 , . . . , xd )
(x1 ,...,xd )
Z
E[Y ] = E[ϕ(X1 , . . . , Xd )] = ϕ(x1 , . . . , xd ) dFX (x1 , . . . , xd ).
Rd
Transformation de Rd dans Rd
57
4.3 Autres Lois Importantes A. Zoglat
∂ϕ1 ∂ϕ1
(t) . . . (t)
∂t1 ∂tk
. .
∀t = (t1 , . . . , tk ) ∈ Rk ,
Jφ (t) = .. .
.
∂ϕ ∂ϕk
k
(t) . . . (t)
∂t1 ∂tk
Le théorème suivant, connu sous le nom de théorème de changement de variables, est très utile.
Théorème 4.3.1. [de changement de variables] Soit φ = (ϕ1 , . . . , ϕd ) une fonction dénie sur un ouvert B ⊂ Rd
et à valeurs dans Rd . On suppose que
Z
|f (x)| dx < ∞.
φ(B)
Z Z
f (x) dx = f (φ(t)) |Jφ (t)| dt.
K φ−1 (K)
Dans ces expressions et dans la suite, du désigne du1 . . . duk et φ−1 désigne la fonction inverse de φ.
1
Rappelons que Jφ−1 (t) = . Il s'ensuit que si φ vérie les conditions du théorème de changement
Jφ (φ−1 (t))
de variables, alors φ−1 les vérie aussi.
Théorème 4.3.2. Soient X = (X1 , . . . , Xd ) un vecteur aléatoire à valeurs dans un ouvert S ⊂ Rd , fX sa fdp et
fX g −1 (y)
−1
fY (y) = fX g (y) |Jg−1 (y)| = .
|Jg g −1 (y) |
Proposition 13. Soient Z1 ∼ N (0, 1) et Z2 ∼ N (0, 1) deux v.a. indépendantes. Alors, pour tout couple de
réels (a1 , a2 ) 6= (0, 0), la v.a. X = a1 Z1 + a2 Z2 est normale de moyenne µ=0 et variance σ 2 = a21 + a22 .
58
A. Zoglat 4.3 Autres Lois Importantes
Démonstration. Il est clair que la moyenne et la variance de X sont données par les formules ci-dessus. Seule
Considérons la bijection g : (x, y) 7→ (x, a1 x + a2 y). Sa fonction réciproque est donnée par g −1 : (u, v) 7→
(u, a2−1 (v − a1 u)). On a alors |Jg−1 (u, v)| = |1/a2 |, d'où
v − a u 1
1
f(Z1 ,X) (u, v) = f( Z1 ,Z2 ) u, (Théorème 4.3.1)
a2 |a2 |
1 v − a1 u
= fZ1 (u) fZ2 (Indépendance)
|a2 | a2
Z
fX (v) = f(Z1 ,X) (u, v)du.
R
on obtient alors
v − a1 u
Z
1
fX (v) = f (u) fZ2 du
|a2 | R Z1 a2
(v − a1 u)2
Z
1 1 1 1
= √ √ exp − u2 + du
|a2 | 2π 2π R 2 a22
1 a22 u2 + (v − a1 u)2
Z
1 1 1
= √ √ exp − du.
|a2 | 2π 2π R 2 a22
Or,
59
4.3 Autres Lois Importantes A. Zoglat
v2
1
fX (v) = √ exp − ×
|a2 | 2π 2(a22 + a21 )
2
a v
p
Z u a2 + a1 − √ 2 2
2 2 1
1 1 a2 +a1
√ exp − 2 du
2π R 2 a2
v2 (a22 + a21 ) 2
Z
1 1
= √ exp − √ exp − u du
|a2 | 2π 2(a22 + a21 ) 2π R 2a22
v2 u2
Z
α 1
= √ exp − √ exp − 2 du,
|a2 | 2π 2(a22 + a21 ) α 2π R 2α
s
v2 a22
α 1
= √ exp − où α =
|a2 | 2π 2(a22 + a21 ) a21 + a22
v2
1
=p exp − .
2π(a22 + a21 ) 2(a22 + a21 )
Le Théorème 4.3.2 prend une forme particulière dans le cas d'une application ane dans Rn .
Rappelons qu'une application g : Rd −−−−→ Rd est dite ane s'il existe une d × d matrice A et un vecteur
c = (c1 , . . . , cd ) ∈ Rd tels que, pour tout x = (x1 , . . . , xd ) ∈ Rd , g(x) = x A + c. Si c = 0, on dit que g est
Soit g(x) = x A + c une application ane sur Rd . On montre facilement que g est injective si, et seulement
∀y ∈ Rd , g −1 (y) = (y − c) A−1 .
Corollaire. Soient g est une application ane injective sur Rd , et X un vecteur aléatoire de Rd . Alors la fdp
Proposition 14. Soient X1 et X2 deux v.a. indépendantes dont les fdp respectives sont notées f1 et f2 . Alors
Z
∀x ∈ R, fX (x) = f1 (x − u) f2 (u) du.
R
60
A. Zoglat 4.3 Autres Lois Importantes
fonction g est inversible et on a g −1 (y1 , y2 ) = (y1 −y2 , y2 ) et |Jg−1 (y1 , y2 )| = 1. D'où, en posant X = (X1 , X2 )
et Y = g(X),
= fX y1 − y2 , y2 ) = f1 (y1 − y2 ) f2 (y2 ).
Y1 + Y2 ∼ Γ(α1 + α2 , β).
Z 1
1
= β α1 +α2 y α1 +α2 −1 e−β y (1 − u)α1 −1 uα2 −1 du
Γ(α1 )Γ(α2 ) 0
| {z }
=C
α1 +α2 α1 +α2 −1 −β y
=Cβ y e .
1 R∞
Comme fY est une fdp, on a = 0 β α1 +α2 y α1 +α2 −1 e−β y dy = Γ(α1 + α2 ).
C
Remarquons que cette dernière égalité montre que
Z 1
Γ(α1 )Γ(α2 )
(1 − u)α1 −1 uα2 −1 du = .
0 Γ(α1 + α2 )
Loi de Khi-deux
1
Dénition 4.3.1. Soit Y une v.a. qui suit une loi Γ(α, β). Si 2α = n ∈ N∗ et β= , on dit que Y suit une loi
2
de khi-deux à n degrés de liberté et on note Y ∼ χ2n .
Théorème. [Expression de χ2 ] Soit Z1 , . . . , Z n des v.a. indépendantes et de même loi N (0, 1). La v.a. X =
Z12 + . . . + Zn2 suit une loi de khi-deux à n degrés de liberté, i.e. X ∼ χ2n .
61
4.3 Autres Lois Importantes A. Zoglat
Démonstration. Il sut de montrer que Z12 ∼ χ21 puis d'appliquer la Proposition 15 pour conclure.
√ √
P{Z12 ≤ x} = P{|Z1 | ≤ x} = 2P{0 ≤ Z1 ≤ x}
Z √x
1 −u2
= 2√ exp du
2π 0 2
Z x
1 1 −v 2
=√ √ exp dv (On pose u = v )
2π 0 v 2
1 −x
fZ 2 (x) = √ x−1/2 exp I (x)
1 2π 2 [0,∞[
n
Xi − µ 2
X
∼ χ2n .
σ
i=1
Loi de Student
Dénition 4.3.2. On dit qu'une v.a. T suit une loi de Student à n degrés de liberté, et on note T ∼ tn , si sa
Z
p ∼ tn .
X/n
Démonstration. Nous allons simplement indiquer les diérentes étapes de la démonstration. Les détails re-
Théorème. Soit Z1 , . . . , Z n des v.a. indépendantes et de même loi normale standard, alors
62
A. Zoglat 4.3 Autres Lois Importantes
Pn Pn
i=1 Zi 2 − Z)2
i=1 (Zi
1- La moyenne Z= et la variance S = sont indépendantes.
n n−1
2- La v.a. (n − 1) S 2 ∼ χ2n−1 .
√ Z
3- La v.a. n ∼ tn−1 .
S
Lemme. Soit Z = (Z1 , . . . , Zn ) un vecteur dont les composantes sont des v.a. indépendantes et de même loi
N (0, 1), et soit A une matrice orthogonale (i.e. AAt = I ou encore A−1 = At , où At est la matrice transposée
de A).
Le vecteur aléatoire Z A = Y = (Y1 , . . . , Yn ) est à composantes indépendantes et de même loi N (0, 1).
Preuve du Lemme : Posons A = (aij )1≤i,j≤n . Alors , pour tout i ∈ {1, . . . , n}, on a Yi =
P
j aji Zi .
σi2 = a2ji .
P
D'après la Proposition 13, Yi est une v.a. normale de moyenne 0 et de variance j Comme
At A = I, a2ji = 1 σi2 = 1.
P
on a j et donc
fZ (yAt )
∀y ∈ Rn , fY (y) = = fZ (yAt ) car | det A| = 1.
| det A|
Posons yAt = u = (u1 , . . . , un ), on a alors
X
∀i ∈ {1, . . . , n} ui = aij yj , d'où
j
n n
Y 1 −1 X 2
fY (y) = fi (ui ) = √ exp ui . où fi est la fdp de Zi .
( 2π)n 2
i=1 i=1
Remarquons que
n
X XX X X
u2i = aij yj aik yk = yk yj aij aik .
i=1 i j,k j,k i
1
si j=k
AAt = I,
P
Et comme on a i aij aik =
, d'où
0 sinon
n
1 −1 X 2
fY (y) = √ exp yi .
( 2π)n 2
i=1
Preuve du Théorème : Soit A = (aij )1≤i,j≤n une matrice orthogonale dont la première colonne est
√1
n
.
a1 = . .
.
√1
n
63
4.3 Autres Lois Importantes A. Zoglat
La construction d'une telle matrice peut se faire selon le procédé de Gram-Schmidt pour la construction
Posons Y = Z A. D'après le Lemme, Y est un vecteur dont les composantes sont indépendantes et de même
Y1 2
loi N (0, 1). D'après la dénition de A, on a Z=√ et donc nZ = Y12 .
n
n
X n
X
t
Yi2 t
= YY = (Z A) (Z A) = Zi2 , d'où
i=1 i=1
n n n n
X X X 2 X 2
Yi2 = Zi2 − Y12 = Zi2 − nZ = Zi − Z .
i=2 i=1 i=1 i=1
Pn
Les Yi étant indépendantes, on conclut que (n − 1)S 2 = Yi2 , est indépendante de Z
i=2 qui est fonction
Corollaire. Soit X1 , . . . ,P
Xn des v.a. indépendantes et de même loi normale N (µ, σ 2 ), alors
n
i=1 Xi S2 1 Pn Xi − X 2
1- La moyenne X= et la variance = sont indépendantes.
n σ2 n − 1 i=1 σ
S2
2- La v.a. (n − 1) 2 ∼ χ2n−1 .
σ
√ X −µ
3- La v.a. n ∼ tn−1 .
S
Xi − µ
Démonstration. Il sut de remarquer que, pour tout i = 1, . . . , n, = Zi ∼ N (0, 1) et d'appliquer le
σ
théorème précédent.
Loi de Snedecor
Cette loi a été introduite par Snedecor et est notée F en l'honneur de Sir Ronald Fisher.
Dénition 4.3.3. On dit qu'une v.a. U suit une loi F à n et m degrés de liberté, et on note U ∼ Fn,m , si sa
Γ( n+m2 )
n n/2 u(n/2)−1
∀u ∈ R+ , fU (u) = n m p .
Γ( 2 ) Γ( 2 ) m (1 + (n/m)u)n+m
64
A. Zoglat 4.4 Lois conditionnelles
En pratique, les v.a. qui suivent une la loi de Snedecor sont souvent sous la forme décrite dans le théorème
suivant
X1 /n
Théorème. Soient X1 ∼ χ2n et X2 ∼ χ2m deux v.a. indépendantes. Alors le ratio ∼ Fn,m .
X2 /m
1
Corollaire 1. Soit U ∼ Fn,m , alors ∼ Fm,n .
U
Il existe des tables où l'on trouve les valeurs usuelles des probabilités relatives aux lois de student, de
khi-deux et de Fisher.
Dénition 4.4.1. On appelle loi conditionnelle de X sachant que Y = y, et on note PX|Y =y , la quantité
dénie par
P{X = x, Y = y}
∀x, PX|Y =y (x) = .
P{Y = y}
Remarque.
P
En remarquant que, pour tout y , P{Y = y} = x PX (x, y), la loi conditionnelle de X sachant
Y =y s'écrit
PX (x, y)
∀x, PX|Y =y (x) = P .
u PX (u, y)
On dénit également la F. r. conditionnelle de X sachant que Y = y, pour autant que PY (y) 6= 0, par
X
FX/Y =y (x) = P{X ≤ x/Y = y} = PX/Y =y (u, y).
u≤x
On constate donc que les dénitions sont exactement les mêmes que dans le cas où il n'existe pas de condition.
Simplement, les probabilités sont toutes modiées par le fait que l'on sache que Y = y.
65
4.4 Lois conditionnelles A. Zoglat
Proposition 16. Lorsque X et Y sont indépendantes, les lois conditionnelles et non conditionnelles sont iden-
tiques :
Exemple 4.4.1. La loi de probabilité conjointe P(X,Y ) de deux variables X et Y est donnée par :
P(X,Y ) (0, 0) = 0.4, P(X,Y ) (0, 1) = 0.2, P(X,Y ) (1, 0) = 0.1, P(X,Y ) (1, 1) = 0.3.
Exemple 4.4.2. Soient X et Y deux variables indépendantes qui suivent respectivement les lois de Poisson
P{X = k, X + Y = n}
PX/X+Y =n (k) = P{X = k/X + Y = n} =
P{X + Y = n}
P{X = k, Y = n − k} P{X = k} P{Y = n − k}
= =
P{X + Y = n} P{X + Y = n}
e−λ1 λk1 e−λ2 λn−k
2
k! (n − k)! n! λ
1
k λ
2
n−k
= −(λ +λ ) = .
e 1 2 (λ1 + λ2 )n k!(n − k)! λ1 + λ2 λ1 + λ2
n!
λ1
La loi conditionnelle de X sachant X +Y =n est une B inômiale n, .
λ1 + λ2
Dénition 4.4.2. Soient X et Y deux v. a. admettant une densité conjointe f(X,Y ) . On dénit la densité
66
A. Zoglat 4.4 Lois conditionnelles
L'usage des densités conditionnelles rend possible le calcul de probabilités d'événements relatifs à une variable
X, sous condition qu'une variable Y ait pris une valeur connue. Nommément, lorsque X et Y possèdent une
de X sous la condition Y = y,
Z x
FX/Y =y (x) = fX/Y =y (u) du.
∞
Exemple 4.4.3. Soient X et Y deux variables ayant pour densité conjointe
12
f(X,Y ) (x, y) = (2 − x − y) I]0,1[×]0,1[ (x, y).
5
Déterminons la densité conditionnelle de X, sachant que Y = y, où 0 < y < 1. Soit 0 < x < 1,
f(X,Y ) (x, y) f(X,Y ) (x, y)
fX/Y =y (x) = =Z ∞
fY (y)
f(X,Y ) (u, y) du
−∞
2−x−y 2−x−y
=Z 1 =
2/3 − y/2
u(2 − u − y) du
0
naturelle par
X
x PX/Y =y (x) dans le cas de v. a. discrètes,
x
E[X/Y = y] =
Z
x fX/Y =y (x) dx
dans le cas de v. a. à densité.
67
4.4 Lois conditionnelles A. Zoglat
Remarque.
E X/Y = y est donc l'espérance de X prise par rapport à sa loi conditionnelle PX/Y =y . Ainsi elle
Notons que E X/Y = y est une fonction de y . Ainsi E X/Y une v.a. qui prend les valeurs E X/Y = y
pour les diérentes valeurs y.
Dénition 4.4.3.
La v.a. E X|Y s'appelle l'espérance conditionnelle de X sachant Y.
h i X
E E X|Y = E X|Y = y PY (y)
y
XX
= x PX/Y =y (x) PY (y)
y x
X X
= x PX/Y =y (x) PY (y)
x y
X X X
= x P(X,Y ) (x, y) = x PX (x)
x y x
=E X .
Exemple 4.4.5. [Exemple4.4.2 (suite)] Nous avons déjà vu que si X ∼ Poisson(λ1 ), Y ∼ Poisson(λ2 ) et si X
λ1
et Y sont indépendantes, alors la loi conditionnelle de X sachant X + Y = n est une B inômiale n, .
λ1 + λ2
D'où,
n
Cnk λ1 k λ2 n−k λ1
X
∀n ∈ N, E[X/X + Y = n] = k =n .
λ1 + λ2 λ1 + λ2 λ1 + λ2
k=0
λ1
Ainsi, E[X/X + Y ] = (X + Y ) .
λ1 + λ2
Exemple 4.4.6. [Exemple4.4.4, suite]
1 x
fX/Y =y (x) = exp − . i.e. sachant que Y = y , X ∼ Exponentielle(1/y),
y y
d'où, E[X/Y = y] = y et donc E[X/Y ] = Y .
68
Chapitre 5
Théorèmes limites
Dans ce chapitre nous nous intéressons particulièrement aux comportements asymptotiques des sommes
de v.a. indépendantes et de même loi. Parmi les principaux théorèmes limites qui occupent une place privi-
légiée, aussi bien en théorie qu'en pratique, on peut citer la loi des grands nombres et le théorème central
P ω ∈ Ω : lim Xn (ω) = X(ω) = 1.
n
La convergence p.s. pour les v.a. est l'analogue de la convergence simple pour les suites de fonctions. La
Proposition 18. Soient X, X1 , X2 , . . ., une suite v.a. dénies sur le même espace probabilisé (Ω, F, P). La suite
(Xn )n converge p.s. vers X si, et seulement si, pour tout > 0,
n o
lim P ω ∈ Ω : sup |Xk (ω) − X(ω)| > = 0.
n→∞ k≥n
Dénition 5.1.2. Soient X, X1 , X2 , . . ., une suite v.a. dénies sur le même espace probabilisé (Ω, F, P). On dit
P
que (Xn )n converge en probabilité vers X, et on note Xn −−−→ X , si pour tout > 0,
n→∞
lim P ω ∈ Ω : |Xn (ω) − X(ω)| > = 0.
n
69
5.1 Modes de convergence A. Zoglat
En remarquant que
∀n ≥ 1, P ω ∈ Ω : |Xn (ω) − X(ω)| > ≤ P ω ∈ Ω : sup |Xn (ω) − X(ω)| > ,
k≥n
Proposition 19. Soient X, X1 , X2 , . . ., une suite v.a. dénies sur le même espace probabilisé (Ω, F, P), alors
p.s. P
Xn −−−→ X =⇒ Xn −−−→ X.
n→∞ n→∞
La convergence p.s. et la convergence en probabilité sont conservées par les opérations algébriques :
Proposition 20. Soient X, X1 , X2 , . . ., et Y, Y1 , Y2 , . . . deux suites v.a. dénies sur le même espace probabilisé
(Ω, F, P).
p.s. p.s. p.s.
1- Si Xn −−−→ X et Yn −−−→ Y alors Xn + Yn −−−→ X + Y.
n→∞ n→∞ n→∞
P
2- Si
P
Xn −−−→ X et
P
Yn −−−→ Y alors Xn + Yn −−−→ X + Y.
n→∞ n→∞ n→∞
Démonstration. Nous allons démontré la première assertion, la seconde peut être démontrée de la même
lim P sup |Xn − X| > /2 = 0, et lim P sup |Yn − Y | > /2 = 0, d'où
n k≥n n k≥n
lim P sup(Xn + Yn ) − (X + Y ) > ≤ lim P sup |Xn − X| > /2 + lim P sup |Yn − Y | > /2 = 0.
n k≥n n k≥n n k≥n
La proposition suivante est un autre résultat sur sur les opérations algébriques. Nous allons l'admettre
sans démonstration.
Proposition 21. Soient X, X1 , X2 , . . ., et Y, Y1 , Y2 , . . . deux suites v.a. dénies sur le même espace probabilisé
(Ω, F, P).
p.s. p.s. p.s.
1- Si Xn −−−→ X et Yn −−−→ Y alors Xn Yn −−−→ X Y.
n→∞ n→∞ n→∞
P
2- Si
P
Xn −−−→ X et
P
Yn −−−→ Y alors Xn Yn −−−→ X Y.
n→∞ n→∞ n→∞
Remarquons que dans le cas de la convergence p.s. ou de la convergence en probabilité les v.a. sont toutes
dénies sur le même espace probabilisé. Il existe un autre mode de convergence qui ne fait appel aux v.a.
qu'à travers leurs lois et ne nécessite donc pas que les v.a. soient dénies sur le même espace probabilisé.
Dénition 5.1.3. Soient X, X1 , X2 , . . ., une suite v.a. ( pas nécessairement dénies sur le même espace proba-
L
bilisé). On dit que (Xn )n converge en loi vers X, et on note Xn −−−→ X si, pour tout x point de continuité de
n→∞
FX , FXn (x) −−−→ FX (x).
n→∞
70
A. Zoglat 5.1 Modes de convergence
Nous avons déjà vu que la convergence p.s. implique la convergence en probabilité. Quelle relation y t-il avec
la convergence en loi ? La proposition suivante fournit une réponse partielle à cette question.
Proposition 22. Soient X, X1 , X2 , . . ., une suite v.a. dénies sur le même espace probabilisé (Ω, F, P). Alors
P L
Xn −−−→ X =⇒ Xn −−−→ X.
n→∞ n→∞
= FX (x + ) + P{|Xn − X| > }
En passant à la limite sur n puis en laissant tendre vers 0, on obtient lim supn FXn (x) ≤ FX (x). De la même
manière on a
FX (x − ) = P{X ≤ x − }
En passant à la limite sur n puis en laissant tendre vers 0, on obtient lim inf n FXn (x) ≥ FX (x). Ainsi nous
FX (x) ≤ lim inf FXn (x) ≤ lim sup FXn (x) ≤ FX (x),
n n
La réciproque de l'assertion de la proposition précédente est en général fausse. Nous avons toutefois le
résultat suivant
Proposition 23. Soient X1 , X2 , . . ., une suite v.a. dénies sur le même espace probabilisé (Ω, F, P) et c une
constante. Alors
L P
Xn −−−→ c =⇒ Xn −−−→ c.
n→∞ n→∞
71
5.1 Modes de convergence A. Zoglat
Lemme. Si
L
Xn −−−→ X
n→∞
alors pour tout >0 il existe un réel K>1 tel que :
a- FX soit continue en ±K ,
b- P{|X| > K} < et,
La première assertion est vraie car l'ensemble de points de discontinuité de FX est au plus dénombrable.
La deuxième est vraie car limx→∞ P{|X| > x} = 0. La troisième résulte du fait que FXn (−K) −→ FX (−K)
et FXn (K) −→ FX (K).
L
=⇒: Supposons que Xn −−−→ X . Soit f une fonction continue et bornée et soit M = supx |f (x)| < ∞.
n→∞
D'après le lemme, pour > 0, il existe K >0 tel que FX soit continue en ±K , P{|X| > K} < /M et il
où les xi sont des points de continuité de FX tels que −K = x0 < x1 < . . . < xk = K . On choisit
1 les ai et
1. Ce choix est possible car f est uniformément continue sur le compact [−K, K].
72
A. Zoglat 5.1 Modes de convergence
h i h i
|E[Xn ] − E[X]| ≤ E f (Xn ) I[−K,K] (Xn ) − E f (X) I[−K,−K] (X)
h i h i
+ E |f (Xn )| I[K,∞[ (|Xn |) + E |f (X)| I[K,∞[ (|X|)
h i h i
≤ E f (Xn ) I[−K,K] (Xn ) − E f (X) I[−K,−K] (X) + 3
h i
≤ 3 + E f (Xn ) I[−K,K] (Xn ) − E[g(Xn )]
h i
+ E f (X) I[−K,−K] (X) − E[g(X)] + E[g(Xn )] − E[g(X)]
≤ 5 + E[g(Xn )] − E[g(X)].
L
Comme Xn −−−→ X et puisque les xi sont des points de continuité de FX , on a
n→∞
k
X k
X
E[g(Xn )] = ai FXn (xi ) − FXn (xi−1 ) −→ ai FX (xi ) − FX (xi−1 ) = E[g(X)].
i=1 i=1
En faisant tendre vers 0 et puisque FX est continue à droite, on obtient lim supn→∞ FXn (t) ≤ FX (t).
Ensuite, pour ∗ > 0, on construit une fonction h∗ continue, bornée et telle que I]−∞,t−∗ ] ≤ h∗ ≤ I]−∞,t] .
Ainsi
En faisant tendre ∗ vers 0, on obtient FX (t) = FX (t− ) ≤ lim inf n→∞ FXn (t). Nous avons donc montré que,
FX (t) ≤ lim inf FXn (t) ≤ lim sup FXn (t) ≤ FX (t).
n→∞ n→∞
73
5.1 Modes de convergence A. Zoglat
L
Les fonctions h et h∗ qui nous ont servi pour montrer que Xn −−−→ X sont uniformément continues et
n→∞
bornées. Nous avons donc montré le corollaire suivant :
Corollaire 2.
L
Xn −−−→ X ⇐⇒ E[f (Xn )] −→ E[f (Xn )] pour toute fonction f uniformément continue et bornée.
n→∞
L L
a- Xn + Yn −−−→ X + c b- Yn Xn −−−→ cX
n→∞ n→∞
Démonstration.
a− D'après le Corollaire 2 il sut de montrer que, pour toute fonction f uniformément continue et bornée,
E[f (Xn + Yn )] −→ E[f (X + c)]. Soit > 0, il existe δ>0 tel que |x − y| < δ =⇒ |f (x) − f (y)| < . Posons
b− Soit f une fonction uniformément continue et bornée. Ainsi pour > 0, il existe δ < 0 tel que
74
A. Zoglat 5.2 Lois des grands nombres
Théorème 5.2.1. [Loi faible des Grands Nombres (LGN)] Soit (Xn )n une suite de v.a. indépendantes, de même
∞
1 X P
X= Xk −−−→ µ
n n→∞
n=1
Proposition 25. [Inégalité de Chebyshev] Soit X une v.a. de moyenne µ et de variance σ2. Alors pour tout
t > 0,
σ2
P{|X − µ| > t} ≤ .
t2
Démonstration. Nous allons démontrer ce résultat dans le cas d'une v.a. continue, le cas discret peut être
∞
(x − µ)2 (x − µ)2 σ2
Z Z Z
P{|X − µ| > t} = fX (x) dx ≤ fX (x) dx ≤ f (x) dx = .
A A t2 −∞ t2 X
t2
S
Démonstration. Supposons que Var(X) = 0 et que P{X = µ} < 1. Comme {X = µ} = t>0 {|X − µ| > t},
il existerait alors t>0 tel que P{|X − µ| ≥ t} > 0, ce qui est absurde d'après l'inégalité de Chebyshev.
σ2
Démonstration. [du Théorème] Nous avons E[X] = µ, et Var(X) = . D'après l'inégalité de Chebyshev,
n
σ2
on a ∀ > 0, P{|X − µ| > } ≤ . En passant à la limite sur n on a le résultat.
2 n
Exemple 5.2.1. Dans une partie de Pile ou Face, on note Xi ième lancer : Xi = 1 si
le résultat du
X1 + X2 + . . . + Xn
on obtient Pile et 0 sinon. Soit p la probabilité d'obtenir Pile. La v.a. X = , qui
n
représente la fréquence d'apparitions de Pile, converge en probabilité vers p. Nous allons montrer qu'en
75
5.2 Lois des grands nombres A. Zoglat
p.s.
h 4 i
fait, X −−−→ p. Pour cela nous avons besoin de calculer E X1 + X2 + . . . + Xn − np . Remarquons que
n→∞
n
4 X X
(X1 + X2 + . . . + Xn − np = (Xi − p)4 + 4 (Xi − p)3 (Xj − p)
i=1 {i,j}⊂{1,...,n}
X
+3 (Xi − p)2 (Xj − p)2
{i,j}⊂{1,...,n}
X
+6 (Xi − p)(Xj − p)(Xk − p)2
{i,j,k}⊂{1,...,n}
X
+ (Xi − p)(Xj − p)(Xk − p)(Xl − p).
{i,j,k,l}⊂{1,...,n}
h 4 i h 4 i 2
E X1 + X2 + . . . + Xn − np = nE X1 − p + 3n(n − 1) Var(X1 ) .
On en déduit que
n X + . . . + X o X n X1 + . . . + Xk o 1
1 k
X
lim P sup − p > ≤ lim − p > ≤ lim C() 2 = 0.
P
n→∞ k≥n k n→∞ k n→∞ k
k≥n k≥n
Les arguments utilisés dans cet exemple montrent que si (Xn )n est une suite de v.a. indépendantes et de
même loi de moyenne µ et ayant un moment d'ordre quatre ni, i.e. E[X14 ] < ∞, alors
X1 + . . . + Xn p.s.
−−−→ µ.
n n→∞
Proposition 26. [Loi Forte des Grands Nombres (LFGN)] Soit (Xn )n une suite de v.a. indépendantes et de
X1 + . . . + Xn p.s.
−−−→ E[X1 ].
n n→∞
76
A. Zoglat 5.3 Fonction génératrice et fonction caractéristique
Exemple 5.2.2. [Méthode de Monte-Carlo] Supposons que l'on cherche une valeur approximative de
Z 1
I(f ) = f (x) dx,
0
lorsque f est une fonction telle que I(f ) ne peut être calculée par les techniques d'intégration. La fonction
2 /2
x 7−→ e−x est un exemple d'une telle situation. On génère une suite (Xn )n de v.a. indépendante et de
n
1X
f (X) = f (Xk ).
n
k=1
h i
D'après la LFGN, pour n assez grand, f (X) est une bonne approximation de E f (X1 ) = I(f ).
Exemple 5.2.3. La durée de vie d'une lampe électrique de marque M, est une v.a. X de moyenne µ et
de variance σ2 inconnues. Pour avoir une valeur approximative de µ, on allume n lampes de marque M
dépend aussi de la variance des durées de vie σ2. En eet, d'après l'inégalité de Chebyshev, on a
1 2 σ2
P{|X − µ| > } ≤ E[(X − µ) ] = .
2 n2 2
n
1 X 2 p.s. p.s.
Xi −−−→ E[X 2 ], et (X)2 −−−→ µ2 .
n n→∞ n→∞
i=1
D'où
n n
1X 2 2 1X p.s.
Xi − X = (Xi − X)2 −−−→ E[X 2 ] − µ2 = σ 2
n n n→∞
i=1 i=1
Au paragraphe suivant nous présentons des outils précieux qui permettent, entre autres, d'identier la lois
de probabilité d'une v. a.
Dénition 5.3.1. On appelle fonction génératrice (fg) de la v.a. X , et on note gX , la fonction dénie sur
R par
gX (t) = E etX .
∀t ∈ R
77
5.3 Fonction génératrice et fonction caractéristique A. Zoglat
Z
gX (t) = etx fX (x) dx.
R
Remarque. La fg d'une v.a. peut prendre la valeur ∞ dans certains cas. Mais elle est nie sur tout sous
ensemble borné de R.
La proposition suivante est un premier résultat montrant l'utilité de la fg. Sa démonstration fait appel
aux propriétés de la transformé de Laplace qui ne rentre pas dans le cadre de ce cours. Elle sera alors admise.
Proposition 27. S'il existe un voisinage de 0 sur lequel gX ≡ gY , alors les v.a. X et Y ont la même loi de
probabilité, i.e. PX ≡ PY .
La fg peut également servir pour calculer les diérents moments d'une v.a.
Démonstration. [Cas continu] La fonction gX existe et est ni dans tout voisinage de 0 borné. Il est
Z ∞ Z ∞
0 d tx d tx
gX (t) = e fX (x) dx= e fX (x) dx
dt −∞ −∞ dt
D'où
Z ∞
0
gX (t)= xetx fX (x) dx.
−∞
En prenant t = 0, on a le résultat.
Exemples
a- Soit X ∼ Poisson(λ), calculons sa fg.
∞ ∞
X λk −λ X (et λ)k −λ t t
gX (t) = etk
e = e = e−λ eλe = eλ(e −1) .
k! k!
k=0 k=0
En dérivant on obtient,
78
A. Zoglat 5.3 Fonction génératrice et fonction caractéristique
∞ ∞
β α xα−1 −βx βα
Z Z
gY (t) = etx e dx = xα−1 ex(t−β) dx.
0 Γ(α) Γ(α) 0
βα Γ(α) β α
gY (t) = = .
Γ(α) (β − t)α β−t
En dérivant on obtient
α α(α + 1) α(α + 1) α 2 α
gY0 (0) = E[Y ] = , et gY00 (0) = E[Y 2 ] = , d'où Var(Y ) = − = 2.
β β2 β 2 β β
Z ∞
1 2 /2
gZ (t) = √ etx e−x dx.
2π −∞
Remarquons que cette intégrale est convergente pour tout t∈R et que
x2 1 t2 1 t2
− tx = (x2 − 2tx + t2 ) − = (x − t)2 − .
2 2 2 2 2
D'où, 2 ∞
et /2
Z
2 /2 2 /2
gZ (t) = √ e−(x−t) dx = et .
2π −∞
les résultats suivants sont des propriétés de la fg qui découlent directement de la dénition.
t2 σ 2
Exemple 5.3.1. Soit X ∼ N (µ, σ 2 ), alors gX (t) = eµt gZ (t σ) = eµt− 2 .
Proposition 30. Si X et Y sont deux v.a. indépendantes alors, lorsque les fg existent,
Ce résultat, combiné avec la Proposition 27, permet de montrer par exemple que
79
5.3 Fonction génératrice et fonction caractéristique A. Zoglat
L'inconvénient majeur de la fg est qu'elle peut être innie. Il existe une fonction équivalente à la fg et
Dénition 5.3.2. La fonction caractéristique (fc) d'une v.a. X, notée ϕX , est donnée par
Proposition 31. S'il existe un voisinage de 0 sur lequel ϕX ≡ ϕY , alors les v.a. X et Y ont la même loi de
probabilité, i.e. PX ≡ PY .
En fait nous avons la formule d'inversion de la transformée de Fourier permettant d'obtenir la loi de X
connaissant sa fc :
Théorème.
R∞
Si
−∞ |ϕX (t)| dt <∞ alors X admet une fdp fX donnée par
Z ∞
1
fX (x) = ϕX (t) e−i t x dt.
2π −∞
Sinon, on a toujours
T
e−i t a − e−i t b
Z
1
∀a, b ∈ R, FX (b) − FX (a) = lim ϕX (t) dt.
T →∞ 2π −T it
La démonstration de ce résultat est très technique et ne fait pas partie des objectifs de ce cours. Ce théorème
Remarque.
1- Comme |ei t X | ≤ 1, la fc est toujours nie.
3- Pour tout a, b ∈ R,
ϕaX+b (t) = eibt ϕX (at).
80
A. Zoglat 5.4 Le théorème central limite (TCL)
L
Xn −−−→ X ⇐⇒ ∀t ∈ R, ϕXn (t) −−−→ ϕX (t).
n→∞ n→∞
Exemples
a- Soit X ∼ Bernoulli(p), alors
totalement connue. Il est parfois possible de faire cela si l'on dispose d'une suite qui converge en loi vers X.
Sn − E[Sn ] √ X − µ L
p = n −−−→ Z ∼ N (0, 1).
Var(Sn ) σ n→∞
En d'autres termes,
n√ X − µ o
∀x ∈ R, lim P n ≤ x = P{Z ≤ x}.
n→∞ σ
81
5.4 Le théorème central limite (TCL) A. Zoglat
Démonstration. D'après le Théorème 5.3.1, il sut de montrer que la suite de fonctions ϕ√ X−µ
converge
n σ n
simplement vers ϕZ (t).
Sans perdre de généralité, quitte remplacer Xi par Xi − µ, on peut supposer que les v.a. sont centrées,
t t n
ϕ√ (t) = ϕSn ( √ ) = ϕX1 ( √ ) , par indépendance.
X−µ
n σ σ n σ n
u2 00
ϕX1 (u) = 1 + u ϕX0 (0) + ϕ (0) + ◦(u2 ).
1 2! X1
t n t2 t2 n 2
ϕX1 ( √ ) = 1 − + ◦( 2 ) −−−→ e−t /2 = ϕZ (t).
σ n n σ n n→∞
Remarque. Sous les hypothèses du Théorème 5.4.1, le TCL conduit souvent à faire, pour n assez grand,
l'approximation suivante :
n√ X − µ √ x − µ o n √ x − µo
∀x ∈ R, P{X1 + . . . + Xn ≤ x} = P n ≤ n 'P Z≤ n .
σ σ σ
En pratique on considère souvent que n est assez grand dès que n ≥ 30.
Exemple 5.4.1. Soit X une v.a. qui suit une loi B inômiale(n, p). Nous savons que X peut s'écrire comme
82