Cours M233 Complet MoumniMohammed
Cours M233 Complet MoumniMohammed
Cours M233 Complet MoumniMohammed
M. M OUMNI
D ÉPARTEMENT DE M ATHÉMATIQUES
FACULTÉ DES S CIENCES ET T ECHNIQUES
E RRACHIDIA
1 Dénombrement 7
1.1 Notions sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Ensemble fini - Ensemble infini dénombrable . . . . . . . . . . . . . . . . . . . 7
1.1.2 Propriétés des cardinaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 p-listes d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 p-listes d’un ensemble à n éléments . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Représentation sous forme d’un arbre pour dénombrer des choix ordonnés . . . . 9
1.2.3 p-listes d’éléments distincts de E . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3 Parties d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1 Combinaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2 Dénombrement de P(E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3 Variables aléatoires 21
3.1 Variables aléatoires discrètes finies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.1 Espérance, variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.2 Couple de variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . 26
3.1.3 Covariance et moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.1.4 Indépendance de deux variables aléatoires . . . . . . . . . . . . . . . . . . . . . 28
3.1.5 Exemples d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5 Statistiques doubles 55
5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.1.1 Données non groupées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.1.2 Données groupées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.2 Tableaux de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.2.1 Données non groupées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.2.2 Données groupées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.3 Ajustement - Méthode des moindres carrés . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.3.1 Première droite des moindres carrés . . . . . . . . . . . . . . . . . . . . . . . . 59
5.3.2 Deuxième droite des moindres carrés . . . . . . . . . . . . . . . . . . . . . . . 59
5.3.3 Ajustement et corrélation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.4 Exemple d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
Dénombrement
Exemple 1.1 N est équipotent à N∗ car l’application f : N → N∗ défini par f (n) = n + 1 est une
bijection.
Définition 1.2 Soit E un ensemble non vide. E est dit fini si et seulement si il existe un entier naturel
unique non nul n tel que E est équipotent à J1, nK.
Définition 1.3 Soit E un ensemble fini non vide. Soit n l’unique entier naturel non nul tel que E est
équipoten [1, nK. L’entier n s’appelle le cardinal de E (ou plus simplement le nombre d’éléments de E
). Il se note card(E).
Proposition 1.1 Soit E un ensemble. Card E = n si et seulement si les éléments de E peuvent être notés
e1 , e2 , . . . , en , où les ek sont deux à deux distincts.
Dénombrer un ensemble fini non vide E, c’est déterminer le cardinal de E, c’est-à-dire le nombre de
ses éléments.
Définition 1.4 On dit que l’ensemble E est infini dénombrable s’il est équipotent à N. Les éléments de
E peuvent être notés e0 , e1 , . . . , en , . . . où les ek sont deux à deux distincts.
En particulier, si E est un ensemble fini et n un entier naturel non nul, En est fini et
Remarque 1.2
Exemple 1.5 Combien de numéros de téléphones longs de 9 chiffres peut-on faire avec les chiffres de 0
à 9?
Réponse. Chaque numéro de téléphone est une p-liste de 9 chiffres pris parmi 10 chiffres (il faut faire
attention au fait qu’il y a 10 chiffres, et non pas 9, de 0 à 9). Est-ce que l’ordre compte lors de la
composition d’un numéro ? Oui. Peut-on retrouver plusieurs fois le même chiffre dans la composition
d’un numéro ? Oui, il faut alors calculer le nombre de p-listes. On doit “prendre" 9 chiffres parmi 10
chiffres, d’où n = 10 et p = 9. Donc le nombre de numéros de téléphone est de 109 .
Remarque 1.3 On utilise les p-listes en cas de choix successifs de p éléments d’un ensemble, avec
éventuelles répétitions.
Remarque 1.4
Théorème 1.2 Soit E un ensemble fini de cardinal n. Soit p 6 n. Alors le nombre de p -arrangements
Apn de l’ensemble E est égal ȧ
n!
Apn = n(n − 1)(n − 2) · · · (n − p + 1)] =
(n − p)!
Démonstration 1.2 Pour dénombrer les p -uplets (x1 , . . . , xp ) de E p dont les éléments sont distincts
deux à deux, :
— on commence par choisir x1 parmi les n éléments de E
— puis on choisit x2 parmi les n − 1 éléments de E distincts de x1
— puis on choisit x3 parmi les n − 2 éléments de E distincts de x1 et x2
— ...
— puis on choisit xp parmi les n − p + 1 éléments de E distincts de x1 , x2 , . . . , xp−1 .
Il y a donc bien n(n − 1)(n − 2) · · · (n − p + 1)p -arrangements de E.
Remarque 1.5 On utilise les arrangements en cas de choix succesifs de p éléments pris parmi n, sans
répétition
Exemple 1.7 A l’occasion d’une compétition sportive groupant 18 athlètes, on attribue une médaille
d’or, une d’argent, une de bronze. Combien y-a-t-il de distributions possibles ?
Réponse. Un tel podium est un arrangement de 3 athlètes choisis parmi l’ensemble de 18 athlètes (l’ordre
compte et il ne peut pas y avoir de répétition, un athlète ne pouvant remporter deux médailles simultané-
ment). Il existe donc
18! 18!
A318 = = = 18 × 17 × 16 = 4896 podiums différents.
(18 − 3)! 15!
Réponse. Soit E l’ensemble des caractères disponibles. Une possibilité revient à choisir, dans un ordre
précis, 7 caractères parmi 12. Compte tenu de la notion d’ordre, une possibilité correspond donc à un
arrangement de 7 éléments parmi 12. Le nombre de possibilités est donné par
12!
A712 = = 12 × 11 × 10 × 9 × 8 × 7 × 6 = 3991680.
(12 − 7)!
L’ordinateur doit donc tester au maximum 3991680 possibilités pour décoder le mot de passe.
Définition 1.7 Soit E un ensemble à n éléments. Un n-arrangement de E est appelé une permutation
de E. Une permutation est donc un n-uplet constitué, dans un certain ordre, des n éléments de E.
Remarque 1.6 On utilise les permutations dans les cas où on veut ordonner tous les éléments d’un
ensemble sans répétition.
1.3.1 Combinaisons
Définition 1.8 Soit E un ensemble fini à n éléments. On appelle combinaison de p éléments de E,
toute partie à p éléments de E.
Remarque 1.7 Les éléments d’une combinaison de p éléments de E sont deux à deux distincts, donc
0 ≤ p ≤ Card E.
L’ordre des éléments d’une combinaison n’a pas d’importance.
Théorème 1.4 Soit E un ensemble à n éléments. On note Cnp le nombre de combinaisons de p éléments
de E. On a
Apn n!
Cnp = = .
p! p!(n − p)!
Démonstration 1.3 Il suffit de montrer que : Apn = p!Cnp . Deux p-arrangements d’éléments de E =
{x1 , x2 , . . . , xn } ont le même support si ils sont formés des mêmes elements mais pas nécessairement
dans le même ordre. On peut alors ranger tous les p-arrangements en catégories en mettant ensemble
tous ceux qui ont le même support. On remarque alors que le nombre de catégories est Cnp et que chaque
catégorie comporte p! arrangements.
n=0: 1
n=1: 1 1
n=2: 1 2 1
n=3: 1 3 3 1
n=4: 1 4 6 4 1
Démonstration 1.4 Notons pour tout k ∈ J0, nK, Ek l’ensemble des parties de E à k éléments. Alors, la
famille (E0 , E1 , . . . , En ) est une partition de P(E). De plus, on sait que pour tout k ∈ J0, nK, Card (Ek ) =
Cnp . Ainsi Card(P(E)) = nk=0 Card (Ek ) = nk=0 Cnp = nk=0 Cnp 1k 1n−k = (1 + 1)n = 2n .
P P P
Exemple 1.10 Soit A l’ensemble des nombres à 6 chiffres ne comportant aucun 0. Déterminer les car-
dinaux des ensembles suivants :
1. A,
2. A1 , ensemble des nombres de A ayant 6 chiffres différents,
3. A2 , ensemble des nombres pairs de A,
4. A3 , ensemble des nombres de A dont les chiffres forment une suite strictement croissante (dans
l’ordre où ils sont écrits).
Réponse.
1. Un élément de A est une 6-liste d’éléments de E = {1, 2, 3, 4, 5, 6, 7, 8, 9}. On a Card E = 9
donc Card A = 96 .
9!
2. Un élément de A1 est un arrangement de 6 éléments de E, donc Card A1 = A69 = .
3!
3. Un élément de A est pair si et seulement si son chiffre des unités est 2, 4, 6 ou 8. Il y a 4 façons
de choisir un tel chiffre pair pour chacune d’elles, 95 façons de choisir la 5-liste des 5 premiers
chiffres donc Card A2 = 4 × 95 .
4. Il y a C96 façons de choisir les 6 chiffres d’un nombre de A3 , puis pour chacune d’elles, 1 façon
de les écrire dans l’ordre croissant, donc Card A3 = C96 .
2.1 Introduction
Le but de la théorie des probabilités est de fournir un modèle mathématique dans lequel on puisse parler
sans ambiguïté de “la probabilité qu’un événement A donné se réalise” lors du déroulement de l’expé-
rience E à résultat aléatoire ou de “la probabilité qu’une variable X dont la valeur dépend du résultat de
E prenne sa valeur dans un domaine donné”.
Définition 2.1 On note Ω l’ensemble de toutes les éventualités, ou résultats possibles d’une expérience
aléatoire E. On l’appelle univers ou ensemble fondamental.
Définition 2.2 Un événement A est un ensemble d’éventualités possédant la même propriété. Il est donc
représenté par un sous-ensemble A de Ω. Si le résultat d’une expérience est un élément de A, on dit que
l’événement A a été réalisé.
Exemple 2.1 Soit E qui consiste à jeter un dé à 6 faces, alors Ω est l’ensemble de toutes les issues
possibles : Ω = {1, 2, 3, 4, 5, 6}; “le résultat est 1 ou 2” et “le chiffre est un nombre pair” sont des
événements.
Définitions élémentaires
• L’ensemble vide ∅ est appelé événement impossible, puisqu’aucun élément de ∅ ne peut être
réalisé.
• L’ensemble des cas possibles Ω est appelé événement certain.
• Un événement ne comportant qu’un seul résultat possible est appelé événement élémentaire.
• L’événement A complémentaire de A dans Ω, est appelé événement contraire de A.
Étant donnés deux événements A et B, on définit :
Définition 2.3 On appelle probabilité sur l’univers Ω, une application P de P(Ω) sur [0, 1] telle que
1. P (Ω) = 1
2. Pour toute suite {An }n≥1 d’événements de Ω deux à deux incompatibles (i.e ; 2 à 2 disjoints :
Ai ∩ Aj = ∅ si i 6= j), alors
[ X
P( An ) = P (An )
n≥1 n≥1
Conséquences
• ∀A de Ω, 0 ≤ P (A) ≤ 1
• Si A ∩ B = ∅, alors P (A ∪ B) = P (A) + P (B)
n
[
• Si A1 , A2 , · · · , An sont des événements élémentaires et Ai = Ω, alors
i=1
Propriétés élémentaires :
• P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
En effet, A ∪ B = (A\B) ∪ B implique que P (A ∪ B) = P (A\B) + P (B), et A = (A\B) ∪
(A ∩ B) implique que P (A) = P (A\B) + P (A ∩ B).
• P (A) = 1 − P (A).
En effet, Ω = A ∪ A implique P (Ω) = P (A) + P (A) = 1.
• P (∅) = 0.
• Si A ⊂ B, alors P (A) ≤ P (B) (P est une fonction croissante)
• Si A ⊂ B, alors P (B\A) = P (B) − P (A).
Définition 2.5 (probabilité conditionnelle) Soient A et B deux événements tels que P (B) 6= 0. La
probabilité conditionnelle de A sachant B est
P (A ∩ B)
P (A/B) = .
P (B)
On peut écrire également
P (A ∩ B)
P (B/A) = .
P (A)
Théorème 2.1 (formule des probabilités totales) Soit {An }n≥1 un système complet d’événements. Alors,
quelque soit l’événement B, on a
X
P (B) = P (An )P (B/An )
n≥1
Exemple 2.5 Le gérant d’un magasin de matériel informatique a acheté un stock de boîte de disquettes.
5% des boîtes sont abîmées. Le gérant estime que
• 60% des boîtes abîmées contiennent au moins une disquette défectueuse,
• 98% des boîtes en bon état ne contiennent aucune disquette défectueuse,
• les états des diverses boîtes sont indépendants les uns les autres.
Un client achète une des boîtes du lot.
On désigne par A l’événement :“la boîte achetée est abîmée" et par D l’événement :“la boîte achetée
contient au moins une disquette défectueuse".
1. Donner les probabilités P (A), P (A), P (D/A), P (D/A), P (D/A) et P (D/A).
Calculer la probabilité de l’événement D.
2. Le client constate qu’une des disquettes est défectueuse. Quelle est la probabilité qu’il ait acheté
une boîte abîmée.
Réponse.
1. P (A) = 0.05; P (A) = 0.95; P (D/A) = 0.6; P (D/A) = 0.02; P (D/A) = 0.4; P (D/A) =
0.98. L’ensemble {A, A} est un système complet d’événements. On a D = (D ∩ A) ∪ (D ∩ A)
donc P (D) = P (D/A)P (A) + P (D/A)P (A) = 0.6 × 0.05 + 0.02 × 0.95 = 0.049.
P (A∩D) P (D/A)P (A)
2. P (A/D) = P (D) = P (D) = 39 .
Exemple 2.6 Pour se rendre à la faculté, un étudiant a le choix entre quatre itinéraires : A, B, C, D.
1 1 1
La probabilité qu’il a de choisir A (resp. B,C) est (resp. , ).
3 4 12
1 1 1
La probabilité d’arriver en retard en empruntant A (resp. B,C) est (resp. , ). En empruntant D, il
20 10 5
n’est jamais en retard.
1. Quelle est la probabilité que l’étudiant choisisse l’itinéraire D ?
2. L’étudiant arrive en retard. Quelle est la probabilité qu’il ait emprunté l’itinéraire C ?
Réponse.
1
1. P (D) = 1 − P (A) − P (B) − P (C) = 3 car {A, B, C, D} constitue un système complet
d’évenements.
2. Soit R :“l’étudiant arrive en retatrd". On a P (R/A) = 1/20; P (R/B) = 1/10; P (R/C) = 1/5
et P (R/D) = 0. On cherche P (C/R). On a
P (C)P (R/C) 2
P (C/R) = = .
P (A)P (R/A) + P (B)P (R/B) + P (C)P (R/C) + P (D)P (R/D) 7
P (A ∩ B) = P (A)P (B)
P (A ∩ B) = P (A)P (B)
Conséquences
• Si A et B sont indépendants, il en est de même de A et B ; de A et B ; de A et B.
• Tout événement A est indépendant de l’événement certain Ω et de l’événement impossible ∅.
Définition 2.8 Soit une suite (finie ou non) d’événements (An )n∈N . Ces événements sont globalement
indépendants si pour toute famille finie {Ai }i∈I extraite de la suite An on
\ Y
P Ai = P (Ai )
i∈I i∈I
Exemple 2.8 Deux opérateurs de saisie, A et B, entrent respectivement 100 et 200 tableaux sur un
support informatique. Les tableaux de A comportent des fautes dans 5.5% des cas et ceux de B dans
6.7% des cas. On prend un tableau au hasard, il comporte des fautes. Quelle est la probabilité pour que
A se soit occupé de ce tableau ?
Réponse. Soient les événements
TA :“le tableau est entré par A”.
TB = TA :“le tableau est entré par B”.
F :“le tableau comporte des fautes”.
D’après le théorème de Bayes :
1
P (TA )P (F/TA ) × 0.052
P (TA /F ) = = 3
P (TA )P (F/TA ) + P (TB )P (F/TB ) 1 2
× 0.052 + × 0.067
3 3
= 0.279
Variables aléatoires
Souvent, lors d’une expérience aléatoire, on ne s’intéresse pas à l’issue ω de cette épreuve, mais à
une fonction de cette réalisation (notée X(ω)) de cette issue, donnant une valeur numérique...
Définition 3.1 (variable aléatoire) Soit un espace probabilisé (Ω, P(Ω), P ) associé à une expérience
aléatoire. On appelle variable aléatoire réelle (v.a.r), une application X, de Ω dans R ayant la propriété
suivante : Pour tout intervalle I de R, l’ensemble X −1 (I) = {ω ∈ Ω : X(ω) ∈ I} est un événement de
Ω.
Exemple 3.1 Supposons que nous lancions deux fois une pièce de monnaie. L’univers est Ω = {FF, PF,
FP, PP}. Soit alors X le nombre de faces possibles. A chaque point de l’univers, nous pouvons associer
une valeur de X. X est une variable aléatoire.
échantillon FF FP PF PP
valeurs 2 1 1 0
Définition 3.2 Soit un espace probabilisé (Ω, P(Ω), P ) associé à une expérience aléatoire, et soit X
une v.a.r. On appelle loi de probabilite de X, notée PX , l’application qui à toute partie A de R associe
FX : R → [0, 1]
x 7→ FX (x) = P (X ≤ x)
Propriétés
1. FX est croissante et,
lim FX (x) = 0, et lim FX (x) = 1
x→−∞ x→+∞
2. Si a < b,
P (a < X ≤ b) = FX (b) − FX (a).
1. X(Ω) est un sous-ensemble fini de R. On dit alors que X est une variable aléatoire discrète
finie (Section 3.1).
Par exemple : Une urne contient une boule noire et une boule blanche. On tire avec remise deux
boules de cette urne, et on note X le nombre de boules blanches obtenues. X est une variable
aléatoire définie sur Ω = {(b, b), (b, n), (n, b), (n, n)}. X(Ω) = {0, 1, 2}.
2. X(Ω) est un sous-ensemble infini dénombrable de R. On dit que X est une variable aléatoire
discrète infinie (Section 3.2).
Par exemple : On lance un dé cubique jusqu’à ce que l’on obtienne un 6. Soit X le nombre de
lancers effectués. X est une v.a. discrète infinie car X(Ω) = N∗ . (la probabilité de ne jamais
obtenir un 6 est nulle, mais cet événement n’est pas impossible !)
3. X(Ω) est une réunion d’intervalles de R non réduits à un point, et F , fonction de répartition de
X, peut s’écrire sous la forme Z x
F (x) = f (t)dt,
−∞
où f est une fonction à valeurs réelles, positives, ayant un nombre fini de points de discontinuité
R +∞
et telle que −∞ f (t)dt = 1. On dit alors que X est une variable aléatoire continue (Section
3.3).
Définition 3.4 Une v.a.r. X a valeurs dans un ensemble X = {x1 , x2 , x3 , . . . , xn } fini est appelée v.a.r.
discrète finie. Dans ce cas, la loi de X est déterminée par l’ensemble des probabilités :
Exemple 3.2 On s’intéresse à la distribution de probabilités des garçons et des filles dans des familles
de 3 enfants en supposant que les probabilités à la naissance sont égales.
Soit G :“un garçon est né dans la famille” et F :“une fille est née dans la famille”. On a P (F ) = P (G) =
1/2, les probabilités à la naissance sont égales.
On s’intéresse aux familles de 3 enfants. On peut donc avoir les événements (incompatibles) suivants :
xi 0 1 2 3
1 3 3 1
pi
8 8 8 8
Ce tableau représente la loi de probabilité de la variable aléatoire X.
Définition 3.5 (fonction de probabilité) On définit la fonction de probabilité ou densité discrète f (xk )
telle que
1. f (xk ) ≥ 0 ;
X
2. f (xk ) = 1 où la somme est prise sur toutes les valeurs possibles de X.
xk ∈X
Exemple 3.3 Reprenons l’exemple 3.1. En supposant que la pièce n’est pas truquée
1
P (FF) = P (FP) = P (PF) = P (PP) =
4
On écrit
1
P (X = 0) = P (PP) =
4
1 1 1
P (X = 1) = P (PF ∪ FP) = P (PF) + P (FP) = + =
4 4 2
1
P (X = 2) = P (FF) =
4
Exemple 3.4 On reprend l’exemple 3.2. On représente la fonction de répartition F (x) = P (X ≤ x) par
un tableau
x −∞ 0 1 2 3 +∞
1 1 4 4 7 7
F (x) 0 1 1
8 8 8 8 8 8
En effet :
1 1 1
Pour x = − , on a F (− ) = P (X ≤ − ) = 0.
2 2 2
1
Pour x = 0, on a F (0) = P (X ≤ 0) = P (X = 0) = . On fait de même pour les autres valeurs de x.
8
Graphiquement, on obtient une courbe en escalier.
Remarque 3.2 Soit X une v.a. qui prend des valeurs entières positives. Dans les exercices, on est parfois
amené à utiliser les astuces suivantes
P (X = k) = P (X ≥ k) − P (X ≥ k + 1)
= P (X > k − 1) − P (X > k)
= P (X ≤ k) − P (X ≤ k − 1)
= P (X < k + 1) − P (X < k)
k
X +∞
X
P (X ≤ k) = P (X = i), P (X ≥ k) = P (X = i)
i=0 i=k
1 3 3 1 3
E(X) = 0 × +1× +2× +3× = .
8 8 8 8 2
Remarque 3.3 Si on pose Z = X − E(X) alors E(Z) = 0. On dit que Z est une variable aléatoire
centrée.
Définition 3.7 (variance) Soit X une variable aléatoire prenant les valeurs xi , 1 ≤ i ≤ r. On appelle
variance de X (et on note V (X) ou bien σ 2 (X)) la quantité
r
X
V (X) = pi x2i − (E(X))2
i=1
ou bien
r
X
V (X) = pi (xi − E(X))2
i=1
3 3 1 3 3
V (X) = 0 + 12 . + 22 . + 32 . − ( )2 =
8 8 8 2 4
Définition 3.8 (écart-type) Soit X une variable aléatoire prenant les valeurs xi , 1 ≤ i ≤ r. On appelle
écart-type de X et on note σ(X) la racine carrée de la variance.
Propriétés
V (X + k) = V (X)
V (kX) = k 2 V (X)
σ(X + k) = σ(X)
σ(kX) = |k|σ(X)
La variance (ou écart type) est une mesure de dispersion (ou de distribution) des valeurs de la v.a. autour
de la moyenne µ = E(X). Par exemple la répartition des notes d’une classe. Dans ce cas, plus l’écart-
type est faible, plus la classe est homogène. À l’inverse, on peut souhaiter avoir un écart type le plus
large possible pour éviter que les notes soient trop resserrées (exemple classique du professeur qui note
de 8 à 13).
Dans le cas d’une notation de 0 à 20, l’écart type minimum est 0 (si tous les élèves/étudiants ont la même
note), et jusqu’à environ 10 si la moitié a 0/20 et l’autre moitié 20/20.
De même
r
X
p.j = pij = p1j + p2j + · · · + prj = P (Y = yj )
i=1
Les nombres p.1 , p.2 , · · · , p.j , · · · , p.s définissent la loi marginale ou plus simplement la loi de Y .
Les nombres p1. , p2. , · · · , pi. , · · · , pr. définissent la loi marginale de X.
Propriété
X et Y sont indépendants si et seulement si
P (X = 0, Y = 1) 6= P (X = 0)P (Y = 1)
24 36 54
car 6= ×
90 90 90
où
r X
X s
E(XY ) = xi yj pij .
i=1 j=1
Définition 3.11 (moments d’une v.a.) Soit X définie sur (Ω, P(Ω), P ). On appelle moment centré
d’ordre k de X la quantité
r
X
µk = E(X − E(X))k = pi (xi − E(X))k
i=1
xi 0 1 2
1 1 1
pi
4 2 4
x −∞ 0 1 2 +∞
1 1 3 3
F (x) 0 1 1
4 4 4 4
Exemple 3.9 On lance deux dés non pipés à 6 faces. Soit S la somme des chiffres marqués sur la face
supérieure. On décide le jeu suivant :
Si 2 ≤ S ≤ 4, on marque 10 points.
Si 4 < S ≤ 8, on marque 5 points.
Si 8 < S < 10, on marque 2 points.
Si 10 ≤ S ≤ 12, on marque 1 point.
Soit X la v.a., prenant pour valeurs les nombres de points marqués.
1. Définir la loi de probabilité de X par un tableau.
2. Définir sa fonction de répartition par un tableau et la représenter graphiquement.
3. Calculer l’espérance de X.
Réponse. Soit Ω l’univers : Card Ω = 36. Notons dans un tableau à double entrée les valeurs possibles
de S :
HH
H Dé 1
H 1 2 3 4 5 6
Dé 2 HHH
1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12
A l’intersection ligne-colonne, on note la somme S des points marqués.
1. La v.a. X prend les valeurs 1, 2, 5 ou 10.
xi 1 2 5 10
6 4 20 6
pi
36 36 36 36
Exemple de calcul. p1 = P (X = 1). On compte le nombre de fois où S prend les valeurs
10, 11, 12.
2. F (x) = P (X ≤ x)
x −∞ 1 2 5 10 +∞
6 6 10 10 30 30
F (x) 0 1 1
36 36 36 36 36 36
Exemple 3.10 Soit X la v.a. correspondant au nombre de “piles” obtenus en lançant 3 pièces de monnaie
non truquées.
X
1. Quelle est la loi de probabilité de la v.a. Y = ?
3
2. Calculer l’écart type de Y .
Réponse. Déterminons Ω, l’ensemble des résultats possibles. On peut utiliser un arbre de choix.
xi 1 2
yi = 0 1
3 3 3
1 3 3 1
pi
8 8 8 8
1 2 1
p i yi 0
8 8 8
1 4 3
pi yi2 0
24 24 24
On a
1 1 3 2 3 1
P (Y = 0) = ; P (Y = ) = ; P (Y = ) = ; P (Y = 1) = .
8 3 8 3 8 8
4 4
X X 4 1
pi yi2 − (E(Y ))2 ; E(Y ) =
p
2. σ(Y ) = V (Y ) ; V (Y ) = p i yi = = .
8 2
i=1 i=1
r √
8 1 1 1 3
V (Y ) = − ( )2 = ; σ(Y ) = = .
24 2 12 12 6
X E(X) X 1
Remarque. E( )= ; σ( ) = σ(X).
3 3 3 3
Exemple 3.11 Une urne contient 3 boules blanches et 4 boules rouges. On tire successivement 2 boules
de cette urne, dans un premier cas, avec remise, dans un second cas, sans remise.
Soit X la v.a. prenant la valeur 1 si la 1ère boule tirée est blanche, 0 sinon.
Soit Y la v.a. prenant la valeur 1 si la 2ème boule tirée est blanche, 0 sinon.
HH HH
Y Y
HH
0 1 HH
0 1
X H
HH X H
HH
16 12 28 4 2 2 4
0 = 0
49 49 49 7 7 7 7
12 9 21 3 2 1 3
1 = 1
49 49 49 7 7 7 7
4 3 4 3
1 1
7 7 7 7
Dans le cas avec remise, on a
4 3
P (X = 0) = ; P (X = 1) =
7 7
4 3
P (Y = 0) = ; P (Y = 1) =
7 7
Les événements sont indépendants.
Dans le cas sans remise, on constate que les lois marginales sont les mêmes dans les deux cas, alors que
les lois conjointes sont différentes. On conclut que la donnée des lois marginales est insuffisante pour
reconstituer la loi conjointe. Les événements sont dépendants.
Exemple 3.12 Soit X et Y deux v.a réelles telles que Y = X 2 et que la loi de X est donnée par le
tableau
xi −2 −1 0 1 2
1 1 1 1 1
pi
6 4 6 4 6
1. Donner la loi conjointe de X et Y .
2. Déterminer la loi de Y .
3. X et Y sont-elles indépendantes ?
4. Calculer cov(X, Y ). Conclusion ?
Réponse.
1. On a
H
HH X
H −2 −1 0 1 2
Y HH
H
1
0 0 0 0 0
6
1 1
1 0 0 0
4 4
1 1
4 0 0 0
6 6
Y (Ω) = {0, 1, 4}
1
P ({Y = 0}) = P ({X = 0}) =
6
1
P ({Y = 1}) = P ({X = −1}) + P ({X = 1}) =
2
1
P ({Y = 4}) = P ({X = −2}) + P ({X = 2}) =
3
yk 0 1 4
1 1 1
P ({Y = yk })
6 2 3
3. X et Y ne sont pas indépendants car
HH
X
H
HH −2 −1 0 1 2
Y H
H
0 0 0 0 0
1
0 0 0 0 0
6
−2 −1 0 1 2
1 1
1 0 0 0
4 4
−8 −4 0 4 8
1 1
4 0 0 0
6 6
On a
X 1 1 8 8
E(XY ) = xi yj P [{X = xi } ∩ {Y = yj }] = − + − + = 0,
4 4 6 6
i,j
Conclusion. Deux variables dont la covariance est nulle ne sont pas nécessairement indépendantes.
Loi de Bernoulli
Définition 3.12 On dit qu’une variable aléatoire X suit une loi de Bernoulli de paramètre p si
On note X ,→ B(p).
Exemple 3.13 Une urne contient deux boules rouges et trois boules vertes. On tire une boule de l’urne.
La variable aléatoire X = nombre de boules rouges tirées est une variable de Bernoulli. On a
P (X = 1) = 2/5 = p et P (X = 0) = 3/5 = q.
Situations : Plus généralement, on utilisera une variable de Bernoulli lorsqu’on effectue une épreuve qui
n’a que deux issues : le succès ou l’échec. Une telle expérience est alors appelée épreuve de Bernoulli.
On affecte alors 1 à la variable en cas de succès et 0 en cas d’échec.
Loi binômiale
Définition 3.13 Effectuons maintenant n épreuves successives de Bernoulli (chacune donnant lieu à
2 éventualités, l’une appelée succès, avec la probabilité p, l’autre appelée échec, avec la probabilité
q = 1 − p).
Soit X la v.a. correspondant au nombre de succès réalisés parmi les n épreuves. On démontre que
Notation : La loi binômiale est notée B(n, p). On écrit X ,→ B(n, p) pour dire “X suit la loi B(n, p)” .
Situations : La loi binômiale s’applique dans le cas de :
• n répétitions avec n essais identiques, chacun donnant lieu à 2 éventualités.
• examen de n individus atteints ou non d’une maladie.
• nombre de moteurs en panne dans un lot de n moteurs, etc.
Propriétés On démontre que
√
• E(X) = np; V (X) = npq; σ(X) = npq.
• Soit X1 et X2 deux v.a. indépendantes telles que X1 ,→ B(n1 , p) et X2 ,→ B(n2 , p) alors
X1 + X2 ,→ B(n1 + n2 , p).
Exemple 3.14 On lance un dé à 6 faces non pipé. On s’intéresse au fait suivant : “obtenir 6”. On consi-
1 5
dère ce fait comme succès, avec la probabilité , l’échec étant “obtenir 1,2,3,4 ou 5” , donc q = .
6 6
On lance 10 fois ce dé. Soit X la v.a. correspondant au nombre de succès.
Notation : X ,→ P(λ).
Conséquences de la définition
+∞ +∞
X X λk
• P (X = k) = 1 donc e−λ =1
k!
k=0 k=0
X p
• F (p) = P (X ≤ p) = P (X = k) (fonction de répartition)
k=0 √
Propriétés : E(X) = λ; V (X) = λ; σ(X) = λ.
Situations : C’est la loi des petites probabilités ou loi des événements rares (c’est-à-dire des événements
avec une probabilité faible) et sans mémoire, dans un intervalle de temps donné par exemple :
— Le nombre d’atomes désintégrés par unité de temps
— Le nombre de chèques émis sans provision
— Le nombre de fautes d’impression dans les pages d’un livre
— Le nombre de personnes atteintes d’une maladie
Exemple 3.15 Pour une femme ayant eu entre 50 et 52 ans en l’an 2000, le nombre d’enfants, noté X,
suit une loi de Poisson de paramètre inconnu λ. Un échantillon de 1000 de ces femmes donne 135 sans
enfant.
1. Donner une estimation de λ.
2. Estimer la proportion de ces femmes ayant plus de trois enfants.
Réponse.
1. Si on admet que l’échantillon est représentatif de la population, on a P (X = 0) = e−λ ' 0.135
ce qui donne λ = − ln(0.135) ' 2.
λ2 λ3
2. P (X > 3) = 1 − P (X ≤ 3) = 1 − e−λ (1 + λ + 2 + 6 ) ' 0.145.
Conclusion. Parmi les femmes qui ont eu entre 50 et 52 ans en l’an 2000, il y en a donc environ
145 sur 1000 qui ont plus de 3 enfants.
Définition 3.15 (densité de probabilité) Soit f une fonction réelle. On dit que f est une densité de
probabilité si et seulement si
• f est continue sur R privé éventuellement d’un nombre fini de points
• Z
∀x ∈ R, f (x) ≥ 0
+∞
• f (x) dx = 1
−∞
Définition 3.16 (variable aléatoire continue) On dit que X est une v.a. continue s’il existe une fonction
densité de probabilité f telle que la fonction de répartition de X soit définie pour tout x réel par
Z x
P (X ≤ x) = F (x) = f (x) dx
−∞
Définition 3.17 (fonction de répartition) La fonction F est dite fonction de répartition de la v.a. X.
Rx
Exemple 3.17 Reprenons l’exemple précédent. Par définition, on a ∀x ∈ R, F (x) = −∞ f (t) dt donc
∀x ∈] − ∞, 0], F (x) = 0.
Z 0 Z x
π
∀x ∈]0, ], F (x) = 0 dt + cos t dt = sin x.
2 −∞ 0
Z 0 Z π Z x
π 2
∀x ∈] , +∞], F (x) = 0 dt + cos t dt + 0 dt = 1.
2 −∞ 0 π
2
Z b
P (a < X ≤ b) = f (t) dt
a
donc
∀b ∈ R, P (X = b) = 0.
Donc on écrira indifféremment P (X ≤ a) ou P (X < a), ces deux quantités étant égales.
Exemple 3.18 On reprend l’exemple 3.16. Soit X une variable aléatoire admettant f comme densité.
On a
π
Z +∞ Z
2
E(X) = xf (x) dx = x cos x dx
−∞ 0
π
E(X) = − 1.
2
Loi uniforme
Définition 3.18 Une v.a. continue X est dite uniforme sur un intervalle [a, b](a < b) de R si elle admet
une densité de probabilité f définie par
0 si x < a
1
f (x) = si a ≤ x ≤ b
b − a
0 si x > b
On note X ,→ U([a, b]). On lit X suit une loi uniforme sur l’intervalle [a, b].
Proposition 3.1 On a
a+b (b − a)2
E(X) = et V (X) =
2 12
Loi exponentielle
Loi normale
Définition 3.20 La loi normale (ou de Laplace-Gauss), de moyenne m, de variance σ 2 , est définie sur R
par une fonction f (x), appelée fonction densité de probabilité
(x − m)2
1 −
m ∈ R, σ ∈ R∗+ , f (x) = √ e 2σ 2
σ 2π
Z a
(x − m)2
1 −
P (X ≤ a) = F (a) = √ e 2σ 2 dx
−∞ σ 2π
Remarque 3.7 La courbe représentative de la distribution d’une loi N µ, σ 2 est une courbe en cloche
qui admet la droite d’équation x = µ comme axe de symétrie. Elle est plus ou moins " étirée selon les
valeurs de σ
ϕ(−u) = ϕ(u)
Soit u > 0. Calcul de φ(−u) : les deux parties hachurées sont égales
φ(−u) = 1 − φ(u)
• Changement de variable : on peut passer d’une loi N (m, σ 2 ) à une loi N (0, 1) par le changement
X −m
de variable T =
σ
X ,→ N (m, σ 2 ) ⇔ T ,→ N (0, 1)
Exemple 3.20 On s’intéresse au poids moyen d’un nouveau-né. On suppose que ce poids suit une loi
normale de moyenne 3.1 kg et d’écart-type 0.5 kg.
3. Quelle est la probabilité que son poids soit compris entre 2.9 kg et 3.5 kg ?
3. On a
Exemple 3.21 Dans une chaîne de fabrication, 2% des objets sont défectueux. On prélève une pièce,
on l’examine, et on la replace dans la chaîne. On répète 100 fois cette expérience. Considérons comme
“succès” : la pièce est défectueuse donc p = 0.02. Considérons comme “échec” : la pièce n’est pas
défectueuse donc q = 1 − p = 0.98.
Remarque 3.8 On peut utiliser cette approximation pour p voisin de 1 car alors q ' 0, on considère
λ0 = nq.
Exemple 3.22 On suppose qu’une urne contient 1 boule blanche et 99 boules noires. On effectue n
tirages successifs d’une boule avec remise. Déterminer n pour que la probabilité de tirer au moins une
fois la boule blanche soit supérieure ou égale à 0.95.
Réponse. Soit X la v.a. du nombre de fois où on tire la boule blanche au cours de n tirages. X ,→
B(n; 0.01) alors
P (X ≥ 1) = 1 − P (X = 0) = 1 − (0.99)n .
ln(0.05)
Si on veut que P (X ≥ 1) ≥ 0.95, il faut (0.99)n ≤ 0.05 ce qui veut dire que n ≥ ln(0.99) c’est-à-dire
n ≥ 298.1 or n est entier alors n ≥ 299. Il faut donc effectuer 299 tirages au moins pour être sûr, à 95%,
d’avoir au moins une boule blanche.
Remarque. Calcul approché. On a n est grand et p faible. On essaye d’approcher X par une loi de Poisson
n
n
de paramètre np = 100 . On a P (X ≥ 1) = 1 − P (X = 0) = 1 − e 100 . Pour avoir P (X ≥ 1) ≥ 0.95, il
n
faut que e− 100 ≤ 0.05 c’est-à-dire n ≥ −100 ln(0.05) ' 299.6. On conclut que n ≥ 300.
L’approximation de Poisson n’est pas valable car n est grand mais ni p, ni q ne sont proches de 0.
Les calculs et les méthodes expérimentales ont prouvé que l’on pouvait approcher P (X = k) par f (k), f
étant la fonction de Gauss
(x − m)2
1 −
f (x) = √ e 2σ 2
σ 2π
2 2
avec σ = npq et m = np, ou σ = 125 et m = 250. Alors
(k − 250)2
1 −
P (X = k) ' √ √ e 2σ 2
125 2π
Remarque 3.9 Le résultat est conforme à la propriété des variables aléatoires continues : Si X est une
v.a. continue, P (X = a) = 0. On peut aussi répondre à la question : quelle est la probabilité d’obtenir
X − 250
entre 230 et 270 “faces”. On doit alors déterminer P (230 ≤ X ≤ 270). Soit T = √ .
125
On a
Dans la pratique, la fonction de Laplace-Gauss donne une bonne approximation de la loi binômiale si
0.2 < p < 0.8 et n ≥ 20. Si np et nq sont supérieurs à 10, cette approximation est très bonne.
Réponse.
√
1. Il s’agit d’une loi binômiale B(200, 21 ) ∼ N (np, npq), m = 100, σ 2 = 50, σ = 5 2.
20 20
P (80 ≤ X ≤ 120) = P (− √ ≤ T ≤ √ ) avec T ,→ N (0, 1)
5 2 5 2
√ √ √ √
= P (−2 2 ≤ T ≤ 2 2) = P (T ≤ 2 2) − P (T ≤ −2 2)
√ √ √
= P (T ≤ 2 2) − (1 − P (T ≤ 2 2)) = P (T ≤ 2 2) − 1
= 2 × 0.9976 − 1 ' 0.9952.
4.1 Introduction
La statistique est l’étude de la collecte de données, leur analyse, leur traitement, l’interprétation des
résultats et leur présentation afin de rendre les données compréhensibles par tous. C’est à la fois une
science, une méthode et un ensemble de techniques.
L’analyse des données est utilisée pour d’écrire les phénomènes étudiés, faire des prévisions et
prendre des décisions à leur sujet. En cela, la statistique est un outil essentiel pour la compréhension
et la gestion des phénomènes complexes.
Les données étudiées peuvent être de toute nature, ce qui rend la statistique utile dans tous les champs
disciplinaires et explique pourquoi elle est enseignée dans toutes les filières universitaires, de l’économie
à la biologie en passant par la psychologie et bien sur les sciences de l’ingénieur. Le double but de la
statistique est :
• La présentation des données statistiques sous forme de tableaux ou de graphiques, diagrammes
en bâtons, histogrammes, courbe cumulative.
• L’analyse de ces données qui consiste à résumer un tableau à l’aide d’un petit nombre de valeurs
caractéristiques.
— les valeurs caractéristiques de position : mode, médiane, moyenne
— les valeurs caractéristiques de dispersion : variance, écart-type
2−3−3−4−5−6−6−7−7−7−8−8−8−8−8−9−9−9−9−9−9−10−10−11−11−11−13−13−15−16
4.2.2 Fréquence
Définition 4.1 On considère une série statistique X à caractère quantitatif, dont les p valeurs sont
données par x1 , x2 , . . . , xp d’effectifs associés n1 , n2 , . . . , np avec n1 + n2 + . . . + np = N
Exemple 4.1 On peut représenter la série A par un tableau d’effectifs, et le compléter par la distribution
des fréquences :
Notes 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
Eff. 0 1 2 1 1 2 3 5 6 2 3 0 2 0 1 1 0 0 0
Fréq. en % 0 3 7 3 3 7 10 17 20 7 10 0 7 0 3 3 0 0 0
Remarque 4.1 On peut vérifier que la somme des fréquences est égale à 1 (ou à 100 si on les exprime
en pourcentages).
On peut aussi faire un regroupement par classe, ce qui rend l’étude moins précise, mais qui permet
d’avoir une vision plus globale.
Exemple 4.2 Toujours pour la série A, si on regroupe les données par classes d’amplitude 5 points, on
obtient :
X
F (t) = fj
j≤t
4.2.4 Graphiques
Lorsque le caractère étudié est quantitatif et discret, on peut représenter la série statistique étudié
par un diagramme en bâtons : la hauteur de chaque bâton est alors proportionnelle à l’effectif (ou à la
fréquence) associé à chaque valeur.
Exemple 4.3 Voici le diagramme en bâtons représentant la série des notes de la série A :
Lorsque le caractère étudié est quantitatif et continu, et lorsque les modalités sont regroupées en classes,
on peut représenter la série par un histogramme : l’aire de chaque rectangle est alors proportionnelle à
l’effectif (ou à la fréquence) associée à chaque classe. Lorsque les classes ont la même amplitude, c’est
la hauteur qui est proportionnelle à l’effectif.
Définition 4.3 Soit une série statistique à caractère quantitatif, dont les p valeurs sont données par
x1 , x2 , . . . , xp d’effectifs associés n1 , n2 , . . . , np avec n1 + n2 + . . . + np = N. La moyenne de cette
série est le nombre noté x̄ ou bien E(x) qui vaut
p
n1 x1 + n2 x2 + . . . + np xp 1 X
x̄ = = ni xi
n1 + n2 + . . . + np N
i=1
Remarque 4.2 Lorsque la série est regroupée en classes, on calcule la moyenne en prenant pour valeurs
xi le centre de chaque classe ; ce centre est obtenu en faisant la moyenne des deux extrémités de la classe.
254
Exemple 4.5 Dans la série A, la moyenne du contrôle est égale à m̄ = 30 ≈ 8, 47. Dans la série B,
460500
une estimation du salaire moyen est donné par : S̄ = 280 ≈ 1644, 64.
Remarque 4.3 On peut aussi calculer une moyenne à partir de la distribution de fréquences :
p
X
x̄ = f1 x1 + f2 x2 + · · · + fp xp = fi xi
i=1
Propriétés
X = x0 + hu
4.3.2 Médiane
Définition 4.4 Soit une série statistique ordonnée dont les n valeurs sont x1 6 x2 6 x3 6 · · · 6 xn .
La médiane est un nombre M qui permet de diviser cette série en deux sous-groupes de même effectif.
— Si n est impair, M est la valeur de cette série qui est située au milieu, à savoir la valeur dont le
n+1
rang est 2 , notée x n+1 .
2
— Si n est pair, n est le centre l’intervalle médian, qui est l’intervalle formé par les deux nombres
situés « au milieu ” de la série, à savoir x n2 et x n2 + 1.
Notes 01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19
Eff. 0 1 2 1 1 2 3 5 6 2 3 0 2 0 1 1 0 0 0
ECC. 0 1 3 4 5 7 10 15 21 23 26 26 28 28 29 30 30 30 30
• Ensuite, l’effectif étant de 30, on chosit la moyenne entre la 15i ème et la 16i ème note. On obtient
8+9
M ed = 2 = 8, 5
• Ce qui signifie que la moitié des notes est inférieure ou égale à 8, 5, et que l’autre moitié des
notes est supérieure ou égale à 8, 5.
Dans le cas de répartition par classes, la médiane peut être évaluée soit graphiquement, soit par interpo-
lation affine à l’aide d’un polygône des effectifs cumulés.
M −5 50−13 M −5 37 37 470
10−5 = 70−13 ⇐⇒ 5 = 57 ⇐⇒ M = 5 × 57 +5= 57 ≈ 8, 25
4.4.1 L’étendue
Il s’agit de la première mesure de la dispersion d’une série statistique. Son principal mérite a long-
temps été d’exister, et de fournir une information sur la dispersion très simple à obtenir.
Définition 4.6 Soit X une série statistique discrète. On appelle étendue de la série le réel, défini par
4.4.2 La variance
Définition 4.7 La variance d’une série statistique est le nombre noté V (x) obtenu comme moyenne des
carrés des écarts constatés par rapport à la moyenne de la sírie :
p
n1 (x1 − x̄)2 + n2 (x2 − x̄)2 + . . . + np (xp − x̄)2 1 X
V (X) = = ni (xi − x̄)2
n1 + n2 + . . . + np N
i=1
4.4.3 L’écart-type
Définition 4.8
p
σ(X) = V (X)
√
Exemple 4.11 L’écart-type de la série B vaut : σ(X) = 109561 = 331.
Proposition 4.2
V (X) = h2 V (U ).
Statistiques doubles
Soit une population Ω d’effectif total N et dont chaque élément présente deux caractères X et Y .
5.1 Définition
On appelle série statistique double de Ω pour les caractères X et Y l’application qui à chaque élément
de Ω associe le couple (xi , yj ) où xi sont les valeurs du caractère X et yj les valeurs du caractère Y .
Les résultats de cette observation peuvent être présentées sous deux formes
Individu 1 2 3 ··· N
Valeur de X x1 x2 x3 ··· xN
Valeur de Y y1 y2 y3 ··· yN
x1 , x2 , x3 , . . . xr
Les modalités de X et Y étant respectivement
y1 , y2 , y3 , . . . ys
nij est l’effectif des individus présentant simultanément les modalités xi et yj .
HH
Y
H
HH y1 y2 ys Totaux
X H
H
x1 n11 n12 n1s n1.
x2 n21 n22 n2s n2.
Pour la représentation graphique, le nuage est constitué de petits disques de surfaces proportionnelles
aux effectifs.
xi yi x2i yi2 x i yi
x1 y1 x21 y12 x 1 y1
x2 y2 x22 y22 x 2 y2
.. ..
. . x2N 2
yN x N yN
N
X N
X N
X N
X N
X
xi yi x2i yi2 x i yi
i=1 i=1 i=1 i=1 i=1
Calculs :
Moyennes :
N N
1 X 1 X
x= xi ; y = yi
N N
i=1 i=1
Variances :
N
1 X 2 p
V (X) = xi − x2 ; σ(X) = V (X)
N
i=1
N
1 X 2 p
V (Y ) = yi − y 2 ; σ(Y ) = V (Y )
N
i=1
N
1 X
σXY = cov(X, Y ) = xi yi − x y( pour le calcul)
N
i=1
Propriétés :
aa0
|ρ(X, Y )| ≤ 1; ρ(aX + b, a0 Y + b0 ) = ρ(X, Y )
|aa0 |
La corrélation est forte lorsque 0.87 ≤ ρ ≤ 1.
Définitions
Effectifs marginaux La somme des effectifs partiels contenus dans la ligne de xi est égale à l’ef-
fectif des éléments dont la valeur du caractère X est xi . Elle est notée ni. .
s
X
ni. = ni1 + ni2 + . . . + nij + . . . + nis = nij
j=1
Fréquences marginales
fi. fréquence marginale de xi
ni.
fi. = ni. effectif partiel marginal de xi
N
N effectif total
f.j fréquence marginale de yj
n.j
f.j = n effectif partiel marginal de yj
N .j
N effectif total
r
X s
X r X
X s
1= fi. = f.j = fij
i=1 j=1 i=1 j=1
Fréquences conditionnelles
fi/j fréquence conditionnelle de xi sachant yj
nij fij
fi/j = = nij effectif correspondant partiel à X = xi et Y = yj
n.j f.j
n.j effectif partiel marginal de yj
Indépendance Les variables X et Y sont indépendantes si et seulement si, quel que soit le couple
(i, j)
fij = fi. × f.j
Calculs :
Moyennes :
r s
1 X 1 X
x= ni. xi ; y = n.j yj
N N
i=1 j=1
On démontre que la somme des carrés des distances est minimale pour
cov(X, Y ) σXY
a= = et b = y − ax
V (X) (σ(X))2
La droite d’équation y − y = a(x − x) ou y = ax + b s’appelle droite de régression de y en x et est
notée Dy/x .
Remarque 5.1 La droite de régression fournit une idée schématique, mais souvent très utile, de la re-
lation entre les deux variables. En particulier, elle permet facilement d’apprécier comment évolue l’une
des variables (le critère) en fonction de l’autre (le prédicteur).
δij = xi − a0 yj − b0
cov(X, Y ) σXY
a0 = = et b0 = x − a0 y
V (Y ) (σ(Y ))2
Relation aa0 = ρ2 On a
cov(X, Y ) cov(X, Y )
a= ; a0 =
V (X) V (Y )
d’où
[cov(X, Y )]2
aa0 = = ρ2
V (X)V (Y )
Forte corrélation La corrélation est forte si 0.87 ≤ ρ ≤ 1 ce qui justifie un ajustement linéaire.
Corrélation nulle Dans le cas où ρ = 0, on dit qu’il y a corrélation nulle entre X et Y , ce qui
n’exclut pas que l’on puisse ajuster X et Y par une courbe.
xi 5.5 9.7 8.7 11.8 19.0 5.9 9.5 17.3 13.3 11.0
yi 8.5 13.2 8.7 11.1 3.8 6.5 7.4 5.6 6.5 5.9
18.0 7.8 1.5 1.3 1.8 12.0 2.7 15.4 12.9 6.2
6.7 4.9 0.8 7.4 18.1 4.7 10.2 17.8 11.2 9.0
On a
n = 20
x = 9.57, Vx = 28.90, σ(X) = 5.38
y = 8.40, Vy = 17.70, σ(Y ) = 4.22
σXY = −1.79, ρ = −0.08
Dy/x : y = ax + b, a = −0.06, b = 8.99
Dx/y : y = a0 x + b0 , a0 = −0.10, b0 = 10.41