1cours Proba Complet S2 2021-2022
1cours Proba Complet S2 2021-2022
1cours Proba Complet S2 2021-2022
Chapitre I............................................................................................................................................................... 4
ANALYSE COMBINATOIRE ............................................................................................................................ 4
Section 1 ............................................................................................................................................................. 4
Arrangements .................................................................................................................................................... 4
1.1 Arrangement sans répétition ................................................................................................................. 4
1.2 Arrangement avec répétition ................................................................................................................. 4
Section 2 ............................................................................................................................................................. 5
Permutation ....................................................................................................................................................... 5
2.1 Permutation sans répétition ....................................................................................................................... 5
2.2 Permutation avec répétition ...................................................................................................................... 5
Section 3 ............................................................................................................................................................. 5
Combinaison ...................................................................................................................................................... 5
3.1 Combinaison sans répétition ..................................................................................................................... 5
3.2 Combinaison avec répétition..................................................................................................................... 6
Chapitre II ............................................................................................................................................................. 7
PROBABILITES................................................................................................................................................... 7
Section 1 ............................................................................................................................................................. 7
Evénement ......................................................................................................................................................... 7
1.1 Définition .................................................................................................................................................. 7
1.2 Opérations sur les événements .................................................................................................................. 7
1.3 Relations entre les événements ................................................................................................................. 8
1.4 Propriétés des événements ........................................................................................................................ 8
Section 2 ............................................................................................................................................................. 9
2.1 Ensemble des parties d’un ensemble ..................................................................................................... 9
2.2 Système complet d’événements.............................................................................................................. 9
Section 3 ............................................................................................................................................................. 9
Axiomatiques des probabilités ......................................................................................................................... 9
3.1 Axiome de KOLMOGOROV ................................................................................................................. 10
3.2 Probabilité sur un ensemble fini ............................................................................................................. 11
Section 4 ........................................................................................................................................................... 12
Probabilités conditionnelles et indépendance ............................................................................................... 12
4.1 Probabilités conditionnelles .................................................................................................................... 12
4.2 Evénements indépendants pour une probabilité P .................................................................................. 12
4.3 Théorème des probabilités totales et théorème de Bayes ....................................................................... 13
Chapitre III.......................................................................................................................................................... 15
VARIABLE ALEATOIRE ................................................................................................................................ 15
Section 1 ........................................................................................................................................................... 15
Variable aléatoire ............................................................................................................................................ 15
1.1 Définition d’une variable aléatoire ......................................................................................................... 15
1.2 Types de variables aléatoires .................................................................................................................. 16
Section 2 ........................................................................................................................................................... 16
Loi de probabilité aléatoire ............................................................................................................................ 16
Section 3 ........................................................................................................................................................... 16
Fonction de répartition ................................................................................................................................... 16
Section 4 ........................................................................................................................................................... 16
Valeurs caractéristiques des variables aléatoires......................................................................................... 16
4.1 Le mode .................................................................................................................................................. 16
1
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
4.2 La médiane .............................................................................................................................................. 17
4.3 L’espérance (valeur moyenne) ................................................................................................................ 17
4 .4 La variance ............................................................................................................................................. 17
Section 5 ........................................................................................................................................................... 17
Moments d’une variable aléatoire ................................................................................................................. 17
Chapitre IV .......................................................................................................................................................... 19
QUELQUES LOIS USUELLES DISCRETES ................................................................................................ 19
Section 1 ........................................................................................................................................................... 19
Variable de Bernoulli ...................................................................................................................................... 19
1.1 Définition ................................................................................................................................................ 19
1.2 Espérance mathématique et variance ...................................................................................................... 19
Section 2 ........................................................................................................................................................... 19
Loi binomiale ................................................................................................................................................... 19
2.1 Définition ................................................................................................................................................ 19
2.2 Espérance mathématique ........................................................................................................................ 20
2.3 Variance .................................................................................................................................................. 20
2.4 Ecart type ............................................................................................................................................ 20
Section 3 ........................................................................................................................................................... 21
La loi de Poisson .............................................................................................................................................. 21
3.1 Définition ................................................................................................................................................ 21
3.2 Espérance mathématique ........................................................................................................................ 21
3.3 Variance .................................................................................................................................................. 21
3.4 Approximation de la loi binomiale par la loi de Poisson ........................................................................ 21
Section 4 ........................................................................................................................................................... 22
La loi géométrique .......................................................................................................................................... 22
4.1 Définition ................................................................................................................................................ 22
4.2 Espérance mathématique et variance ...................................................................................................... 22
𝑬𝑿 = 𝟏𝒑 ....................................................................................................................................................... 22
Section 5 ........................................................................................................................................................... 23
Loi de Pascal .................................................................................................................................................... 23
5.1 Définition ................................................................................................................................................ 23
5.2 Espérance mathématique et variance ...................................................................................................... 23
Section 6 ........................................................................................................................................................... 24
Loi hypergéométrique .................................................................................................................................... 24
Chapitre V ........................................................................................................................................................... 25
COUPLES DE VARIABLES ALEATOIRES DISCRETES .......................................................................... 25
Section 1 ........................................................................................................................................................... 25
Lois du couple de variables aléatoires ........................................................................................................... 25
1.1 Loi de probabilité conjointe 𝑿 et 𝒀 ...................................................................................................... 25
1.2 Tableau de contingence de la loi conjointe du couple 𝑿, 𝒀 .................................................................... 25
Section 2 ........................................................................................................................................................... 26
Lois marginales ............................................................................................................................................... 26
2.1 Loi marginale de 𝑿 ................................................................................................................................ 26
2.2 Loi marginale de 𝒀 ................................................................................................................................ 26
Section 3 ........................................................................................................................................................... 26
Lois conditionnelles de 𝑿 et 𝒀 ........................................................................................................................ 26
3.1 Probabilité conditionnelle de 𝑿 sachant 𝒚𝒋......................................................................................... 26
3.2 Probabilité conditionnelle de 𝒀 sachant 𝒙𝒊 ......................................................................................... 26
Section 4 ........................................................................................................................................................... 27
2
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Les caractéristiques marginales..................................................................................................................... 27
4.1 Moyenne et variance marginales de 𝑿 .................................................................................................... 27
4.2 Moyenne et variance marginales de 𝒀 .................................................................................................... 27
Section 5 ........................................................................................................................................................... 27
Les caractéristiques conditionnelles .............................................................................................................. 27
5.1 Moyenne et variance conditionnelles de 𝑿 sachant 𝒚𝒋 ........................................................................... 27
5.2 Moyenne et variance conditionnelles de 𝒀 sachant 𝒙𝒊 ........................................................................... 27
Section 6 ........................................................................................................................................................... 28
Covariance de 𝑿 et 𝒀....................................................................................................................................... 28
3
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Chapitre I
ANALYSE COMBINATOIRE
Elle a pour but de dénombrer les différentes dispositions que l’on peut former à partir d’un ensemble d’éléments
discernables deux à deux ou non discernables.
Une disposition est une suite d’éléments. Elle peut être :
- sans répétition, chaque élément figure au plus une fois dans la disposition ;
- avec répétition, un élément peut figurer plusieurs fois dans la disposition ;
- ordonnée, chaque élément est caractérisé non seulement par le nombre de fois où il apparaît dans la disposition,
mais aussi par sa place dans la disposition ;
- non ordonnée, si l’ordre des éléments ne compte pas.
Section 1
Arrangements
1.1 Arrangement sans répétition
Il s’agit d’une disposition ordonnée de p éléments pris parmi n , (discernables sans répétition) chacun d’eux ne
pouvant figurer au maximum qu’une fois dans le même arrangement.
On a donc :
- n possibilités pour le premier élément ;
- n 1 possibilités pour le deuxième élément ;
-.
-.
-.
- n i 1 possibilités pour le i èm e élément ;
-.
-.
-.
- n p 1possibilités pour le p ièm e élément.
Au total, cela fait donc n(n 1)(n 2)...(n p 1) possibilités.
p,n N2, p n , Anp n! ⋁(𝑘, 𝑛) ∈ ℕ2 , 𝑘 ≤ 𝑛, 𝐴𝑘𝑛 = (𝑛−𝑘)
𝑛!
(n p)!
Exemple 1.1 : 12 candidats se présentent aux élections à un conseil d’administration comportant 8 places. La
liste des élus est publiée suivant le nombre de voix obtenu. Combien y a-t-il de listes possibles ?
Exemple 1.2: Quelle est la capacité d’un réseau téléphonique, dont un numéro d’appel est constitué de 8 chiffres?
𝑝 𝑝 𝑝−1
Propriétés 1.1: 𝐴𝑛 = 𝐴𝑛−1 + 𝑝𝐴𝑛−1
𝒑
Démonstration 1.1 : Parmi les 𝑨𝒏 arrangements, il y a ceux qui contiennent un élément particulier a et ceux qui
ne le contiennent pas.
𝒑
- pour ceux qui ne le contiennent pas, il y a 𝑨𝒏−𝟏 possibilités : les 𝑝 éléments de l’arrangement sont pris parmi
les (𝑛 − 1) éléments autres que a ;
4
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
- pour ceux qui le contiennent, en plus de a, ils y contiennent (𝑝 − 1) autres éléments, qui sont pris parmi
𝑝−1
les (𝑛 − 1) autres que a. Il y a 𝐴𝑛−1 arrangements de (𝑝 − 1) éléments ne contenant pas a. Pour chacun de ces
𝑝−1
arrangements, il y ensuite 𝑝 positions possibles pour intercaler a. Donc il y a au total 𝑝𝐴𝑛−1 arrangements de 𝑝
éléments contenant a.
𝑝 𝑝−1
Donc il y a au total 𝐴𝑛−1 + 𝑝𝐴𝑛−1 arrangements de 𝑝 éléments pris parmi n .
Démonstration 1.2
Section 2
Permutation
2.1 Permutation sans répétition
Il s’agit d’une disposition ordonnée des n éléments de l’ensemble, sans répétition.
𝑛!
On déduit donc : ∀ 𝑛 ∈ ℕ, 𝑃𝑛 = 𝐴𝑛𝑛 = (𝑛−𝑛)! = 𝑛!
Exemple 1.1: On dispose de 7 cartons sur lesquels on a écrit respectivement les lettres A, B, C, D, E, F, G.
Combien peut-on écrire de « mots » de 7 lettres ?
Section 3
Combinaison
3.1 Combinaison sans répétition
Il s’agit d’une disposition non ordonnées de 𝑝 éléments discernables pris parmi n , sans répétition. Pour une
𝑝
disposition ordonnée de 𝑝 éléments pris parmi n sans répétition, il y a 𝐴𝑛 possibilités. Parmi celles-ci 𝑝!
𝑝
permutations correspondent à la même disposition non ordonnée. On en déduit donc : ∀(𝑝, 𝑛) ∈ ℕ2 , 𝑝 ≤ 𝑛, 𝐶𝑛 =
𝑝
𝐴𝑛 𝑛!
=
𝑝! 𝑝!(𝑛−𝑝)!
Exemple 1.3 : 12 candidats se présentent aux élections à un conseil d’administration comportant 8 places. La
liste des élus est publiée par ordre alphabétique. Combien y a-t-il de listes possibles?
5
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
𝑝 𝑛! 𝑝 𝑝−1
Propriétés 1.2 : 𝐶𝑛 = = 𝐶𝑛−1 + 𝐶𝑛−1
𝑝!(𝑛−𝑝)!
𝑝 𝑝 𝑝−1
𝐶𝑛 = 𝐶𝑛−1 + 𝐶𝑛−1
𝒑
Démonstration 1.3 : Parmi les 𝑪𝒏 combinaisons de 𝒑 éléments pris parmi 𝒏, il y en a qui contiennent un élément
particulier a et d’autre ne le contiennent pas.
- pour ceux qui le contiennent, en plus de a, ils y contiennent (𝑝 − 1)autres éléments, qui sont pris parmi les
𝑝−1
(𝑛 − 1) autres que a. Il y a 𝐶𝑛−1 combinaisons de (𝑝 − 1)éléments ne contenant pas a ;
𝑝
- pour ceux qui ne le contiennent pas, il y a 𝐶𝑛−1 possibilités : les 𝑝 éléments de la combinaison sont pris parmi
les (𝑛 − 1)éléments autres que a.
𝑝 𝑝 𝑝−1
Donc 𝐶𝑛 = 𝐶𝑛−1 + 𝐶𝑛−1
Triangle de Pascal
𝑝 0 1 2 3 4 (𝑝 − 1) 𝑝
𝑛 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6 4 1
𝑝−1 𝑝
(𝑛 − 1) 𝐶𝑛−1 𝐶𝑛−1
𝑝
𝑛 𝐶𝑛
6
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Chapitre II
PROBABILITES
La théorie des probabilités est l’étude de modèles mathématiques des phénomènes dans lesquels le hasard
intervient. Il n’est alors pas possible d’en prévoir avec certitude les résultats. La notion de hasard recoupe
plusieurs situations : des phénomènes non déterministes ou des phénomènes dont on est incapable d’appréhender
quantitativement toutes les causes. On parle dans les deux cas d’épreuve ou d’expérience aléatoire et le résultat
obtenu sera un événement.
Les outils appropriés dans ce cadre sont ceux de la statistique mathématique, la base de cette discipline étant la
théorie des probabilités. Nous allons en exposer ici les principes.
Section 1
Evénement
1.1 Définition
- On appelle épreuve aléatoire une expérience dans laquelle on connaît tous les résultats possibles, mais dont on
ne peut pas prévoir l’issue avec certitude.
- On appelle ensemble fondamental ou univers, noté Ω, tous les résultats possibles d’une expérience aléatoire. Un
élément ω de Ω est appelé résultat ou issue.
Exemples 2.1:
1) un lancer de dé : Ω = {1, 2, 3, 4, 5, 6} ou le lancer d’une pièce Ω = {pile, face}
Remarque : Ω peut être fini (exemple 1), infini dénombrable (exemple 2) et infini non dénombrable (exemple
3). Dans les deux premiers cas, Ω est dit discret, dans le dernier, il est dit continu.
- On appelle événement associé à une expérience aléatoire un sous-ensemble de Ω. On dira qu’un événement est
réalisé si l’un de ses éléments est observé à l’issue de l’expérience aléatoire.
Notation : Un événement sera désigné par une lettre capitale A, B, C, etc. Il sera décrit par la propriété le
caractérisant ou par le sous-ensemble correspondant de Ω.
Exemple 2.2 : dans le cas du lancer de dé, on pourra s’intéresser à l’événement A : "obtenir un nombre pair" ou
de façon équivalente à A = {2, 4, 6}.
1.2.1 L’union
L’événement A∪B est réalisé dès que A ou B est réalisé. Dans un lancer de dé, si l’événement A est “obtenir un
nombre pair” et l’´événement B “obtenir un multiple de 3”, l’´événement A ∪ B est l’´événement “obtenir un
nombre pair OU un multiple de 3”, c’est-`a-dire {2, 3, 4, 6}.
7
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
1.2.2 L’Intersection
L’évènement A ∩ B est réalisé d`es que A et B sont réalisés conjointement dans la même expérience. Dans un
lancer de d´e, si l’événement A est “obtenir un nombre pair” et l’´événement B “obtenir un multiple de 3”,
l’événement A ∩ B est l’´événement “obtenir un nombre pair ET multiple de 3”, c’est-`a-dire {6}.
1.2.3 La différence
L’événement A\B est réalisé quand A est réalisé et que B ne l’est pas.
1.2.4 Le complémentaire
Le complémentaire de l’événement A est l’événement Ω\A. Le complémentaire est noté 𝐴̅.
Exemple 2.4 : Si on jette un dé, l’événement “obtenir un nombre pair” et l’événement “obtenir un nombre impair”
ne peuvent pas être obtenus en même temps. Ils sont mutuellement exclusifs. D’autre part, si l’on jette un dé, les
événements A : “obtenir un nombre pair” n’est pas mutuellement exclusif avec l’événement B : “obtenir un
nombre inférieur ou égal à 3”. En effet, l’intersection de A et B est non-vide et consiste en l’événement “obtenir
2”.
1.3.2 Inclusion
Si A est inclus dans B, on écrit A ⊂ B. On dit que A implique B.
Parmi les plus importantes propriétés algébriques de la réunion et de l’intersection de deux événements on a:
1. loi commutative: E F = F E ; E ∩ F = F ∩ E.
2. loi associative: E (F G) = (E F) G ; E ∩ (F ∩ G) = (E ∩ F) ∩ G.
3. loi distributive: E ∩(F G) = (E ∩ F) (E ∩ G) ; E (F ∩ G) = (E F)∩(E G).
4. loi d’idempotence: E E = E ; E ∩ E = E.
Une propriété moins évidente des opérations sur les événements est donnée par les lois de Morgan:
̅̅̅̅̅̅̅
𝐸 ∪ 𝐹 = 𝐸̅ ∩ 𝐹̅ ;
̅̅̅̅̅̅̅
𝐸 ∩ 𝐹 = 𝐸̅ ∪ 𝐹̅
Section 2
Ensemble d’événements
Les considérations avec lesquelles on choisit l’espace d’une manière correcte sont une partie de l’art d’appliquer
la théorie mathématique des probabilités à l’étude de phénomènes réels. L’espace d’échantillonnage est
l’ensemble de tous les résultats possibles d’un phénomène. Un espace est un ensemble complet dans le sens que
seulement les objets de l’ensemble sont considérés.
Exemple 2.7 : Si on jette une pièce de monnaie alors Ω = {P, F}, et ℱ = {∅, {F}, {P}, {F, P}}.
𝐴1 ------------ 𝐴𝑖 ----------- 𝐴𝑛
Section 3
Axiomatiques des probabilités
La probabilité est une mesure comprise entre 0 et 1 permettant de quantifier les chances qu’un événement se
produise.
9
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
3.1 Axiome de KOLMOGOROV
Une probabilité P(.) est une application de 𝐴 dans [0, 1], telle que :
- P(Ω) = 1,
- Pour tous ensemble dénombrable d’événements A1, … , An mutuellement exclusifs (tels que Ai ∩ Aj = ∅,
pour tout i ≠ j),
P(A1 ∪ A2 ∪ A3 ∪ · · · ∪ An) = P(A1)+P(A2)+P(A3)+· · ·+P(An).
A partir des axiomes, on peut déduire les propriétés suivantes :
Démonstration 2.2 :
On sait que
𝐴 ∪ 𝐴̅ = Ω et 𝐴 ∩ 𝐴̅ = ∅.
Ainsi, on a que
P(Ω) = P(𝐴 ∪ 𝐴̅) = P(𝐴) + P(𝐴̅).
Mais, par la définition d’une probabilité, P(Ω) = 1. Donc,
P(𝐴) + P(𝐴̅).) = 1
On en déduit que P(𝐴̅).) = 1 − P(𝐴).
Démonstration 2.3 :
Comme A ⊂ B, on a
B = (B ∩ (𝐴̅) ∪ A.
Mais on a que
(B ∩ 𝐴̅) ∩ A = ∅.
Ainsi, on a
P(B) = P(B ∩ 𝐴̅) )+ P(A).
Or une probabilité est à valeur dans [0,1], donc P(B ∩ (𝐴̅) ≥ 0. On a alors
P(B) ≥ P(A).
Propriété 2.4 P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
Démonstration 2.4 :
On a
A ∪ B = A ∪ (B ∩ 𝐴̅),
et
A ∩ (B ∩ 𝐴̅) = ∅.
Donc
P(A ∪ B) = P(A) + P(B ∩ 𝐴̅).
Il reste à montrer que
10
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
P(B ∩ 𝐴̅) = P(B) − P(A ∩ B)
En effet,
B = (B ∩ 𝐴̅) ∪ (B ∩ A)
avec
(B ∩ 𝐴̅) ∩ (B ∩ A) = ∅
Donc
P(B) = P(B ∩ 𝐴̅) + P(B ∩ A),
ce qui donne
P(B ∩ 𝐴̅) = P(B) − P(A ∩ B).
Démonstration 2.5 :
Notons respectivement
B1 = A1, B2 = (A2\A1), B3 = (A3\(A1 ∪ A2)),
B4 = (A4\(A1 ∪ A2 ∪ A3)), . . . ,Bn = (An\(A1 ∪ A2 ∪ A3 ∪ · · · ∪ An−1)).
Comme
⋃𝑛𝑖=1 𝐴𝑖 = ⋃𝑛𝑖=1 𝐵𝑖
et que Bi ∩ Bj = ∅ pour tout j ≠ i, alors
𝑷(⋃𝒏𝒊=𝟏 𝑩𝒊 ) = ∑𝒏𝒊=𝟏 𝑷(𝑩𝒊 ),
De plus, comme, pour tout i, Bi ⊂ Ai, on a que P(Bi) ≤ P(Ai), ce qui donne finalement
𝑷(⋃𝒏𝒊=𝟏 𝑨𝒊 ) = 𝑷(⋃𝒏𝒊=𝟏 𝑩𝒊 ) = ∑𝒏𝒊=𝟏 𝑷(𝑩𝒊 ) ≤ ∑𝒏𝒊=𝟏 𝑷(𝑨𝒊 ) .
∑ 𝑃(𝐵 ∩ 𝐴𝑖 ) = 𝑃(𝐵)
𝑖=1
Démonstration 2.6 :
Si A1, . . . , An forment un système complet d’événements, alors
𝑩 = ⋃𝒏𝒊=𝟏(𝑩 ∩ 𝑨𝒊 )
Mais on a, pour tout i, j tels que i ≠ j
(𝑩 ∩ 𝑨𝒊 ) ∩ (𝑩 ∩ 𝑨𝒋 ) = ∅
Finalement, on a que
𝒏 𝒏
∑ 𝑝𝑖 = 1
𝑖=1
11
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
𝐶𝑎𝑟𝑑(A) 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠
𝑃(𝐴) = =
𝐶𝑎𝑟𝑑(Ω) 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒𝑠
Avec Ω l’ensemble fondamental.
Attention, cette relation n’est valable que dans le cas équiprobable. Ainsi, lorsque l’on joue au loto, il y a deux
événements possibles : gagner ou perdre, mais la probabilité des deux n’est malheureusement pas de 1/2 ! Dans
le cas contraire, le calcul de probabilité se ramène à un problème de dénombrement. On utilise à cette fin des
éléments de combinatoire ...
Section 4
Probabilités conditionnelles et indépendance
4.1 Probabilités conditionnelles
Soit l’événement A de probabilité non nulle. La probabilité de l’événement B sachant que l’événement A est
réalisé est définie par :
𝑃(𝐴 ∩ 𝐵)
𝑃(𝐵\𝐴) =
𝑃(𝐵)
Exemple 2.8 : Supposons que l’on ait deux urnes identiques et que l’une contienne 5 boules rouges et 5 boules
blanches, la deuxième 1 boule rouge et 9 boules blanches. Il est clair que la probabilité de l’événement R "tirer
une boule rouge" diffère suivant que l’événement U1 "l’urne 1 a été tirée" plutôt que U2 "l’urne 2 a été tirée" se
soit réalisé.
Exemple 2.9 : Si on jette un dé, et que l’on considère les deux événements suivants :
- A l’événement « avoir un nombre pair » et
- B l’événement « avoir un nombre supérieur ou égal à 4 ».
On a donc
3 1
𝐴 = {2, 4, 6} et 𝑃(𝐴) = =
6 2
3 1
𝐵 = {4, 5, 6} et 𝑃(𝐵) = =
6 2
2 1
(𝐴 ∩ 𝐵) = {4, 6} et 𝑃(𝐴 ∩ 𝐵) = =
6 3
1
𝑃(𝐴 ∩ 𝐵) 3 2
𝑃(𝐴\𝐵) = = =
𝑃(𝐵) 1 3
2
Propriété 2.7 :
- A, B avec P(A)>0 et P(B)>0
P(A B) = P(B|A) × P(A) = P(A|B) × P(B)
- A, B tels que B A, P(A\B) = 1
Propriétés 2.8:
1. Si A et B sont indépendants en probabilité, alors :
- P (A |B) = P (A) si P (B) 0
- P (B |A) = P (B) si P (A) 0
- P(AB) = P(A) + P(B) – P(A) x P(B)
12
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
La réalisation de l’événement B n’affecte pas la probabilité de réalisation de l’événement A et réciproquement.
2. 𝐴 et 𝐵 indépendants ⟺ 𝐴̅ et 𝐵 indépendants
𝐴 et 𝐵 indépendants ⟺ 𝐴 et 𝐵̅ indépendants
𝐴 et 𝐵 indépendants ⟺ 𝐴̅ et 𝐵̅ indépendants
En effet,
𝑛 𝑛
13
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Exemple 2.10 : Supposons qu’une population d’adultes soit composée de 30% de fumeurs (A1) et de 70% de
non-fumeurs (A2). Notons B l’événement “mourir d’un cancer du poumon”. Supposons en outre que la probabilité
de mourir d’un cancer du poumon est égale à P(B\A1) = 20% si l’on est fumeur et de P(B\A2) = 1% si l’on est
non-fumeur. Le théorème de Bayes permet de calculer les probabilités a priori, c’est-à-dire la probabilité d’avoir
été fumeur si on est mort d’un cancer du poumon. En effet, cette probabilité est notée P (A1|B) et peut être calculée
par
𝑃(𝐵\𝐴1 )𝑃(𝐴1 ) 0,3 ∗ 0,2 0,06
𝑃(𝐴1 \𝐵) = = = = 0,896
𝑃(𝐵\𝐴1 )𝑃(𝐴1 ) + 𝑃(𝐵\𝐴2 )𝑃(𝐴2 ) 0,3 ∗ 0,2 + 0,7 ∗ 0,01 0,06 + 0,007
La probabilité de ne pas avoir été non-fumeur si on est mort d’un cancer du poumon vaut quant à elle :
14
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Chapitre III
VARIABLE ALEATOIRE
- L'ensemble Ω des résultats d'une expérience aléatoire n'est pas nécessairement constitué de grandeurs
numériques, ce qui ne facilite pas leur manipulation. Pour une expérience donnée, on peut s'intéresser non pas
spécifiquement au résultat lui-même mais à une de ses grandeurs caractéristiques. Ainsi, si l'expérience consiste
à choisir de façon aléatoire un individu dans une certaine population, on pourra par exemple envisager plus
particulièrement l'âge de cette personne, sa taille, ... L'introduction de la notion de variable aléatoire permet de
prendre en compte ces diverses situations de façon satisfaisante. Pour les besoins du calcul (par exemple celui de
la moyenne des résultats), il est nécessaire de convertir les résultats d’une expérience aléatoire sous forme
numérique. On a alors recours à la notion de variable aléatoire.
Section 1
Variable aléatoire
1.1 Définition d’une variable aléatoire
Une variable aléatoire, notée v.a. dans la suite est une application de Ω dans ℝ.
Ω⟶ℝ
𝜔⟶𝑥
Autrement dit, une variable aléatoire associe une valeur numérique aux résultats possibles d’une expérience
aléatoire. Par convention, on notera toujours par une majuscule la variable aléatoire (par exemple, X) et par des
minuscules les valeurs (ou réalisations) qu’elle peut prendre (par exemple, xi).
Exemple 3.1 : Considérons l’expérience aléatoire suivante : deux lancers consécutifs d’une pièce. L’ensemble
des résultats possibles est : Ω = {(F, F), (F, P), (P, F), (P, P)}.
Chacun des événements de Ω a une probabilité 1/4. Une variable aléatoire va associer une valeur à chacun des
événements de Ω. Considérons la variable aléatoire représentant le nombre de « Piles » obtenus
Les réalisations correspondantes de la variable aléatoire sont X(Ω) = {0, 1, 2}.
C’est une variable aléatoire discrète dont la distribution de probabilités est présentée en Figure 3.1
Figure 3.1- Distribution de « Piles » obtenus
Remarque 3.1 : Plusieurs variables aléatoires peuvent être définies à partir d’un même espace fondamental.
15
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
1.2 Types de variables aléatoires
On distingue les variables aléatoires discrètes des variables aléatoires continues. Les premières ne peuvent prendre
qu’un nombre fini de valeurs ou infini dénombrable du type 0, 1, 2, . . . ou plus formellement X(Ω) est fini ou
infini dénombrable (exemple : la variable aléatoire X résultat du jet d’un dé). A contrario, les variables aléatoires
continues peuvent prendre n’importe quelle valeur réelle à n (v.a. continue) qui permet de déterminer la
probabilité que cette variable prenne une valeur donnée l’intérieur d’un intervalle ou d’une suite d’intervalles
(exemple : la variable X taille d’une personne tirée dans la population). Dans ce cas, X(Ω) est infini non
dénombrable.
Section 2
Loi de probabilité aléatoire
De façon générale, on appelle loi de probabilité d’une variable aléatoire la relation (variable aléatoire discrète) ou
la fonction (variable aléatoire continue) qui permet de déterminer la probabilité que cette variable prenne une
valeur donnée (variable aléatoire discrète) ou appartienne à un intervalle donné (variable aléatoire continue).
Exemple 3.2 : La loi de probabilité de la variable aléatoire 𝑋: "résultat du jet d’un dé" est donnée par :
𝑥𝑖 1 2 3 4 5 6
𝑃(𝑋 = 𝑥𝑖 ) 1 1 1 1 1 1
6 6 6 6 6 6
Section 3
Fonction de répartition
La fonction de répartition F d’une variable aléatoire X est la fonction qui associe à toute valeur x de X, la
probabilité que X soit inférieure ou égale à X. F (x) = P (X ≤ x).
- Dans le cas d’une variable aléatoire discrète : F (x) = P (X ≤ x) = ∑𝑘≤𝑥 𝑃(𝑋 = 𝑥)
Propriétés 3.1 :
lim F(x) = 0
x−∞
lim F (x) = 1
x+∞
0 ≤ F (x) ≤ 1 car F (x) est une probabilité
F (x) est une fonction non décroissante de x
Section 4
Valeurs caractéristiques des variables aléatoires
On retrouve à ce niveau les différents paramètres présentés dans la première partie.
4.1 Le mode
- Pour une variable aléatoire discrète, c’est rechercher la valeur xi qui maximise les probabilités individuelles P
(X = xi).
16
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
4.2 La médiane
- Pour une variable aléatoire discrète, c’est rechercher la plus petite valeur xi telle que
F (xi) ≥ 0.5.
4 .4 La variance
On appelle variance de X, et on note V (X), l’espérance de la variable aléatoire (X − E(X))2, si elle existe. Elle
est donc obtenue par :
- Pour une variable discrète : V (X) = σ2 = E[X − E(X)]2 = ∑𝑖[𝑥𝑖 − 𝐸(𝑋)]2 𝑃(𝑋 = 𝑥𝑖 )
Remarques 3.3 :
a. De même, noter la similitude de ces formules avec celle de la variance donnée dans la partie 1.
b. Comme l’espérance, la variance V (X) peut ne pas exister.
c. On pourra également obtenir la variance par : V (X) = E(X2) − E(X)2 (théorème de Koenigs). En pratique, on
utilise plutôt cette formule qui simplifie considérablement les calculs.
Section 5
Moments d’une variable aléatoire
Soit k IN*, et X une variable aléatoire telle que Xk possède une espérance mathématique. Alors, E(Xk) s’appelle
le moment d’ordre k de X. Le moment E[X − E(X)]k est le moment centré d’ordre k de X. On le note 𝜇𝑘 .
17
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Moments d’une variable aléatoire discrète
Soit X une variable aléatoire discrète, et soit X={x1, x2, ….} l’ensemble des valeurs prise par X et {p1, p2, ….}
les probabilités correspondantes.
Le moment d’ordre k a pour expression, sous réserve d’existence : 𝑚𝑘 = ∑𝑖 𝑥𝑖𝑘 𝑃(𝑋 = 𝑥𝑖 )
𝑘
Le moment centré d’ordre k a pour expression, sous réserve d’existence : 𝜇𝑘 = ∑𝑖=1(𝑥𝑖 − 𝐸(𝑋)) 𝑃(𝑋 = 𝑥𝑖 )
Propriétés 3.4 :
Si X admet un moment d’ordre k, alors ∀ 𝑟 ∈ ℕ∗ , 𝑟 ≤ 𝑘 , elle admet un moment d’ordre r.
Le moment d’ordre 1 𝑚1 correspond à l’espérance mathématique.
2
Le moment centré d’ordre 2 correspond à la variance. 𝜇2 = 𝐸(𝑋 2 ) − (𝐸(𝑋)) = 𝑚2 − 𝑚1
18
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Chapitre IV
QUELQUES LOIS USUELLES DISCRETES
Section 1
Variable de Bernoulli
1.1 Définition
Une variable de Bernoulli est une variable qui ne peut prendre que deux valeurs exclusives, souvent désignées
par « succès » et « échec », avec les probabilités respectives p et q. Ces deux événements sont complémentaires
et on a : 𝑝 + 𝑞
Exemple 4.1 : On tire au hasard une carte d’un jeu de 32 cartes et on s’intéresse à l’événement « la carte tirée est
une dame ».
Le succès est l’événement 𝐴 : « la carte tirée est une dame »
L’échec est l’événement 𝐴̅ : « la carte tirée n’est pas une dame »
4 1
𝑃(𝐴) = =
32 8
28 7
𝑃(𝐴̅) = =
32 8
D’où
𝑃(𝐴) + 𝑃(𝐴̅) = 1
Section 2
Loi binomiale
2.1 Définition
Une variable aléatoire X obéit à une loi binomiale quand la probabilité de 𝑋 = 𝑘 est donnée par la relation
𝑃(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘 où :
- n = nombre d’épreuves
- p = probabilité de l’événement considéré
q = probabilité de l’événement contraire
- 0≤𝑘
On note 𝑋~𝐵(𝑛, 𝑝)
Exemple 4.2 : On tire au hasard une carte d’un jeu de 32 cartes. La carte tirée est remise dans le jeu. Cette épreuve
est répétée quatre fois et on cherche la probabilité de l’événement A : « on a tiré trois cœurs »
19
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
1 3
Au cours de chaque épreuve la probabilité de tirer 1 cœur est de et celle de tirer un non cœur est de .
4 4
L’événement A est réalisé quand on a tiré un cœur et un non cœur. Le nombre de cas de figures de cette sorte est :
𝐶43 = 4
1 3 3 1
La probabilité cherchée est donc : 𝑃(𝑋 = 3) = 𝐶43 ( ) ( ) ≈ 0,047
4 4
NB : on a bien 𝑃(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘 = 1
En effet, le recours au binôme de Newton permet d’écrire : 𝑃(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘 = (𝑝 + 𝑞)𝑛 . Or par
définition, (𝑝 + 𝑞)𝑛 = 1
Donc 𝑃(𝑋 = 𝑘) = (𝑝 + 𝑞)𝑛 = 1𝑛
2.3 Variance
De façon analogue, on montre que 𝑉(𝑋) = 𝑛𝑝𝑞
Exemple 4.3 : Le dirigeant d’une société constate quen70% des cadres embauchés sont encore dans l’entreprise
5 ans après. Il recrute six jeunes cadres. Calculer la probabilité que 5 ans après :
1) Les 6 aient quitté l’entreprise
2) Deux d’entre eux soient encore dans l’entreprise
3) 3 d’entre eux au plus aient quitté l’entreprise
4) Calculer E(X), V(X) et 𝜎𝑋
Réponse
Désignons par X « le nombre de nouveaux cadres encore présents dans l’entreprise 5 ans après leur recrutement ».
X est une variable aléatoire qui suit une loi binomiale de paramètres n=6 et p=0,70. 𝑋~𝐵(6; 0,70)
1) La probabilité que les 6 cadres aient quitté l’entreprise 5 ans après :
2) La probabilité que deux d’entre soient encore dans l’entreprise 5 ans après :
𝑃(𝑋 = 2) = 𝐶62 (0,70)2 (0,30)4 = 0,0595. Soit 5,95%
3) La probabilité que 3 d’entre eux au plus aient quitté l’entreprise 5 ans après :
𝑃(𝑋 ≥ 3) = 1 − [𝑃(𝑋 = 1) + 𝑃(𝑋 = 2) + 𝑃(𝑋 = 3)]
𝑃(𝑋 = 1) = 𝐶61 (0,70)1 (0,30)5 = 0,01021
𝑃(𝑋 = 2) = 𝐶62 (0,70)2 (0,30)4 = 0,0595
20
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
D’où 𝑃(𝑋 ≥ 3) = 1 − [0,01021 + 0,595 + 0,1852] = 0,7452. Soit 74,52%
Section 3
La loi de Poisson
La loi de Poisson est parfois appelée la loi des événements rares ou des petits nombres. Elle est associée à la
description des événements dont les probabilités de réalisation sont faibles.
3.1 Définition
Soit une variable aléatoire réelle X et 𝜆 un nombre réel strictement positif. X est dite variable de Poisson si la loi
𝜆𝑘
est définie par : 𝑃(𝑘) = 𝑃(𝑋 = 𝑘) = 𝑒 −𝜆
𝑘!
Avec e = 0,71828
On note 𝑋 ∼ 𝑃(𝜆)
NB : la somme des probabilités est bien égale à 1.
𝜆𝑘 𝜆𝑘
En effet, on a ∑∞ ∞
𝑘=0 𝑃(𝑘) = ∑𝑘=0 𝑒
−𝜆
= 𝑒 −𝜆 ∑∞
𝑘=0
𝑘! 𝑘!
𝜆𝑘
Or quand k tend vers l’infini, ∑∞
𝑘=0 𝑘! tend vers 𝑒 𝜆
𝜆𝑘
Donc ∑∞
𝑘=0 = 𝑒 −𝜆 𝑒 𝜆 = 1
𝑘!
3.3 Variance
Il est démontré de façon similaire que 𝑉(𝑋) = 𝜆
NB : soient 𝑋1 , 𝑋2 , … , 𝑋𝑛 n variables de Poisson de paramètres 𝜆1 , 𝜆2 , … , 𝜆𝑛 et une loi Z telle que
𝑍 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
Alors on a 𝑍 ∼ 𝑃(𝜆1 + 𝜆2 + ⋯ + 𝜆𝑛 )
NB : Avec la distribution binomiale on pouvait diviser les 𝑛 épreuves en 𝑘 succès et 𝑛 − 𝑘 échecs. Avec la
distribution de Poisson on ne peut compter que le nombre de succès et alors le nombre total d’épreuves n’a pas
de sens. Par exemple, dans le cas des clients qui sont à un guichet, on ne connaît pas le nombre de personnes qui
n’y sont pas !
Exemple 4.4 Soit une boîte avec 200 fusibles. La probabilité qu’un fusible soit défectueux est de 2%. Quelle est
la probabilité de trouver au maximum 5 fusibles défectueux ?
21
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
4 𝜇 = 𝑛𝑝 = 200 ∗ 0,02 = 4
4𝑥
𝑃(𝑋 ≤ 5) = ∑5𝑥=0 𝑒 −4 = 0,785
𝑥!
Si l’on avait utilisé la distribution binomiale on aurait obtenu 𝑃(𝑋 ≤ 5) = 0,788, donc l’approximation est déjà
très bonne.
Section 4
La loi géométrique
4.1 Définition
On effectue des épreuves de Bernoulli indépendantes jusqu’au 1er succès.
X : « le nombre d’essais nécessaires jusqu’au 1er succès (en incluant ce dernier) »
RX = {1, 2, 3, 4, …}
Notation : X ~ G(p), avec une probabilité de succès p telle que :
(1 − 𝑝)𝑥−1 𝑝, 𝑠𝑖 𝑥 = 1, 2, 3
𝑝(𝑥) = 𝑃(𝑋 = 𝑥) = {
0, 𝑠𝑖𝑛𝑜𝑛
Réponse
Ainsi : nous avons une probabilité de succès p = 4/52 = 1/13 (puisqu’il y a 4 as dans un jeu de 52 cartes)
RX = {1, 2, 3, …}
X ~ G (1/13)
a) Probabilité d’obtenir le 1er succès au 7ème tirage
𝑋 = 7 ⟺ 𝐸𝐸𝐸𝐸𝐸𝐸𝑆 (E : échec et S : succès)
1 6 1
𝑃(𝑋 = 7) = (1 − ) ( ) = 0,048
13 13
22
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
c) Probabilité d’obtenir le 1er succès avec plus de 5 tirages
1 5
𝑃(𝑋 > 5) = (1 − ) = 0,67
13
𝑋~𝐺(1/13)
1
𝐸(𝑋) = = 13
1
13
1 12
1 − 13
𝑉(𝑋) = 13
2 = 1
1
( ) 132
13
Section 5
Loi de Pascal
5.1 Définition
Effectuer des épreuves de Bernoulli indépendantes de paramètre p, jusqu’à l’obtention du r e succès.
Soit X : « le nombre d’essais nécessaires à l’obtention du r e succès »
RX = {r, r + 1, r + 2, …}
Notation : X ~ Pascal (r, p) [ou X ~ Bin.Nég.(r, p)], avec une probabilité p de succès
Soit X : « le nombre de cartes nécessaires pour obtenir 4 as quand on pige avec remise ». X ~ Pascal (4, 1/13)
23
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
a) Probabilité d’obtenir le 4e as au 10e tirage
1 4 12 6
𝑷(𝑋 = 10) = 𝐶93 ( ) ( ) = 0,0018
13 13
Section 6
Loi hypergéométrique
Le schéma hypergéométrique est une succession d’épreuves de Bernoulli non indépendantes. Si dans une
population de taille N, on a 2 types de populations N1 individus type 1 en proportion
𝑁
𝑝 = 1 et N2 individus type 2 :
𝑁
24
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Chapitre V
COUPLES DE VARIABLES ALEATOIRES DISCRETES
Soient 𝑿 et 𝒀 deux variables aléatoire discrètes telles que 𝑿(𝛀) ={𝑥𝑖 tel que 𝑖 IN} et 𝒀(𝛀) = {𝑦𝑗 tel que 𝑗
IN}. Le couple (𝑋, 𝑌)prend ses valeurs dans 𝑿(𝛀) ∗ 𝒀(𝛀) = (𝒙𝒊 , 𝒚𝒋 ) quelque soit (𝑖, 𝑗) (IN x IN). L’étude des
deux variables se fait alors simultanément.
Exemples 4.1 :
- Choisir un individu dans une population, 𝑿 : taille d’un individu, 𝒀: poids d’un individu.
- On jette un dé et une pièce. La variable aléatoire 𝑍 = (𝑿 = nombre impaire, 𝒀 = pile) définie une variable à deux
dimensions.
- On jette deux dés. On définit la variable 𝑿 comme le nombre de points du premier dé et la variable aléatoire 𝒀
comme la somme des points des deux dés.
Section 1
Lois du couple de variables aléatoires
Soient 𝑥𝑖 les valeurs possibles de la variable 𝑿 et, 𝑦𝑗 les valeurs possibles de la variable 𝒀. Le couple (𝑋, 𝑌)est
défini par l’ensemble {(𝒙𝒊 , 𝒚𝒋 )} des points possibles.
L’utilisation d’un tableau permet de donner de façon synthétique les valeurs des différentes probabilités.
25
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Section 2
Lois marginales
Les lois marginales correspondent aux lois de chacune des deux variables.
La totalisation des probabilités 𝑃𝑖𝑗 suivant l’indice 𝑗. 𝑃𝑖. = ∑𝑗 𝑃𝑖𝑗 = ∑𝑗 𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ) = 𝑃(𝑋 = 𝑥𝑖 )
Section 3
Lois conditionnelles de 𝑿 et 𝒀
Supposons que la probabilité que Y prenne la valeur 𝒚𝒋 ne soit pas nulle: 𝑃.𝑗 ≠ 0 ; la probabilité conditionnelle
de 𝑋 = 𝑥𝑖 , sachant 𝑌 = 𝑦𝑗 , est égal à :
𝑗 𝑃𝑖𝑗
𝑃𝑖/𝑗 = 𝑃𝑖 = 𝑃(𝑋 = 𝑥𝑖 /𝑌 = 𝑦𝑗 ) =
𝑝.𝑗
𝑗
Les probabilités 𝑃𝑖/𝑗 ou 𝑃𝑖 correspondant aux différentes valeurs de 𝑥𝑖 de 𝑋 constituent la loi conditionnelle de
𝑋 liée par 𝑌 = 𝑦𝑗 .
Supposons que la probabilité que 𝑿 prenne la valeur 𝑥𝑖 ne soit pas nulle: 𝑃𝑖. ≠ 0; la probabilité conditionnelle de
𝑌 = 𝑦𝑗 , sachant 𝑋 = 𝑥𝑖 , est égal à :
𝑃𝑖𝑗
𝑃𝑗/𝑖 = 𝑃𝑗𝑖 = 𝑃(𝑌 = 𝑦𝑗 /𝑋 = 𝑥𝑖 ) =
𝑃𝑖.
Les probabilités 𝑃𝑗/𝑖 ou 𝑃𝑗𝑖 correspondant aux différentes valeurs de 𝑦𝑗 de 𝒀 constituent la loi conditionnelle de
𝒀 liée par 𝑋 = 𝑥𝑖 .
Les probabilités 𝑃𝑖𝑗 , 𝑃𝑖. , 𝑃.𝑗 , 𝑃𝑖/𝑗 , 𝑃𝑗/𝑖 sont liées par les relations qui traduisent la formule des probabilités
composées par : 𝑃𝑖𝑗 = 𝑃𝑖. ∗ 𝑃𝑗/𝑖 = 𝑃.𝑗 ∗ 𝑃𝑖/𝑗 .
26
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Section 4
Les caractéristiques marginales
Moyenne marginale 𝑿
𝜇𝑋 = ∑ 𝑥𝑖 𝑃𝑖.
𝑖
Variance marginale 𝑿
Moyenne marginale 𝒀
𝜇𝑌 = ∑ 𝑦𝑗 𝑃.𝑗
𝑗
Variance marginale 𝒀
2
𝜎𝑌2 = ∑(𝑦𝑗 − 𝜇𝑌 ) 𝑃.𝑗. = ∑ 𝑦𝑗2 𝑃𝑖. − 𝜇𝑌2
𝑗 𝑗
Section 5
Les caractéristiques conditionnelles
𝑛 𝑛 𝑛 𝑃𝑖𝑗
𝑗
𝜎𝑋2 (𝑦𝑗 ) = ∑ 𝑥𝑖2 𝑃𝑖/𝑗 − 𝜇𝑋2 (𝑦𝑗 ) = ∑ 𝑥𝑖2 𝑃𝑖 − 𝜇𝑋2 (𝑦𝑗 ) = ∑ 𝑥𝑖2 − 𝜇𝑋2 (𝑦𝑗 )
𝑖=1 𝑖=1 𝑖=1 𝑃.𝑗
27
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
𝑝 𝑝 𝑝 𝑃𝑖𝑗
𝜎𝑌2 (𝑥𝑖 ) = ∑ 𝑦𝑗2 𝑃𝑗/𝑖 − 𝜇𝑌2 (𝑥𝑖 ) = ∑ 𝑦𝑗2 𝑃𝑗𝑖 − 𝜇𝑌2 (𝑥𝑖 ) = ∑ 𝑥𝑖2 − 𝜇𝑌2 (𝑥𝑖 )
𝑗=1 𝑗=1 𝑗=1 𝑃𝑖.
Section 6
Covariance de 𝑿 et 𝒀
28
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Exercice 1 : Une multinationale décide de lancer un dentifrice pour chien. Le nom de ce nouveau produit
indispensable doit comporter trois lettres. 1) Combien de noms peut-on former avec toutes les lettres de
l’alphabet? 2) Combien de noms peut-on former comportant une consonne et deux voyelles? 3) Combien de noms
peut-on former comportant une consonne et deux voyelles différentes?
Exercice 2 :On veut étudier l’influence de l’ordre de la prise de trois médicaments sur l’efficacité d’un
traitement constitué par ces trois produits. De combien de façons possibles peut-on organiser ce traitement ?
Exercice 4 : 1) Dans un lot de vingt pièces fabriquées, on en prélève simultanément quatre. Combien de
prélèvements différents peut-on ainsi obtenir ? 2) On suppose alors que sur les vingt pièces, quatre sont
mauvaises. Dans combien de prélèvements : a) les quatre pièces sont bonnes? b) au moins une pièce est
mauvaise? c) une et une seule est mauvaise? d) deux au moins sont mauvaises?
Exercice 5 : Une urne contient deux boules rouges, trois boules vertes et six boules blanches. Une boule rouge
permet de gagner 5 euros, chaque boule verte permet de gagner 15 euros et les boules blanches ne rapportent
rien. Un joueur tire simultanément cinq boules. Quelle est la probabilité pour que ce joueur gagne exactement
40 euros?
Exercice 6 : Une urne contient une boule rouge, trois boules vertes et seize boules blanches. La boule rouge
permet de gagner 10 euros, chaque boule verte permet de gagner 5 euros et les boules blanches ne rapportent rien.
Un joueur tire simultanément cinq boules. Quelle est la probabilité pour que ce joueur gagne exactement 10 euros?
On veut étudier l’influence de l’ordre de la prise de trois médicaments sur l’efficacité d’un traitement constitué
par ces trois produits. De combien de façons possibles peut-on organiser ce traitement ?
Exercice 7 : Les tests utilisés pour diagnostiquer la présence du virus VIH qui cause le SIDA sont souvent
imparfaits, et peuvent donner des résultats appelés faux positifs (la personne n'a pas le virus, mais le test le
détecte) ou faux négatifs (la personne a le virus, mais le test ne le détecte pas). Dans le cas du VIH, les tests
utilisés ont un taux de faux positifs de 0.4% et un taux de faux négatifs de 3%. On suppose que 0.05% des
hommes sont infectés par le VIH. Définissons les événements suivants:
D = le test détecte le virus; A = avoir réellement le virus. 1) Déterminer, (𝐷/𝐴̅) , 𝑃(𝐷 ̅ /𝐴) , 𝑃(𝐴), 𝑃(𝐷̅ /𝐴̅) ,
̅
𝑃(𝐷/𝐴) , 𝑃(𝐴). 2) Trouver la probabilité qu'un homme testé positif pour le VIH soit réellement infecté par le
virus.
29
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS