Probabilités
Probabilités
Probabilités
Exemple 1 : On jette une pièce de monnaie deux fois et on s’intéresse au nombre de fois que pile
apparaît au cours des deux jets.
La variable aléatoire retenue peut donc prendre ces trois valeurs, son ensemble de définition est
donc : {0, 1, 2}
Une VA peut être discrète ou continue:
Une VA est dite discrète si l’ensemble des valeurs qu’elle peut prendre est fini.
Une VA est dite continue si elle peut prendre toute valeur à l’intérieur d’un intervalle donnée.
Loi de probabilité ;
On appelle loi de probabilité de X l’ensemble des couples (xi , pi)
Fonction de répartition:
On appelle fonction de répartition, la fonction F définie par F: R [0,1]
𝑭 ( 𝒙 )= 𝑷 ( 𝑿 ≤ 𝒙 )
Espérance Mathématique
On appelle espérance mathématique de X la moyenne des valeurs possibles pondérées par leur probabilité
𝑉 ( 𝑋 )=𝐸 ( 𝑋 )− ⌊ 2
𝑖 𝐸 ( 𝑋𝑖)⌋
2
On appelle fonction de densité de probabilité toute fonction satisfaisant aux 2 conditions suivantes:
Fonction de répartition :
Soit X une V.A continue et f sa densité de probabilité. La fonction de répartition de X est la fonction F tel que :
𝑥
𝐹 : ℝ ⟶ [ 0 , 1 ] 𝑋 ⟶ 𝑃 ( 𝑋 ≤ 𝑥 ) = ∫ 𝑓 ( 𝑥 ) 𝑑𝑥
−∞
Espérance Mathématique
+∞
𝐸 ( 𝑋 )= ∫ 𝑥𝑓 ( 𝑥 ) 𝑑𝑥
−∞
Variance :
II - LOIS DE PROBABILITES :
1 Introduction
Il est toujours possible d’associer à une variable aléatoire une probabilité et définir ainsi une loi de probabilité.
Lorsque le nombre d’épreuves augmente indéfiniment, les fréquences observées pour le phénomène étudié tendent vers
les probabilités et les distributions observées vers les distributions de probabilité ou loi de probabilité.
Identifier la loi de probabilité suivie par une variable aléatoire donnée est essentiel car cela conditionne le choix des
méthodes employées pour répondre à une question biologique donnée.
2- Lois discrètes
Par définition, les variables aléatoires discrètes prennent des valeurs entières discontinues sur un intervalle donné.
Ce sont généralement le résultat de dénombrement.
2-1 Loi de Bernoulli
Définition
Soit un univers Ω constitué de deux éventualités, S pour succès et E pour échec Ω = {E, S}
P(X = 0) = q et P(X =1) = p avec p+q = 1 est appelée loi de Bernoulli notée B (1, p)
Espérance et variance
L’espérance de la variable de Bernoulli est E(X) = p car par
définition
2.2.1 Définition
Décrite pour la première fois par Isaac Newton en 1676 et démontrée pour la première fois par le
mathématicien suisse Jacob Bernoulli en 1713,
La loi binomiale est l’une des distributions de probabilité les plus fréquemment rencontrées en statistique appliquée.
Ainsi la loi de probabilité suivie par la somme de n variables de Bernoulli où la probabilité associée au
succès est p, est la loi binomiale de paramètres n et p. notée : B(n,p)
La probabilité que Sn = k, c’est à dire l’obtention de k succès au cours de n épreuves indépendantes est :
𝑘 𝑘 𝑛 −𝑘
𝑃 ( 𝑆 𝑛= 𝑘) = 𝐶𝑛 𝑝 ( 1− 𝑝 )
Remarque : Le développement du binôme de Newton (p+q)n permet d’obtenir l’ensemble des probabilités
pour une distribution binomiale avec une valeur n et p donnée.
Il existe également des tables de la loi binomiale où les probabilités sont tabulées pour des valeurs n et p données.
Dans une expérience sur le comportement du rat, on fait pénétrer successivement n rats dans un
labyrinthe en forme de H. On étudie alors la probabilité que k rats empruntent la branche supérieure
droite du H.
A chaque épreuve, deux évènements peuvent se produire : soit le rat suit l’itinéraire voulu (succès) soit
il ne l’emprunte pas (échec). Sachant qu’il y a 4 itinéraires possibles , la probabilité du succès p = ¼ ; et
en respectant les hypothèse
Hypothèses :
- si les rats n’ont pas été conditionnés,
- si la branche supérieure droite ne comporte aucun élément attractif ou répulsif,
- si le choix de l’itinéraire d’un rat n’affecte pas le choix du suivant.
alors : la variable aléatoire X « itinéraire emprunté pour x rats » suit une loi binomiale
C)
La loi de Poisson découverte au début du XIXe siècle par le magistrat français Siméon-Denis
Poisson s’applique souvent aux phénomènes accidentels où la probabilité p est très faible (p <
0,05).
Elle peut également dans certaines conditions être définie comme limite d’une loi binomiale.
Ainsi, des évènements qui se réalisent de façon aléatoire comme des pannes de machines, des accidents d’avions,
des fautes dans un texte, …peuvent être considérés comme relevant d’un processus poissonnien.
Une variable aléatoire X à valeurs dans R suit une loi de Poisson de paramètre λ (λ > 0) ces pk sont donnés par :
2.3.2 Espérance et variance
Remarque : Il est à noter que dans le cas d’une variable aléatoire de Poisson, l’espérance et la variance
prennent la même valeur.
Ceci est un élément à prendre en compte lors des tests de conformité à une loi de probabilité.
Exemple :
Une suspension bactérienne contient 5000 bactéries/litre. On ensemence à partir de cette suspension, 50 boites de
Pétri, à raison d’1 cm3 par boite.
Si X représente le nombre de colonies par boite, alors la loi de probabilité de X est :
X → P (λ=5)
La probabilité qu’il n’y ait aucune colonie sur la boite de Pétri est :
P(X = 0) = 0,0067 soit approximativement 0,67 % de chance.
La probabilité qu’il n’y ait au moins une colonie sur la boite de Pétri est :
P(X > 0)=1- P(X = 0) = 1-0,0067 = 0,9933 soit 99,3 % .
Calculer l’espérance; la variance et l’écart type de la V.A X.
Dans le cadre de la culture bactérienne, le nombre moyen de colonies attendu sur la boite
de Pétri est : E(X) = λ = 5 colonies.
Ainsi si l’on effectue plusieurs cultures bactériennes (plusieurs boites de Pétri) à partir de la
même solution initiale, on attend en moyenne cinq colonies pour l’ensemble des boites.
P [X< 1.45]
P[X > 1.45]
P [−1.65 ≤ X ≤ 1.34]
P [|X| < 2.05]