Varbio PDF
Varbio PDF
Varbio PDF
Variables Aléatoires
Après avoir réalisé une expérience, on ne s’intéresse bien souvent à une certaine fonction
du résultat et non au résultat en lui-même. Lorsqu’on regarde une portion d’ADN, au lieu
de vouloir connaitre tout la suite de nucléotides, on peut vouloir juste connaitre le nombre
d’apparition d’un “”mot“’. Ces grandeurs (ou fonctions) auxquelles on s’intéresse sont en
fait des fonctions réelles définies sur l’ensemble fondamental et sont appelées variables
aléatoires.
Définition 0.1 Une variable aléatoire X est une fonction de l’ensemble fondamental Ω
à valeurs dans R, X : Ω → R.
Lorsque la variable X ne prend que des valeurs discrètes, on parle de variable aléatoire
discrète.
Un vecteur aléatoire X : Ω → Rd est une fonction X = (X1 , . . . , Xd ) à valeurs dans Rd
telle que les coordonnées Xi soient des variables aléatoires.
Pour tout intervalle [a, b] ⊂ R, l’ensemble {X ∈ [a, b]} = {ω ∈ Ω : X(ω) ∈ [a, b]} est un
événement.
Exemple 0.2 1. On jette deux dés distincts et on s’intéresse à la somme des points. On
note X cette variable aléatoire, elle est définie par
17
18 CHAPITRE 2. VARIABLES ALÉATOIRES
Définition 1.1 Soit X une variable aléatoire. La loi de probabilité de X est définie par
la fonction FX , appelée fonction de répartition de la variable X, définie par
FX : R → [0, 1]
x $→ IP(X ≤ x).
On dit que deux variables aléatoires X et Y ont la même loi si elles ont la même fonction
de répartition FX = FY .
Propriétés 1.4 La fonction de répartition est une fonction croissante à valeur dans [0, 1]
telle que lim FX (x) = 0 et lim FX (x) = 1, mais elle n’est pas forcément continue.
x→−∞ x→+∞
Remarque 1.5 Soit a ≤ b, on a IP(X ∈ [a, b]) = IP(X ≤ b) − IP(X < a).
Proposition 1.6 Si X est à valeurs discrètes dans {x1 , . . . , xn } (ou {x1 , . . . , xn , . . .}), la
loi de X est entièrement caractérisée par {IP(X = xi ) : i ≥ 1}. (En effet, voir p. 8)
On remarque que
1. pour tout i ≥ 1, IP(X = xi ) ∈ [0, 1],
! P
2. IP(X = xi ) = 1. (En effet, 1=IP(X ∈ R) = i≥1 IP(X = xi ).)
i≥1
Exemple 1.7 Reprennons les deux premiers exemples précédents, qui décrivent effective-
ment des variables discrètes. Pour trouver la loi de ces variables on utilise la proposition 1.6.
k 2 3 4 5 6 7 8 9 10 11 12
IP(X = k) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36
k 1 2 3 4 5 6
IP(Y = k) 1/36 3/36 5/36 7/36 9/36 11/36
FY (k) 1/36 4/36 9/36 16/36 25/36 1
La fonction de répartition de Y est
Fonction de Repartition de Y
1.1
1.0
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0.0
−1 0 1 2 3 4 5 6 7
−0.1
Exemple 1.8 On étudie les mésanges bleues parmi la population de mésange en Ille et
Vilaine. La mésange n’est pas un oiseau migrateur et vit en groupes formés de plusieurs
espèces de mésanges. On poste alors des observateurs à différents endroits dans le départe-
ment. On note p la proportion de mésanges bleues parmi la population de mésange. Quelle
est la probabilité que le nombre de mésanges bleues sur 1000 mésanges étudiées soit égal à
k?
20 CHAPITRE 2. VARIABLES ALÉATOIRES
La loi Binomiale est utilisée pour modéliser un “sondage avec remise“. C’est la loi du nombre
de succès lorsqu’on renouvelle n fois de manière indépendante une épreuve de Bernoulli de
paramètre p. On note X le nombre de succès obtenus à l’issue des n épreuves. Sa loi s’appelle
loi Binomiale de paramètres n et p. On a
" #
n
P (X = k) = pk (1 − p)n−k avec k ∈ {0, 1, .., n} .
k
On peut écrire le nombre de succès X à l’aide des résultats de chaque épreuve de Bernoulli.
On note Xi le résultat de la ième expérience :
$
1 si la ième expérience est réussie
Xi =
0 si la ième expérience est un échec
Exemple 1.9 Un lac contient N poissons. On en pêche m qu’on marque et qu’on remet
à l’eau. On pêche à nouveau n poissons. Quelle est la probabilité de pêcher k poissons
marqués ?
La loi hypergéométrique est utilisée pour modéliser un ”sondage sans remise“. C’est le cas
de pratiquement tous les sondages (notamment lorsqu’on veut étudier la conformité d’un
lot de médicaments, étudier le nombre de cellules atteintes par un virus, etc. . .).
0 10 1
@
m A@
N −m A
k n−k
La loi est donnée par : P (X = k) = 0 1 si k ∈ {0, .., min (m, n)}.
@
N A
n
Exemple 1.11 On lance une pièce truquée jusqu’à ce qu’on obtienne une fois "Pile". On
note p la probabilité de tomber sur “Pile”. On veut connaitre la probabilité d’avoir “Pile”
au premier lancer, au deuxième, . . ., au k ième lancer, . . .. On note X le nombre de lancers
nécessaires pour avoir un succès.
1. LOI DE PROBABILITÉ, FONCTION DE RÉPARTITION 21
1 − xn+1
1 + x2 + . . . + xn = .
1−x
Exemple 1.12 Une plaque d’Agar est une boîte de Pétri stérile qui contient un milieu de
culture utilisée pour la culture des micro-organismes. Elles sont traitées avec un antibio-
tique. Les bactéries qui sont réparties sur les plaques ne peuvent se multiplier sauf les rares
résistantes aux antibiotiques. Elles forment des colonies. Le décompte des colonies suit la
loi de Poisson.
λk −λ
La loi est donnée par P (X = k) = k! e avec k ∈ N.
Une formule utile :
! xk ∞
x2 x3
e =1+x+
x
+ + ... =
2 3! k!
k=0
Définition 1.13 Une variable aléatoire X est à densité, ou continue, s’il existe une
fonction f définie sur R telle que la fonction de répartition de X s’écrit
% x
∀x ∈ R FX (x) = f (t)dt
−∞
"
&b
Remarque 1.15 1. La probabilité IP(X ∈ [a, b]) = a f (t)dt correspond à l’aire de la
surface comprise entre la courbe de f et l’axe des abcisses sur l’intervalle [a, b].
2. La fonction de répartition d’une variable à densité est continue.
Exemple 1.17 Lors d’une étude du comportement animal, on a relaché des oiseaux dont
l’orientation a été rendue très difficile. On s’attend alors à ce que les oiseaux choisissent
au hasard leur direction. On peut modéliser la direction prise par un oiseau de la façon
suivante. On considère X l’angle entre le nord et la direction prise par l’oiseau (selon le sens
des aiguilles d’une montre). La variable X suit une loi uniforme entre 0 et 360 degrés.
Densité :
1
f (x) = si x ∈ [a, b]
b−a
= 0 sinon
Fonction de répartition :
F (x) = 0 si x < a
x−a
= si x ∈ [a, b]
b−a
= 1 si x > b
Exemple 1.18 Dans une substance radioactive, la désintegration des noyaux se fait de
façon spontanée. Le nombre de désintegration sur un intervalle de temps fixé suit une loi de
Poisson. Par contre le temps d’attente entre deux désintégrations est modélisé par une loi
exponentielle.
1. LOI DE PROBABILITÉ, FONCTION DE RÉPARTITION 23
Densité :
f (x) = λe−λx si x ≥ 0
= 0 si x < 0
2
1.5
0.5
0 1 2 3 4
x
Exponentielle(1)
Exponentielle(2)
Fonction de répartition :
F (x) = 0 si x < 0
−λx
= 1−e si x ≥ 0
La loi exponentielle est la seule loi continue qui vérifie la propriété d’absence de mémoire :
Si X ∼ E (λ), alors pour tout s, t > 0 IP(X > t + s|X > t) = IP(X > s).
La loi exponentielle est celle de la mortalité des êtres qui ne seraient pas soumis au veillisse-
ment : à chaque moment ils ont la même probabilité de mourrir dans l’unité de temps qu’il
leur reste, quelque soit leur âge.
' (
Loi Normale (ou loi Gaussienne), N m, σ 2 , avec m ∈ R, σ > 0 réel.
La loi Normale est une loi centrale dans la théorie des probabilités. Elle est notamment
très utilisée en statistique. Une grandeur influencée par un grand nombre de paramètres
indépendants est souvent modélisée par une loi normale (par exemple, les erreurs de mesures
lors d’une expérience).
Densité :
(x − m)2
1 −
f (x) = √ e 2σ 2 avec x ∈ R.
σ 2π
0.4
0.3
0.2
0.1
–4 –3 –2 –1 0 1 2 3 4
x
Normale(0,1)
Normale(0,4)
' (
Loi Log-Normale, LN m, σ 2 , avec m ∈ R, σ > 0 réel.
' ( ' (
Une variable X suit une loi Log-Normale LN m, σ 2 si ln(X) suit une loi normale N m, σ 2 .
Cette loi permet de modéliser par exemple le temps de survie des bactéries en présence de
désinfectant, le dosage de certains médicaments . . .
Densité :
(ln(x) − m)2
1 −
f (x) = √ e 2σ 2 avec x ∈> 0.
σx 2π
0.40
0.35
0.30
0.25
0.20
0.15
0.10
0.05
0.00
0 1 2 3 4 5 6 7 8 9 10
1.8
1.6
a=2 et b=0.5
a=2 et b=1
1.4 a=3 et b=1.5
a=4 et b=3
1.2
1.0
0.8
0.6
0.4
0.2
0.0
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0
On constate que pour a = 1, on retrouve la loi exponentielle. La loi exponentielle est celle de
la mortalité des être vivants qui ne seraient pas soumis au veillissement : à chaque moment
ils ont la même probabilité de mourrir dans l’unité de temps qu’il leur reste, quelque soit
leur âge. Plus a est grand plus le veillissement se fait pesant (la mortalité augmente avec
l’âge). Le cas a < 1 correspond à un monde dans lequel plus on veillirait, moins forte serait
la probabilité de mourir dans l’unité de temps qui vient.
L’espérance de gain, noté E[X], est alors E[X] = −3 · 1/6 + 1 · 1/2 + 2 · 1/3 = 2/3. Le joueur
gagne donc en moyenne 2/3 d’euros pour une mise de 1 euro. . .
Définition 2.1 L’espérance d’une variable aléatoire X est notée E[X]. Elle représente la
valeur moyenne prise par la variable X.
1. Si X est une variable discrète à valeurs dans D = {x1 , . . . , xn }, son espérance est
n
!
E[X] = x1 IP(X = x1 ) + . . . + xn IP(X = xn ) = xi IP(X = xi ).
i=1
2. Si X est une variable discrète à valeurs dans l’ensemble infini D = {xi : i ≥ 1}, lorsque
la somme est bien définie, son espérance est
+∞
!
E[X] = xi IP(X = xi ).
i=1
3. Si X est une variable à densité f , lorsque l’intégrale est bien définie, son espérance est
% +∞
E[X] = xf (x)dx.
−∞
2. Si X ≥ 0, alors E[X] ≥ 0.
3. Si X ≤ Y , alors E[X] ≤ E[Y ].
Exemple 2.3 Supposons que la durée de vie T d’une bactérie est modélisée par la loi
exponentielle de densité f (t) = λ exp(−λt) pour t ≥ 0 pour une certaine valeur de λ. Alors
sa durée de vie moyenne est E(T ) = 1/λ.
26 CHAPITRE 2. VARIABLES ALÉATOIRES
Proposition 2.4 Soit X une variable aléatoire, h une fonction définie sur R. Alors :
1. si X est une variable discrète à valeurs dans D = {x1 , . . . , xn }, on a
n
!
E [h(X)] = h(x1 )IP(X = x1 ) + . . . + h(xn )IP(X = xn ) = h(xi )IP(X = xi ).
i=1
2. si X est une variable discrète à valeurs dans l’ensemble infini D = {xi : i ≥ 1}, lorsque
la somme est bien définie, on a
+∞
!
E [h(X)] = h(xi )IP(X = xi ).
i=1
Définition 2.5 La variance d’une variable aléatoire X, notée V ar(X), est définie par
+ ,
V ar(X) = E (X − E(X))2
L’écart type est la racine carrée de la variance :
-
σ(X) = V ar(X).
Lorsqu’une variable X vérifie V ar(X) = 1, on dit que la variable est réduite.
+ ,
Remarque 2.6 La variance s’écrit aussi V ar(X) = E X 2 − E[X]2 .
Preuve. Il suffit de développer le carré et d’utiliser la linéarité de l’espérance. "
Exemple 2.8 Supposons que la durée de vie T d’une bactérie est modélisée par la loi
exponentielle de densité f (t) = λ exp(−λt) pour t ≥ 0 pour une certaine valeur de λ. La
variance de la durée de vie de la bactérie étudiée est V ar(T ) = 1/λ2 .
3. UNE FONCTION REMARQUABLE : LA TRANSFORMÉE DE LAPLACE 27
Définition 3.1 Soit X une variable aléatoire à valeurs dans R. Pour t ∈ R, sa transfor-
mée de Laplace est définie par
LX (t) = E[etX ]
pour t ∈ R.
1 1−p pet
Géométrique G(p) p p2 1 − (1 − p)et
t
Poisson P(λ) λ λ eλ(e −1)
Remarque 4.1 Dans Méthodes statistiques de P. Tassi (Ed. Economica), on retrouve les
principales lois de probabilité ainsi que leurs caractéristiques (espérance, variance, etc. . . ).
5. EXERCICES SUR LE CHAPITRE 2 29
Exercice 2.7.
Dans les expériences suivantes, définir la variable aléatoire considérée et chercher la loi (ou
les lois) la mieux adaptée au problème. Essayez d’expliquer d’où vient l’aléa.
1. Sur une plaque de verre quadrillée, on verse de façon homogène un liquide contenant
des cellules simples. On fait attention à ce que le liquide ait une épaisseur constante
sur la plaque. Sous le microscope nous comptons le nombre de carrés sans cellules,
avec une cellule, avec deux cellules, etc. . .
2. Une plaque d’Agar est une boîte de Pétri stérile qui contient un milieu de culture
utilisée pour la culture des micro-organismes. Elles sont traitées avec un antibiotique.
Les bactéries qui sont réparties sur les plaques ne peuvent se multiplier sauf les rares
résistantes aux antibiotiques. Elles forment des colonies. On décompte le nombre de
colonies.
3. Dans une substance radioactive, la désintegration des noyaux se fait de façon sponta-
née. On note λ la constante radioactive du noyau, i.e. la probabilité de désintégration
par unité de temps : entre les instants t + h et t la probabilité de désintégration du
noyau est λh. On s’intéresse au nombre de désintegration sur un intervalle de temps
fixé et au temps d’attente entre deux désintégrations.
Exercice 2.8.
Une urne contient 3 sortes de boules de poids différents : 7 boules de poids 1kg, 5 boules de
poids 3kg et 3 boules de poids 5kg.
On tire au hasard une boule de l’urne et on note X son poids.
1. Déterminer la loi de la variable X.
2. Calculer l’espérance et la variance de X.
Exercice 2.9.
Considérons deux parents hétérozygotes de génétopye Aa tels que leur enfants peuvent avoir
les génotypes AA, Aa ou aa avec probabilité
Exercice 2.10.
La proportion des groupes sanguins en France est environ :
Exercice 2.11.
Considérons les enfants de parents hétérozygotes de génétopye Aa. La distribution des en-
fants est
IP(AA) = 1/4 IP(Aa) = 1/2 IP(aa) = 1/4.
On choisit de façon aléatoire 240 de ces enfants. On définit N1 , N2 , N3 le nombre d’enfants
de génotype AA,Aa et aa respectivement.
1. Quelle est la loi de N1 ? N2 ? N3 ? Calculer l’espérance et la variance pour chaque
génotype.
2. Quel est le lien entre ces différentes variables ?
3. Vérifier que pour k1 , k2 , k3 ∈ N,
Exercice 2.13.
2
Soit X une v.a. de densité f définie par f (x) = 0 si x < 0 et f (x) = xe−x /2 sinon.
A-1 Vérifier que f est bien une densité de probabilité.
A-2 Chercher la loi et l’espérance de Y = X 2 .
On s’intéresse maintenant aux précipitations à Brest. On suppose que la durée (en heure) T
entre deux précipitations vérifie la relation T = λY , où λ est une constante. En consultant
les relevés météo, on se rend compte qu’il s’écoule au moins 24h consécutives sans pluie avec
une probabilité 0.09.
B-1 Déterminer λ.
5. EXERCICES SUR LE CHAPITRE 2 31
Exercice 2.14.
Soit X une variable aléatoire à valeurs dans N de loi de Poisson P(λ) :
λk −λ
P (X = k) = e avec k ∈ N
k!
Donner l’expression de la transformée de Laplace de X.
32 CHAPITRE 2. VARIABLES ALÉATOIRES