Cours Proba
Cours Proba
Cours Proba
20 octobre 2010
Département informatique
UFR Mathématiques Informatique
Université Bordeaux I
Année académique 2010 - 2011
Table des matières
1 Préambule . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1 Calcul, algèbre et combinatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3
Chapitre 1
Préambule
The capricious gods that were previously invoked to explain the lack of predicta-
bility in the world have been replaced by mathematical, statistical and computer-
based models that allow us to understand and manipulate uncertain events.
5
6 1 Préambule
[BMPS98] Anne Brygoo, Michelle Morcrette, Odile Paliès, and Michèle Soria. Initiation
à la programmation par Word et Excel, Principes et macros. Vuibert, 1998.
[BPSD07] Anne Brygoo, Maryse Pelletier, Michèle Soria, and Séverine Dubuisson. Pro-
grammation et Algorithmique en VBA pour Excel. Dunod, 2007.
[Bré09] Pierrre Brémaud. Initiation aux probabilités et aux chaînes de Markov. Sprin-
ger, 2009.
[Isa05] Richard Isaac. Une initiation aux probabilités. Vuibert, 2005.
7
Chapitre 2
Rappels
9
10 2 Rappels
2.2 Dénombrement
Exercice 2.15 Loto Au loto, quelle est le nombre de grilles qui ont k numéros
gagnants ? (pour k = 3, 4, 5, 6 sur une grille de taille 49).
Exercice 2.16 Jeu de cartes Dans un jeu de 32 cartes, on choisit 5 cartes au
hasard (ces 5 cartes s’appellent une "main").
– Quel est le nombre total de mains que l’on peut obtenir ?
– Combien de mains contiennent exactement 4 as ?
– Combien de mains contiennent exactement 3 as et 2 rois ?
– Combien de mains contiennent au moins 3 rois ?
– Combien de mains contiennent au moins un as ?
15
16 3 Probabilités : propriétés élémentaires
Fig. 3.1 Un évènement représenté classiquement à l’aide d’un diagramme de Venn. In-
tuitivement, sa probabilité est proportionnelle à son aire (relative au rectangle englo-
bant représentant Ω .
culabilité des probabilité lorsque l’on fait des unions et/ou des intersections finies ou
infinies. Ces calculs font aussi appel à la théorie de l’intégration (la théorie de la me-
sure), incontournable lorsqu’il s’agit d’utiliser les probabilités pour décrire le monde
des particules en physique, par exemple.
18 3 Probabilités : propriétés élémentaires
Exercice 3.4 Le bon choix Vous jouez à un jeu télévisé pour gagner un PC
de dernière génération. Le PC se trouve derrière une porte parmi trois A,
B ou C ; les deux autres portes cachent des babioles. Après avoir fait votre
choix, le présentateur télé ouvre une porte derrière laquelle se trouve un pre-
mière babiole.
Il vous propose soit de rester sur votre premier choix, soit d’échanger et
d’opter plutôt pour la porte qu’il n’a pas ouverte ... Avez-vous avantage à
rester sur votre premier choix ou à changer ?
Etudiez d’abord vos chances de gagner en faisant l’hypothèse que vous
changez de porte quoiqu’il arrive. Puis étudiez le cas où vous ne changez pas
de porte.
A partir de l’un (ou des deux) de ces moyens de base, fabriquer une mé-
thode permettant de simuler le lancer d’un dé équiprobable à six faces. Vous
prendrez soin de vérifier empiriquement que votre tirage aléatoire est bien
équiprobable.
Simulez l’expérience du chevalier de Méré et constater le résultat théo-
rique de l’exercice 3.3.
Solution
Fig. 3.3 Code python simulant l’expérience de Méré. On peut, comme pour le tirage de
Bernouilli (Fig. 3.2), calculer empiriquement la fréquence de succès de l’expérience.
Exercice 3.12 Générer des entiers En machine, les entiers sont décrits par
des vecteurs de bits de taille N (= 32 ou 64). On peut donc penser générer
aléatoirement des entiers en jouant à pile ou face N fois avec p = 1/2 et
en prenant le résultat du jeu comme résultat. Une suite générée ainsi forme
t-elle une suite aléatoire d’entiers ?
Ecrivez un court programme qui tire au hasard un nombre entiers de l’en-
semble {0, 2N − 1} de cette façon (N = 32 ou 64 selon l’architecture de la
machine utilisée).
Fig. 3.4 Ces deux histogrammes illustrent la répartition des entiers générés par la pro-
cédure. Le caractère uniforme de la génération aléatoire est révélé par l’allure “plate”
de l’histogramme. Remarquez que l’on perd ce caractère plat et permet de voir l’aspect
chaotique du tirage aléatoire dès lors que l’histogramme contient trop de classes.
Fig. 3.5 Code python générant des entiers aléatoires en base 2, en simulant une loi bi-
nomiale de paramètre p = 1/2 (puis en retournant l’entier converti en base 10).
Fig. 3.6 On choisit une corde aléatoirement en choisissant au hasard un point du cercle.
Les trois figures illustrent les trois espaces de probabilités considérés pour donner une
solution. Chacune décrit ce que l’on entend par “choisir une corde au hasard” (un point
ω dans le cercle ; un couple de points (C, D) ∈ [0, 2π] × [0, 2π] sur la circonférence du
cercle ; un rayon déterminé par un angle θ ∈ [0, 2π] et un point C ∈ [0, 1] sur ce rayon ).
La zone grisée correspond à chaque fois à l’évènement A.
P (X = m, Z > m) + P (X = n, Z < n)
= P (X = m)P (Z > m) + P (X = n)P (Z ≤ n)
1
PN 1
Pn
= 2 k=m+1 P (Z = k) + 2 k=0 P (Z = k)
Pn
= 1/2 + k=m+1 = 1/2 + P (m + 1 ≤ Z ≤ n) ≥ 1/2
Chapitre 4
Indépendance et probabilités
conditionnelles
P (A ∩ B)
P (A|B) = (4.1)
P (B)
Notez au passage qu’on a
P (A ∩ B) = P (A|B)P (B).
Evènements indépendants L’évènement A ne dépend pas de l’évène-
ment B si on a P (A|B) = P (A) : le fait qu’on suppose que B se soit pro-
duit n’influe pas sur la probabilité d’observer A. On en déduit P (A ∩ B) =
27
28 4 Indépendance et probabilités conditionnelles
P (A)P (B) et que par conséquent, on a aussi P (B|A) = P (B). On dit alors
que ces évènements sont mutuellement indépendants.
Exercice 4.1 Poker Vous jouez au poker, version Texas Hold’em 1 . Le crou-
pier distribue les cartes et vous recevez vos deux cartes : un as et un valet de
pique ( !).
1. Quelle est la probabilité que vous obteniez une quinte flush royale ? (une
série de cinq cartes dans la même couleur allant de l’as au 10).
2. Quelle est la probabilité que vous obteniez un full formé de trois as et de
deux valets ?
Exercice 4.2 Bits Des bits sont envoyés à la suite sur un canal, et sont égaux
soit à 0, soit à 1 avec même probabilité.
1. Vous enregistrés deux bits à la suite b0 , b1 .
– Quelle est la probabilité que les deux bits aient des valeurs différentes
(l’un vaut 0, l’autre vaut 1) ?
– Quelle est la probabilité que le second bits soit égal à 1 si le premier est
égal à 0 ?
2. On note maintenant la valeur de quatre bits envoyés à la suite.
– Trouvez la probabilité d’avoir au moins deux bits égaux à 1 parmi les
quatre.
– Trouvez la probabilité d’avoir au moins deux bits égaux à 1 tout en
étant certain (sachant que) que l’un d’entre eux l’est.
– Trouvez la probabilité que tous les bits soient effectivement égaux à 1
sachant qu’au moins deux d’entre eux sont effectivement égaux à 1.
– Trouvez la probabilité d’avoir au moins deux bits égaux à 1 tout en
étant certain (sachant que) que l’un d’entre eux l’est et que le quatrième
bit est à 0.
Exercice 4.3 D’après le tableau suivant, dans quel(s) cas les évènements A
et B sont-ils indépendants ?
P (A) P (B) P (A ∪ B)
cas I 0.1 0.9 0.91
cas II 0.4 0.6 0.76
cas III 0.5 0.3 0.73
(faux positif ), ou qu’une page soit écrite en anglais natif alors que l’algo-
rithme affirme le contraire (faux négatif ). De la même manière, on peut
considérer les cas où l’algorithme dit juste (vrai positif : l’algorithme af-
firme que la page est en anglais natif et c’est bien le cas). ; ou le cas où la
page n’est pas en anglais natif comme l’affirme l’algorithme (vrai négatif ).
Soit Ω l’ensemble des pages web écrites en anglais, et désignons par
A l’évènement l’algorithme affirme qu’une page est en anglais natif, et B
l’évènement “une page est écrite en anglais natif”. La probabilité d’obser-
ver un faux positif est donc P (A|B c ). La probabilité d’observer un faux né-
gatif est P (B|Ac ).
Dans l’exemple, il est vraisemblable d’évaluer les probabilités P (A|B) et
P (A|B c ) en faisant tourner l’algorithme sur un échantillon de pages web
dont on contrôle a priori la qualité de l’anglais. (Il nous faut aussi pouvoir
évaluer la probabilité P (B)). Mais qu’en est-il de P (B|A) ? Il se trouve que
ces deux probabilités sont liés par la formule de Bayes :
P (A|B)P (B)
P (B|A) = (4.2)
P (A)
que l’on déduit simplement de la définition des probabilités P (A|B) et
P (B|A).
Ainsi, on peut faire jouer la dépendance d’une variable sur l’autre à
condition de pouvoir connaître au moins en partie (et dans l’un des deux
sens) les probabilités conditionnelles.
Selon que l’on connaît la valeur P (A) ou pas, on pourra utiliser la for-
mule (4.2) ou une forme étendue :
P (A|B)P (B)
P (B|A) = (4.3)
P (A|B)P (B) + P (A|B c )P (B c )
Pour montrer la formule (4.3), il suffit d’utiliser l’identité (4.1). On trouve :
P (B ∩ A)
P (B|A) =
P (A)
P (A ∩ B)P (B)
=
P (A)P (B)
P (A|B)P (B)
=
P (A)
P (A|B)P (B)
=
P (A ∩ B) + P (A ∩ B c )
P (A|B)P (B)
=
P (A|B)P (B) + P (A|B c )P (B c )
On met au point une heuristique (un algorithme) qui détecte si une page
web écrite en anglais est rédigée par un natif (quelqu’un dont l’anglais est la
langue maternelle). On évalue à 55% le pourcentage de pages sur le web qui
sont écrites en anglais par des natifs. L’heuristique réussit à détecter correc-
tement que la page est écrite par un natif dans 95% des cas lorsque la page
est effectivement écrite par un natif. Elle affirme cependant incorrectement
que la page est écrite par un natif alors que ce n’est pas le cas avec probabilité
1%.
Quelle est la probabilité qu’une page soit écrite par un natif lorsque l’heu-
ristique l’affirme ?
Exercice 4.9 Processeurs en panne Un contrôle systématique est effectuée
sur un ensemble de processeurs dont 15% présentent une panne non appa-
rente. Ce dépistage est débuté par un test qui donne 95% de résultats po-
sitifs pour les processeurs défectueux, et 10% de résultats positifs pour les
processeurs non défectueux. Quelle est la probabilité (conditionnelle) qu’un
processeur pris au hasard présente la panne sachant que le test a donné un
résultat positif ?
Exercice 4.10 Bayes encore Montrez une version généralisée de la formule
de Bayes qui implique trois évènements, A, B, C disjoints et complémen-
taires, c’est-à-dire que A ∪ B ∪ C = Ω et A ∩ B ∩ C = ∅. Soit un autre évè-
nement D. Exprimez P (A|D) en fonction des probabilités conditionnelles
P (B|D), P (C|D) (et des probabilités P (A), P (B), P (C), etc.).
Exercice 4.11 Barrettes mémoire Une usine fabrique des barrettes mé-
moire à l’aide de trois machines A, B et C. La machine A assure 20% de
la production et 5% des barrettes fabriquées par A sont défectueuses. La ma-
chine B assure 30% de la production et 4% des barrettes fabriquées par B sont
défectueuses. La machine C assure 50% de la production et 1% des barrettes
fabriquées par C sont défectueuses.
1. On choisit au hasard une barrette. Calculer les probabilités :
– pour que la barrette soit défectueuse et produite par A,
– pour que la barrette soit défectueuse et produite par B,
– pour que la barrette soit défectueuse et produite par C.
2. Calculer les probabilités pour qu’une barrette défectueuse :
– provienne de A,
– provienne de B,
– provienne de C.
Exercice 4.12 Règles des causes totales Soient A, B, C, D des évènements
tels que B, C et D sont mutuellement exclusifs et tels que B ∪ C ∪ D = Ω.
Montrez qu’on a :
Fig. 4.1 La courbe de gauche indique comment évolue la probabilité de perdre un pa-
quet en fonction de p (la probabilité de perdre un paquet sur l’un des segments. Les
courbes de la figures de droite donne l’évolution des probabilités conditionnelles en
fonction de p. Les probabilités conditionnelles concernant les deux derniers segments
décroissent alors que la probabilité conditionnelle concernant le premier segment tend
vers 1.
2. Les expressions pour les probabilités conditionnelles convergent vers 1/3 lorsque
p → 0. Elles sont donc non continues en ce point puisque ces probabilités sont évidem-
ment nulles si p = 0.
3. On suppose disposer d’un procédé pour déterminer si les données d’un paquet
ont subi un dommage.
4. Ce sont les cas où le module annonce qu’un message est indésirable alors qu’il ne
l’est pas.
Chapitre 5
Variables aléatoires, espérance et variance
Exercice 5.1 Casino Reprenez l’exemple du joueur de casino qui lance les
dés. Calculez les probabilités P (X = 1) et P (X = −2).
Exercice 5.2 Système actif/passif On effectue une séquence de N observa-
tions d’un système qui se trouve dans l’un de deux états 0 ou 1, avec proba-
bilité p d’être actif (valeur observée = 1). On considère la variable aléatoire
qui donne le nombre de fois où le système est actif (on observe la valeur 1).
Précisez ce qu’est Ω, définissez la variable aléatoire X. Calculez la proba-
bilité P (X = k).
35
36 5 Variables aléatoires, espérance et variance
1
Pn−1
6. Montrer que pour n ≥ 2, P (Xn = S) = 4 k=1 P (Xn−1 = B). En déduire
P (Xn = S).
Exercice 5.5 Soit a ∈ (0, 1/2) un nombre réel.
Dans une bourse de valeurs, un titre donné peut monter, rester stable ou
baisser.
Dans un modèle mathématique, on considère que :
– le premier jour le titre est stable
– si un jour n le titre monte, le jour n + 1 ; il montera avec probabilité
1 − 2a, restera stable avec probabilité a et baissera avec probabilité a
– si un jour n le titre est stable, le jour n + 1 il montera avec probabilité
a, restera stable avec probabilité 1 − 2a et baissera avec probabilité a
– si un jour n le titre baisse, le jour n + 1 il montera avec probabilité a,
restera stable avec probabilité a et baissera avec la probabilité 1 − 2a
On note Mn (resp. Sn , resp. Bn ) l’événement “le titre donné monte” (resp.
reste stable, resp. baisse) le jour n. On pose pn = P (Mn ), qn = P (Sn ) et
rn = P (Bn ).
a) Que vaut pn + qn + rn ? En déduire l’expression de rn en fonction de pn et
qn ,
b) Expliciter pn+1 (resp. qn+1 ) en fonction de pn , qn , rn ,
c) En déduire pn , qn puis rn ,
d) Donner la limite de ces trois suites et interpréter le résultat.
Une variable aléatoire calcule donc une valeur associée à toute épreuve
ω ∈ Ω ou à tout évènement A ⊂ Ω. Elle peut prendre ses valeurs dans
tout ensemble, bien que nous considérerons le plus souvent des variables
aléatoires à valeurs dans N ou R.
La distribution de probabilité d’une variable aléatoire décrit la probabi-
lité associée à chacune des valeurs qu’elle peut prendre. certaines distri-
butions de probabilités ont un caractère générique.
Fig. 5.1 La distribution binomiale peut être décrite à l’aide d’un histogramme ou d’une
courbe brisée. Observez sa symétrie lorsque p = 1/2 (gauche), qui est perdue lorsque
p 6= 1/2 (droite avec p = 1/3).
5.2 Espérance
Dès lors que l’on considère une variable aléatoire, on s’intéresse aux
valeurs qu’elle peut prendre et aux probabilités qu’elle atteigne effecti-
vement ces valeurs. On s’intéresse naturellement à la valeur moyenne de
la variable, qui donne une première indication de son “comportement”.
Dans l’exemple du joueur au casino, on peut effectivement se demander
de combien sera le gain du joueur en moyenne. En réalité, ce sont les gé-
rants du casino qui doivent prendre soin de calculer cette valeur, puisque
le joueur par nature espère pouvoir échapper à la loi des grands nombres !
5.2 Espérance 39
Exercice 5.7 Casino – encore Quel est l’espérance du gain du joueur de dés
au casino ?
Exercice 5.8 Une formule
P simple Soit X : Ω → N une variable aléatoire,
montrez que E(X) = n≥0 P (X ≥ n).
(1) M := L[1]
(2) pour j := 2 à n faire
(3) si L[j] > M alors M := L[j]
fin
Lors du traitement d’une liste de taille n :
– Quel est le nombre de comparaisons effectuées (ligne 3) ?
– Quel est le nombre d’affectations (lignes 1 et 3) dans le cas le plus favo-
rable ? le plus défavorable ?
Dans la suite, on suppose que les éléments de la liste sont deux-à-deux
distincts et que les n! permutations possibles ont la même probabilité d’ap-
paraître dans la liste. Soit p(n, k) la probabilité pour que, lors du dérou-
lement de l’algorithme sur une liste (aléatoire) L de taille n, k affectations
soient nécessaires.
– Montrez la récurrence suivante :
1 n−1
p(n, k) = p(n − 1, k − 1) + p(n − 1, k)
n n
pour n ≥ 2 et 1 ≤ k ≤ n. Il faut distinguer deux cas de figures et raison-
ner selon que le nme élément est maximal ou non.
– Soit En l’espérance mathématique (la moyenne) du nombre d’affecta-
tions effectuées lors du traitement d’une liste de taille n. Déduire de la
récurrence ci-dessus la récurrence sur En
1
En = + En−1 ,
n
Pn
dont on peut déduire En = k=1 k1 .
– Montrez que l’ordre de grandeur de En se compare à log n lorsque n →
∞.
Exercice 5.12 Simuler un loi binomiale Soit la variable aléatoire S =
X1 + · · · + Xn où les Xi correspondent à des évènements de Bernouilli avec
probabilité p. Donnez un procédé permettant de simuler cette variable aléa-
toire. En d’autres mots vous tirez au hasard des entiers variant de 0 à N , non
pas de manière uniforme mais de façon à ce que la probabilité d’obtenir
l’entier k soit égale à P (S = k).
X 1
E(X) = k(1 − p)k−1 p = ps0 (1 − p) =
p
k≥1
Fig. 5.2 La distribution de Poisson suit une courbe centrée en λ, qui décroît exponen-
tiellement et tend asymptotiquement vers 0 lorsque k → +∞ (gauche λ = 2, droite
λ = 5).
N −k p
=
k+1 1−p
λ
=
k+1
L’unique solution satisfaisant ces conditions nous donne :
λk
lim P (SN = k) = e−λ .
N →∞ k!
k
La distribution P (X = k) = e−λ λk! où λ est un nombre réel positif est
appelé la distribution de Poisson de paramètre λ.
Exercice 5.16 Dimensionner un tableau On doit prédimensionner un ta-
bleau, qui est une ressource pour un ensemble de processus : un processus
qui s’exécute a besoin d’une entrée dans le tableau. Si aucune entrée n’est
disponible alors il est mis en attente dans une file. On sait qu’en moyenne
λ processus s’exécutent en même temps. Comment dimensionner le tableau
pour que la probabilité d’avoir à mettre (au moins) un processus en attente
soi au plus de 10%.
Solution On suppose donc que le nombre de processus à traiter (à
chaque moment) est donné par une loi de Poisson de paramètre λ. Ce
nombre, k, doit être tel que la probabilité de dépasser laPtaille du tableau,
N soit au plus deP10%. En d’autres mots, on doit avoir k>N P (X = k) <
10%, ou encore k≤N P (X = k) ≥ 90%. La solution numérique exige de
recourir à une table de la loi de Poisson (ou encore de simuler la loi avec le
paramètre λ). Ainsi, lorsque λ = 10 un tableau de taille N = 14 suffit ; avec
λ = 5, on peut prendre N = 8.
Exercice 5.18 Clients Les clients arrivent dans une banque à un rythme
moyen de 40 clients par heure qu’on modélise par une loi de Poisson de pa-
ramètre 40 (avec l’unité de temps qui est l’heure). Sachant que 30 client sont
arrivés à la première heure, quelle est la probabilité pour qu’il y en ait 60 qui
arrivent dans les premières 90 minutes ?
5.3 Variance
X
P (X1 + X2 = z) = P (X1 = x)P (X2 = y)
x+y=z
X
P (X1 X2 ) = P (X1 = x)P (X2 = y)
xy=z
E(Z)
P (Z ≥ a) ≤ (6.1)
a
Inégalité de Chebyshev En particulier, si X : Ω → R est une variable
aléatoire alors pour tout > 0, on a :
2
σX
P (|X − E(X)| ≥ ) ≤ (6.2)
2
La preuve est relativement simple. On considère la variable aléatoire
indicatrice 1Z≥a . Cette variable vaut 1Z≥a (ω) = 1 exactement lorsque
Z(ω) ≥ a. Par conséquent, ∀ω ∈ Ω, Z(ω) ≥ a1Z≥a . Par suite, puisque l’es-
pérance est une fonction monotone, E(Z) ≥ aE(1Z≥a ) = aP (Z ≥ a).
Pour obtenir la seconde identité, on applique (6.1) à la variable aléatoire
|X − E(X)|2 et a = 2 .
La loi des grands nombres établit un lien entre probabilité et fréquence
empirique. Dans le jeu de pile ou face, avec probabilité 1/2 d’avoir pile ou
face, la loi nous assure que :
Sn 1
lim P ( − )=1
n→∞ n 2
le nombre de fois où l’on observe “pile” (la valeur de la variable Sn ) tend
vers 1/2 si l’on joue un grand nombre de fois. On le déduit de l’identité de
Chebyshev. En effet, soit X1 , . . . , Xn des variables aléatoires indépendantes
47
48 6 Lois des grands nombres
X1 + · · · + Xn σ2
P( − E(X1 ) ≥ ) ≤ X21 (6.3)
n n
V(X1 )
puisque E( X1 +···+X
n
n
) = E(X1 ) et V( X1 +···+X
n
n
) = n en vertu des
identités (5.3) et (5.5) et de l’exercice 5.26. Par suite :
X1 + · · · + Xn
lim P ( − E(X1 ) ≥ ) = 0. (6.4)
n→∞ n
C’est en ce sens que la moyenne empirique tend vers la moyenne pro-
babiliste. Cette identité est la loi faible des grands nombres.
La loi forte des grands nombres affirme que :
X1 + · · · + Xn
lim = E(X1 ) (6.5)
n→∞ n
selon laquelle la variable aléatoire du membre gauche tend vers la va-
riable constante de valeur E(X1 ) – encore faudrait-il préciser ici ce que
nous entendons par là puisqu’il s’agit de convergence en probabilité, mais
nous ne nous étendrons pas sur ce résultat.
Exercice 6.1 On modélise le nombre de téléchargements d’un fichier sur
une heure par une variable aléatoire d’espérance 50.
– Estimer la probabilité que le nombre de téléchargements dépasse 75 ?
– On sait de plus que la variance du nombre de téléchargements est de 25.
Estimer la probabilité que le nombre de téléchargements sur une heure
soit compris entre 40 et 60 ?
l’on s’écarte de la valeur prédite (1/3) d’au plus 0.2 avec probabilité au plus
1/100 ?
Exercice 6.4 Un fournisseur d’accès à Internet met en place un point lo-
cal d’accès, qui dessert 5000 abonnés. A instant donné, chaque abonné a
une probabilité égale à 20% d’être connecté. Les comportements des abon-
nés sont supposés indépendants les uns des autres.
– On note X la variable aléatoire égale au nombre d’abonnés connectés à
un instant t. Quelle est la loi de X ? Quelle est son espérance, son écart-
type ?
– Le fournisseur d’accès souhaite savoir combien de connexions simulta-
nées le point d’accès doit pouvoir gérer pour que sa probabilité d’être
saturé soit inférieure à 2,5%.
Exercice 6.5 On lance une pièce équilibrée. En utilisant l’inégalité de Che-
bychev (6.2), estimer le nombre de lancers nécessaires pour que la fréquence
de Pile observé au jeu de Pile ou Face soit comprise entre 0.4 et 0.6 avec une
probabilité au moins égale à 0.9.
Les méthodes de Monte Carlo sont une alternative souvent efficace aux
méthodes numériques (pour calculer ou approximer des fonctions). Elles
sont aussi conceptuellement faciles à appréhender et à implémenter. Pre-
nons un exemple pour illustrer notre propos.
Considérez la figure 3.4 et imaginons que l’on souhaite calculer l’aire de
l’ensemble A. La difficulté vient de ce que le contour de l’ensemble peut
difficilement être décrit par une fonction analytique (un cercle, une ellipse,
etc.). Du point de vue informatique, on peut imaginer que la courbe est
donnée sous la forme d’une ligne brisée – cela pourrait nous permettre de
réduire le problème par un calcul, fastidieux, d’aires de petits triangles. On
peut procéder différemment.
Il est facile de calculer l’aire du rectangle englobant Ω. On peut ensuite
raisonner de manière probabiliste : si on choisit “au hasard” un point (x, y)
dans le rectangle, la probabilité qu’il appartienne à l’ensemble A est don-
née par le ratio des aires (aire A / aire Ω). On peut donc procéder comme
suit. Convenons que le coin inférieur gauche du rectangle est à l’origine, et
que ses dimensions sont a × b (base × hauteur).
– On effectue un tirage aléatoire uniforme de points dans [0, a] × [0, b] ;
– On teste l’appartenance des points à l’ensemble A ;
– On calcule le ratio (nombre de points dans A) / nombre total de
points.
Les tirages aléatoires des coordonnées (x, y) se font de manière indé-
pendantes et selon des lois uniforme sur chaque intervalle. Plus le nombre
50 6 Lois des grands nombres
51
52 7 Probabilités et simulation, génération aléatoire
Exercice 7.7 Générer des entiers En machine, les entiers sont décrits par
des vecteurs de bits de taille N (= 32 ou 64). On peut donc penser générer
aléatoirement des entiers en jouant à pile ou face N fois et en prenant le
résultat du jeu comme résultat. Une suite générée ainsi forme t-elle une suite
aléatoire d’entiers ?
Ecrivez un court programme qui tire au hasard un nombre entiers de l’en-
semble {0, 2N − 1} de cette façon (N = 32 ou 64 selon l’architecture de la
machine utilisée).
Exercice 7.8 Générer des ensembles Etant donné une liste ordonnée de N
éléments distincts e1 , . . . , eN on peut coder un sous-ensemble F de E =
{e1 , . . . , eN } par un vecteur (b1 , . . . , bN ) de N bits 0 ou 1 où bi = 1 si et
seulement si l’élément ei ∈ F . Proposez une procédure pour générer aléa-
toirement de manière équiprobable un sous-ensemble. Implémentez-là.
Exercice 7.9 Graphe aléatoire Un graphe simple G est donné par un en-
semble de sommets V et d’arêtes E où E ⊂ V × V . Une arête e ∈ E est une
paire de sommets {u, v}. Erdös et Renyi ont proposé un modèle de graphe
7.1 Génération aléatoire 53
aléatoire qui consiste à effectuer pour chaque paire {u, v} un tirage de Ber-
nouilli avec probabilité p.
Soit Ω l’ensemble de tous les graphes simples sur un ensemble V et consi-
dérons la variable aléatoire X : Ω → N donnant le nombre d’arêtes d’un
graphe G.
– Quelle est la distribution de la variable X.
– Quel est le nombre moyen d’arêtes d’un graphe aléatoire selon le mo-
dèle Erdös-Renyi ?
– Donnez une implémentation de la procédure de tirage aléatoire d’un
graphe.
Exercice 7.10 Générer un arbre étiqueté Cet exercice se penche sur la géné-
ration aléatoire uniforme d’un arbre étiquetés. Un tel arbre T = (V, E = est
un graphe connexe non-orienté, sans cycle, sur l’ensemble V = {1, . . . , N }.
Ces structures sont très présentes en informatiques et dans des problèmes
divers de calculs de flots, de couverture de graphes, etc.
Travailler directement sur la structure de graphe pour tenter de générer
une telle structure n’est pas simple. En effet, comment déterminer les arêtes
e ∈ E à ajouter ? comment s’assurer que l’ajout d’une arête ne provoque
l’apparition de cycle , comment s’assurer de générer un graphe connexe ?
La solution passe par un codage de la structure en un objet plus simple,
au moins pour ce qui concerne la génération aléatoire. On peut coder un
arbre par une séquence de Prüfer ; c’est une séquence S = (s0 , . . . , sN −2 ) de
N − 2 entiers choisis parmi {1, . . . , N }. On l’obtient d’un arbre étiqueté en
appliquant la méthode suivante :
– (à répéter tant qu’il reste plus de deux sommets dans l’arbre courant T )
– identifier la feuille v de l’arbre courant ayant le numéro minimum ;
– ajouter à la suite S le seul sommet s adjacent à v dans l’arbre T cou-
rant ;
– enlever de l’arbre T courant le sommet v et l’arête incidente à v.
57
58 8 Variable aléatoire réelle, densité de probabilité
La loi de distribution uniforme sur l’intervalle [a, b) est une variable aléa-
1
toire réelle X de densité de probabilité fX (x) = b−a 1[a,b) où 1[a,b) est la
fonction indicatrice associé à l’intervalle [a, b). On dit alors que X suit une
loi uniforme sur l’intervalle [a, b).
En réalité, on connaît déjà cette loi. C’est celle qui sous-tend l’appel à
la fonction random() qui retourne un nombre réel aléatoire de l’intervalle
[0, 1). Cette fonction fait ce qu’on attend d’elle : elle choisit au hasard un
nombre réel parmi tous les nombres réels de l’intervalle [0, 1). Cet énoncé
n’est pas anodin n et pourrait soulever quelques interrogations : comment
peut-on faire un tirage aléatoire d’un nombre réel en machine alors qu’on
ne dispose que d’un nombre fini de représentations en machine ? La ques-
tion n’est en effet pas simple, et nous la passerons sous silence. Nous consi-
dérerons que cette loi uniforme est une brique de base pour toutes nos
constructions informatiques (et mathématiques).
Notez au passage que la variable aléatoire Xa,b uniforme sur [a, b) se
déduit de la variable X0,1 uniforme sur [0, 1) par multiplication Xa,b =
8.1 Lois continues classiques 59
bX0,1 − a (c’est bien ainsi que l’on peut procéder pour implémenter la va-
riable aléatoire uniforme sur [a, b)).
Fig. 8.1 La loi uniforme correspond à une distribution constante sur tout l’intervalle
[a, b) (avec ici a = 1, b = 5), l’aire sous la courbe étant égale à 1.
1
Exercice 8.1 Vérifiez que fX (x) = b−a 1[a,b) est bien une densité. Calculez sa
fonction de répartition (qui donne P (X ≤ x)). Calculez l’espérance mathé-
matique et la variance de la loi uniforme.
Exercice 8.2 Nous avons vu à l’exercice 3.9 comment simuler la loi de dis-
tribution uniforme sur l’intervalle [a, b).