0% ont trouvé ce document utile (0 vote)
129 vues32 pages

Cours Probabilité PDF

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 32

Probabilités et Statistiques:

Quelques petits rappels

Christine Decaestecker & Marco Saerens

ULB & UCL

LINF2275
Probabilités et Statistiques: Introduction
• Démarche statistique:
Etude d’un ensemble d’objets (cas, individus, ...) sur lesquels on observe des
caractéristiques appelées «!variables!».
population = ensemble, collection d!’objets équivalents sensés partager des
propriétés communes.
Statistique = étude des propriétés générales des populations plutôt que des
propriétés particulières des individus.
• Ex: contrôle de qualité de pièces usinées:
Pour un certain type (une population) de pièces (fabriquées dans des conditions
déterminées): proportion de pièces défectueuses?
• Echantillonage:
Etude exhaustive d!’une population trop vaste (peut être infinie), difficile et/ou
coûteuse;
étude d’une partie (représentative) ou échantillon
LINF2275 Introduction 2
• Types de variable: (caractéristique, descripteur, attribut)
– qualitative: valeurs = labels d’appartenance à une catégorie
• nominale (sans notion d’ordre, ex: sexe, type de traitement, ...);
• ordinale (ordre sur les labels, ex : faible, moyen, fort);
– quantitative: à valeurs numériques
• entière (nombre fini ou dénombrable de valeurs, ex: nombre d’accidents de la
route par an);
• continue (toutes les valeurs d’un intervalle réel sont observables,
ex: température, pression sanguine, ...).
Variables quantitatives: les opérations arithmétiques (somme, moyenne, ...)
ont un sens;
Variables qualitatives: seules les opérations de comptage ont un sens!

LINF2275 Introduction 3
• Analyse statistique
= étude de la variabilité des caractéristiques des individus.
Des individus apparemment semblables ont généralement des valeurs
différentes pour les différentes variables qui les caractérisent.

• Utilités de l’analyse statistique:


– prévoir (de façon probabiliste) le comportement d’individus non encore
observés;
– réduire ou expliquer la variabilité à l’aide d’autres variables;
– utiliser la variabilité pour distinguer au mieux les individus (ou groupes
d’individus) entre eux.

LINF2275 Introduction 4
• Tableaux de données:
échantillon de n individus sur lesquels on observe p variables:
Variables
X1 X2 Xj Xp
I 1
n
2
d
i
v i xij
i
d
u n
s

notations vectorielles:
ième observation = vecteur xi!=![xi1, xi2, ..., xip]T

ou x(i) = [x1(i), x2(i),..., xp(i)]T : ième réalisation du vecteur aléatoire x

Le tableau de données = une matrice (xij) avec i = 1, ..., n et j = 1, ..., p


(utilisation d'outils du calcul matriciel)
LINF2275 Introduction 5
• Théorie des probabilités:
– théorie mathématique axiomatique (déconnectée de la réalité physique);
– permet de modéliser des phénomènes où le hasard (l'aléatoire) intervient
et d'en faire l'étude théorique (analytique).
= outil pour la statistique:

Statistique Probabilités
Observation de phénomènes concrets Modélisation de phénomènes aléatoires
• Observation de données: possibles • Modélisation des déviations entre
imprécisions, erreurs vraies valeurs et valeurs observées
• Distribution des valeurs d’une • Modélisation par des lois de probabilité
variable sur une population théoriques (gaussienne, poisson, …)
• Echantillonage des individus • Propriétés observées = variables
observés par tirage au hasard (assurer aléatoires Ë étude des répartitions,
la représentativité) des liens éventuels

LINF2275 Introduction 6
Probabilités = outils essentiels pour extrapoler:

observations lois de comportement


sur sur
échantillon(s) la population

STATISTIQUE INFERENTIELLE 1ère partie du cours


(essentiellement uni- et bi-variée) (revisions)

autre aspect de la statistique:

STATISTIQUE EXPLORATOIRE 2ème partie du cours


(essentiellement multivariée)

LINF2275 Introduction 7
• Statistique exploratoire:
(statistique descriptive, analyse de données, "data mining")
But:
synthétiser, structurer (extraire) l'information contenue dans les données

représentations des données:


tableaux, graphiques (visualisations), indicateurs numériques
Démarche

mise en évidence de propriétés de l'échantillon

suggérer des hypothèses sur la population, le phénomène,


le problème étudié

outils de base: algèbre linéaire, calcul matriciel, géométrie euclidienne,


informatique.
LINF2275 Introduction 8
• Exemples de tâches exploratoires:

Expliquer une variable Recherche de structures “naturelles”

continue ordonnée catégorielle

problème supervisé problème non-supervisé

régression classification clustering axes principaux


(approx. de fct.) (discrimination)
y • • •• ••
o o F2
• • •• •• • •• • o o
o
+
•• •••• •• o o
+ ++
•• •• •• • o + + + • • •
• • • ••• o + ++
• • • •• • o
o + +
++ • • • • • F1
+ + ++
• •• •• • o o + +
+ • •• • • •
• • •••• •• • • • • ••
• •• •
••• • • +
+ +++
• ••• ••••• • ••
o +
+ + + + ++ • • • • • •
• •••• • • •• • o + + • •
• •••• • •• ••••• + + + +
• •• •
• • • • • •• • o + + +
+

x
LINF2275 Introduction 9
• Démarche scientifique:
1) phase exploratoire (observations),
2) formulation d'hypothèses, de modèles, de règles,
3) validation.

• Outils de validation:
– Inférence: s'appuie sur des modèles probabilistes,
=> démarche analytique,
=> modèles mathématiques relativement "simples",
=> vue simplifiée parfois contestable du phénomène
étudié: les données doivent "coller" suffisamment
au modèle pour que la démarche soit valable.
– Procédure informatique: ne s'appuie que sur les données,
=> rééchantillonnage et vérification (à recommencer x fois),
=> outils informatiques: tests intensifs pour avoir une bonne
perception générale du phénomène
=> nécessite une quantité de données importante

LINF2275 Introduction 10
• Exemple: estimation d'une moyenne, intervalle de confiance
échantillon de n valeurs d'une variable X: x1, x2,..., xn
1 n
moyenne échantillon: x = Â xi dépend de l'échantillon analysé
n i=1

intervalle de confiance = intervalle autour de x : [ x - Dx , x + Dx ]


ayant une probabilité fixée (95%) de contenir la
moyenne population m

Méthode d'inférence:
suppose une distribution théorique (ex: normale) pour déterminer l'intervalle.

Méthode de rééchantillonnage: (principes de base)


– génère un grand nombre N d'échantillons similaires à l'échantillon de départ,
– calcule les N moyennes échantillon => distribution empirique,
– détermine l'intervalle contenant 95% des valeurs.

LINF2275 Introduction 11
Outils probabilistes de base (rappels)
• Expérience aléatoire: expérience où le hasard intervient rendant le résultat
imprévisible (Ex: lancer un dé)
ensemble de tous les résultats possibles = univers des possibles = W
(Ex: W = {1, 2, ..., 6})
Evénement: assertion relative au résultat d'une expérience,
se réalise ou non (Ex: obtenir un nbre pair)
= toute partie de W (Ex: {2, 4 , 6})
outils ensemblistes
• Soit C un ensemble d'événements = ensemble de parties de W satisfaisant les
propriétés suivantes (algèbre de Boole):
"A ŒC : son contraire ÿA ŒC (ÿA = W \ A)
(W , C) est un espace
"A1 , A2 ,K, An ŒC : U Ai ŒC
probabilisable
W ŒC
LINF2275 Proba. - rappels 12
• Loi de probabilité P: (W , C)’ [0,1] telle que
P (W) = 1 et "A1 , A2 ,K, An ŒC tels que Ai « A j = ∅ ("i ≠ j ),
on a P(U Ai ) = Â P(Ai )
(W , C, P) est un espace probabilisé
W
• Propriétés élémentaires
P (∅) = 0
A B
P (ÿA) = 1 – P (A)
P (A) ≤ P (B) si A Ã B
P (A » B) = P (A) + P (B) – P (A « B)

• Probabilités conditionelles - Indépendance


Proba. conditionelle de A sachant B (de proba. non nulle):

/
P (AB) = P (A « B) P (B)
A indépendant de B ssi P (AB) = P (A)
ssi P (A « B) = P (A) P (B)
LINF2275 Proba. rappels 13
• Théorème des probabilités totales:
" A1, A2, ..., An formant une partition de W (Ai « Aj = ∅ " i≠j, et » Ai = W)
"B P(B) = Âi P(B « Ai)
= Âi P(BAi) P(Ai)
en particulier: P(B) = P(BA) P(A) + P(BÿA) P(ÿA)

• Théorème de Bayes:
P(AB) = P(BA) P(A) / P(B)
Généralisation: si A1, A2, ..., An forment une partition de W
P(AiB) = P(BAi) P(Ai) / Âk P(BAk) P(Ak)
Ex d'utilisation: aide au diagnostique:
probabilité d'une affection étant donnés les résultats d'examens médicaux.

LINF2275 Proba. rappels 14


• Assignement d'une probabilité à un événement
– vision classique (jeux de hasard):
W est un ensemble fini de cas possibles dont chaque singleton (événement
élémentaire) a la même probabilité de se réaliser.
(Ex: lancer un dé parfait => W est constitué de 6 éléments équiprobables)
d'où: Nbre de cas favorables
P(A) = ––––––––––––––––––––
Nbre de cas possibles
utilisation de l'analyse combinatoire
ne convient pas si W n'est pas fini
vision utopiste de la réalité (équiprobabilité)
!
– vision "fréquentiste" (loi des grands nombres):
répéter un grand nbre de fois N l'expérience et observer le nbre de fois que
l'événement d'intérêt A se produit:
d'où: Nbre d'occurrences de A
f(A) = –––––––––––––––––––– et P(A) = lim f(A)
Nbre d'expériences (N) NÆ•

ne convient pas si l'événement n'est pas reproductible!


!
LINF2275 Introduction 15
– conception subjectiviste:
La probabilité objective d'un événement n'existe pas et n'est pas une grandeur
mesurable!
Probabilité = mesure d'incertitude variant avec les circonstances et l'observateur
=> mesure subjective
Contrainte: satisfaire aux axiomes du calcul des probabilités
=> permet de probabiliser des événements non reproductibles et non
aléatoires !
(Ex: Quelle est la probabilité qu'il pleuve demain?)
=> permet de modéliser l'incertain

Modélisation de l'incertain et de l'imprécis:


nouveaux développements théoriques (depuis les années 1950):
théories des possibilités, des fonctions de croyance et des ensembles flous
généralisation des axiomes des probabilités => plus grande souplesse
plus proche du raisonnement humain
LINF2275 Proba. rappels 16
Variables aléatoires et distributions
• Variable aléatoire: entité prenant différentes valeurs ('variable'),
chacune avec une certaine probabilité ('aléatoire')
– nbre fini ou dénombrables de valeurs: variable discrète
– toute valeur dans un certain intervalle de ¬: variable continue
• Loi de probabilité d'une variable aléatoire X:
assignation des probabilités sur les différentes valeurs de X (discrète)
ou sur des intervalles de valeurs de X (continue)
Pour une variable discrète: masses ponctuelles P(X = xi)
Pour une variable continue: densité de probabilité P(a < X < b)

P(xi)
Ex: X = nbre d'enfants
des familles européennes

0 1 2 3 4 5 6 7 8 9 10 >10
LINF2275 Proba. - rappel 17
• Fonction de répartition d'une variable aléatoire X:
F(x) = P(X < x) (fct monotone croissante)
d'où: P(a ≤ X < b) = F(b)– F(a)
Ex: fct de répartition d'une variable discrète :
F(x)
1

0 1 2 3 4 5 6 7 8 9 10 x

Ex: fct de répartition d'une variable continue :


F(x)
1

0 x
LINF2275 Proba. - rappel 18
• Densité de probabilité (variable continue):
f(x) est la fct de densité pour une variable X si pour tout intervalle
[a , b] de ¬ on a: b

P(a < X < b) = Ú f (x)dx = aire sous la courbe f(x)


a au dessus de [a, b]
d'où Ú f (x)dx = 1
¬
a

et F(a) = P(X < a) = Ú f (x)dx


-•

f(x)
P(a < X < b)

a b x

LINF2275 Proba. - rappel 19


• Moments d'une variable aléatoire X:
valeurs typiques:
– centrales: moyenne
– de dispersion: variance, écart-type (déviation standard)
– de forme de distribution: coefficient d'asymétrie ('skewness'),
d'aplatissement ('kurtosis').
notion d'espérance mathématique: E(X) = moyenne (= centre de masse):

– var. discrète: m = E(X ) = Â x P(X = x )


i
i i

– var. continue de densité f(x): m = E(X ) = Ú ¬


x f (x) dx (n'existe pas tjrs!)

– propriétés élémentaires: E(a) = a


E(aX) = a E(X)
E(X + Y) = E(X) + E(Y)

LINF2275 Proba. - rappel 20


variance: V(X) = s2 = E((X – E(X))2) (moment centré d'ordre 2)
= E(X)2 – µ2
écart-type: s = V (X)

Définition générale: moment centré d'ordre k = mk = E((X – E(X))k)


Coefficients d'asymétrie g1 (skewness) et d'aplatissement g2 (kurtosis):
m3 m4
g1 = –––– g2 = ––––
s 3 s4

• Médiane et percentile:
médiane: valeur x50 telle que P(X ≤ x50) = 0.50
percentile p%: valeur xp telle que P(X ≤ xp) = p%

LINF2275 Proba. - rappel 21


Lois de probabilité d'usage courant
Usage: Modélisation de systèmes physiques et de leurs résultats,
permet des prédictions à propos de ces systèmes.

Lois discrètes:
• Loi discrète uniforme:
X = {1, 2, ..., n} avec P(X = k) = 1/n ...
1 2 3 n
• Loi ou schéma de Bernouilli de paramètre p:
X = {0,1} avec P(X = 1) = p (apparition d'un événement) et
P(X = 0) = 1 – p (non-apparition d'un événement)

• Loi binomiale B(n, p):


n
somme de n variables de Bernouilli Xi indépendantes
X= Â Xi
de même paramètre p
i =1
LINF2275 Proba. - rappels 22
• Loi binomiale (suite)
X = nbre d'apparitions d'un événement parmi n expériences aléatoires
indépendantes dont le résultat est l'apparition ou non d'un événement de
probabilité p. D'où: P(X = k) = C k pk (1 - p)n -k = n! k n-k
n p (1 - p)
k! (n - k)!
• Loi de Poisson P(l):
X à valeur naturelle (entière, positive ou nulle) et satisfait:
lk
P(X = k) = exp(-l)
k!
= probabilité d'obtenir x événements indépendants pendant un temps T, si le
nbre moyen d'événements par unité de temps est c et l = cT
Bonne approximation d'une binomiale lorsque p est petit (événement rare):
B(n, p) ~ P(n p)
Ex d'application:
loi du nbre de suicides par an dans un pays donné
loi du nbre d'appels téléphoniques pendant un intervalle de temps T
LINF2275 Proba. - rappels 23
• Autres lois discrètes utilisant le schéma de Bernouilli:
– Loi géométrique: X = nbre d'essais jusqu'au 1er succès
P(X = k) = p(1 - p)k -1
– Loi binomiale négative: X = nbre d'essais jusqu'au rème succès
r -1 r k-r
P(X = k) = C k -1 p (1- p)

Lois continues
• Loi uniforme sur un intervalle [a, b]:
même probabilité sur tout l'intervalle: f(x) = 1/(b – a)

f(x)

1/(b – a)

a b x

LINF2275 Proba. - rappels 24


• Loi normale (ou gaussienne): N(m , s)
1 ÊÁ (x - m)2 ˆ
moyenne = m et variance = s2 f (x) = exp -
2p s Ë 2s 2 ¯
/
standardisation: Z = (X – m) s
f(x)
=> m = 0 et s = 1

• Rôle fondamental, fréquemment utilisé:


– loi limite sur des échantillons de grandes m-3s m-2s m-s m m+s m+2s m+3s
tailles; ±68%
– approximation des lois binomiale ±95%
(n grand) et poisson (l grand); ±100%
– théorème central-limite:
la somme de n variables aléatoires de
même loi de moyenne m et d'écart-type s
tend vers une normale.

LINF2275 Proba. - rappels 25


• Exemples d'autres lois continues:
– loi log-normale: si ln X est distribué selon une gaussienne
– loi exponentielle: f(x) = l exp(- lx) pour x > 0
...

Inégalité de Chebychev (1867):


Pour TOUTE variable aléatoire (discrète ou continue)
X de moyenne m et de variance s2,
P(X – m ≥ cs ) ≤ 1/c2

Ex: c P(X – m ≥ cs ) pour N(m, s)


1.5 ≤ 44.4% 13.4%
2.0 ≤ 25.0% 4.6%
3.0 ≤ 11.1% 0.27%
4.0 ≤ 6.3% 0.01%
LINF2275 Proba. - rappels 26
Couple de variables aléatoires
• Lois associées à un couple (X, Y) de var. discrètes:
y1 yj yq
– loi jointe = loi du couple (X,Y) définit par la table: x1
où pij = P(X = xi et Y = yj)
xj pij pi.
– lois marginales = lois des variables individuelles:
q
loi marginale de X: xp
P(X = xi ) = Â pij = pi.
j =1 p.j
p
loi marginale de Y:
P(Y = y j ) = Â pij = p. j
i =1

– lois conditionnelles: loi d'une variable étant donné la valeur prise par l'autre
loi de X si Y = yj : pi|j = P(X = xi | Y = yj) = pij/ p.j
loi de Y si X = xi : pj|i = P(Y = yj | X = xi) = pij/ pi.
– Indépendance de X et Y: ssi pij = pi. p.j ssi pi|j = pi. ssi pj|i = p.j

LINF2275 Proba. - rappels 27


• Conditionnement d'une var. continue Y par une var. discrète X
Fct de répartition conditionnelle: FY|x(y) = P(Y < y | X = x)
Fct de densité conditionnelle (si elle existe): fY|x(y) telle que b

P(a < Y < b | X = x) = Úf


a
Y x (y)dy
Densité marginale de Y: fY(y) = ∑x fY|x(y) P(X = x)

• Couple (X, Y) de variables continues (espace à 2 dimension)


Fct de répartition jointe de (X, Y): FXY(x, y) = P(X < x et Y < y)
Fcts de répartition marginales: FX(x) = P(X < x) = FXY(x, •) (pas de cond. sur y)
FY(y) = P(Y < y) = FXY(•, y) (pas de cond. sur x)
Fct de densité jointe de (X, Y) (si elle existe): fXY(x, y) si pour toute région A
de l'espace à 2 dimensions: P((X,Y) Œ A) = ÚÚA fXY(x, y)dx dy
= volume sous la courbe fXY(x, y) au-dessus de la région A

Indépendance de X et Y: FXY(x, y) = FX(x) FY(y) fXY(x, y) = fX(x) fY(y)


LINF2275 Proba. - rappels 28
Fcts de densité marginales: fX(x) = Ú¬ fXY(x, y)dy fY(y) = Ú¬ fXY(x, y) dx

Loi conditionnelle : /
fY|x(y) = fXY(y) fX(x) pour fX(x) > 0
indépendance ssi fY|x(y) = fY(y) ssi fX|y(x) = fX(x)

Espérance conditionnelle: E(Y | x) = Ú¬ y fY|x(y) dy


(rappel: pour une variable X de densité f(x) : E(X) = Ú¬ x f (x) dx )

Généralisation à un nbre n > 2 de variables:


– variables discrètes: P(X1 = x1, X2 = x2, ... Xn = xn )
– variables continues: A une région dans l'espace à n dimensions:
P((X1, ..., Xn) Œ A) = ÚÚ...Ú fX (x1, ..., xn) dx1 ... dxn
1 ... Xn
A
distributions marginales, conditionnelles, conditions d'indépendance

LINF2275 Proba. - rappels 29


• Covariance et corrélation:
= mesures de la variation conjointe de 2 variables:
covariance: sXY = cov(X,Y) = E((X – E(X)) (Y – E(Y)))
= E(X Y) – E(X) E(Y)
avec E(X Y) = Âi Âj xi yj pij pour des variables X et Y discrètes
= ÚÚ x y fXY(x, y)dx dy " " continues

/
corrélation: rXY = cor(X,Y) = cov(X,Y) sX s Y

Propriétés:
1) V(X + Y) = V(X) + V(Y) + 2 cov(X,Y).
2) SI X et Y indépendantes ALORS cov(X,Y) = 0 (car E(X Y) = E(X) E(Y))
! la réciproque est fausse: cov(X,Y) = 0 n'implique pas l'indépendance
3) -1 ≤ rXY ≤ 1
4) r2XY = 1 ssi Y = aX + b sXY et rXY = mesures de relation linéaire

LINF2275 Proba. - rappels 30


Soit distribution équiprobable des points (x, y):
y y
0 < cor < 1 cor = 0

x x

y y cor = 0
-1 < cor < 0

x x
LINF2275 Proba. - rappels 31
• Distribution normale bivariée

LINF2275 Proba. - rappels 32

Vous aimerez peut-être aussi