Cours 4

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 44

MASTER - Année 1

Image et Son : Partie 2


Pierre Hanna
[email protected]

Image et Son – p.1/44


Processus aléatoire

Un processus aléatoire X[n, Ω] (ou signal aléatoire discret) est une fonction à
deux dimensions.
le temps,
la réalisation (notée Ω).
E (X) : l’espérance mathématique du processus aléatoire.

Image et Son – p.2/44


Processus aléatoire

Si n constant, le processus aléatoire X est une variable aléatoire caractérisée par


une loi de probabilité.
=⇒ domaine statistique =⇒ E (X) = hXi.

Si Ω est constant, le processus aléatoire est une fonction temporelle.


=⇒ domaine temporel =⇒ E (X) = X.

Image et Son – p.3/44


Stationnarité

Un processus aléatoire est stationnaire ssi ses propriétés statistiques sont


indépendantes de l’intervalle de temps
Avec t = {t1 ,t2 , . . . ,tn } et X(t) = {X(t1 ), X(t2 ), . . . , X(tn )}, l’hypothèse de
stationnarité peut s’écrire:

∀k ∈ N, ∀t, mk (t) = mk

Application: étude d’un signal sur une durée limitée...

Image et Son – p.4/44


Ergodicité

Un processus aléatoire est dit ergodique si les résultats des études de son
évolution au cours du temps sont les mêmes que les résultats des études sur les
réalisations successives.

E (X) = hXi = X

Application: Étude d’un signal sur le temps au lieu de différentes réalisations

Image et Son – p.5/44


Autocorrélation

L’étude des périodicités d’un signal peut s’effectuer à partir de l’observation des
similitudes du signal avec ce même signal décalé temporellement.
=⇒ fonction d’autocorrélation, notée Γ

Cas fini: Z ∞
∀τ , Γ(τ ) = x(t)x(t + τ )dt
−∞

Cas infini: Z T0
1
Γ(τ ) = lim x(t)x(t + τ )dt
T0 →∞ 2T0 −T0

Le temps de décalage est noté τ .

Image et Son – p.6/44


Autocorrélation

Définition statistique

Γ(τ ) = E [X(t)X(t + τ )]

La valeur de la fonction d’autocorrélation en 0 est la variance du signal


aléatoire, ou la puissance moyenne.

Γ(0) = E [X 2 (t)] = σ 2 = V (X)

Image et Son – p.7/44


Autocorrélation: application et limites

Fonction d’autocorrélation est en général appliquée à des signaux discrets de


longueur finie N échantillons.
L’algorithme de calcul:

1 k
∀τ ∈ [0; N − k], Γ(τ ) = ∑ x[i]x[i + τ ]
N i=0

Les choix de N et k sont prépondérants : la périodicité recherchée doit


notamment être inférieure à la durée correspondant au nombre d’échantillons
N − k.

Image et Son – p.8/44


Autocorrélation: propriétés

La fonction d’autocorrélation est une fonction paire:

∀τ , Γ(τ ) = Γ(−τ )

Valeur maximale lorsque le retard est nul (τ = 0):

∀τ , Γ(0) ≥ |Γ(τ )|

Dans le cas de signaux non infinis, qui exclut le cas de signaux


périodiques, la fonction d’autocorrélation converge vers 0 à l’infini:

lim |Γ(τ )| = 0
τ →∞

Image et Son – p.9/44


Autocorrélation: cas d’une sinusoïde
∀t, x(t) = a0 sin(2π f0 t + φ0 )

a20
Z T
0
∀τ , Γx (τ ) = lim sin(2π f0 t + φ0 ) sin(2π f0 (t + τ ) + φ0 )dt
T0 →∞ 2T0 −T0

Or sin(2π f0 (t + τ ) + φ0 ) = sin(2π f0 t + φ0 ) cos(2π f0 τ ) + cos(2π f0t + φ0 )


a20
Z T
0
∀τ , Γ x (τ ) = lim sin2 (2π f0 t + φ0 ) cos(2π f0 τ )
T0 →∞ 2T0 −T0
+ cos(2π f0t + φ0 ) sin(2π f0 t + φ0 ) sin(2π f0 τ )dt
a20 T0
Z
Γ x (τ ) = lim sin2 (2π f0 t + φ0 ) cos(2π f0 τ )
T0 →∞ 2T0 −T0

1
+ sin(4π f0 t + φ0 ) sin(2π f0 τ )dt
2
Les intégrales de sinus sont nulles (fréquence non nulle) et les intégrales de sinus au carré valent 12 :

a20
Z T
0
∀τ , Γ x (τ ) = lim sin2 (2π f0 t + φ0 ) cos(2π f0 τ )dt
T0 →∞ 2T0 −T0

a20
= lim 2T0 cos(2π f0 τ )
T0 →∞ 4T0

a20
= cos(2π f0 τ )
2 Image et Son – p.10/44
Densité spectrale de puissance

La densité spectrale de puissance (power spectrum) Sx d’un signal aléatoire x


est définie par la transformée discrète de Fourier de la fonction d’autocorrélation
Γ(τ ).

=⇒ contenu fréquentiel moyen d’un signal aléatoire:



Sx = ∑ Γ(τ ) exp− j2π f τ
−∞

La densité spectrale de puissance décrit la distribution de l’énergie du signal


selon les différentes valeurs de fréquences.

Image et Son – p.11/44


Théorème de Wiener-Khintchine

Soit X(k) la transformée de Fourier du signal x(n) et A(k) celle de son


autocorrélation Γ(τ ).

Le théorème de Wiener-Khintchine s’écrit:

∀k, A(k) = |X(k)|2

Image et Son – p.12/44


Moments

Un signal aléatoire est caractérisé par la connaissance de ses moments


statistiques et/ou temporels. Souvent, la connaissance des premiers moments
suffit.
Les moments d’ordre k, notés mk , et les moments centrés associés, notés σk , sont
définis par la relation:

mk = E (X k )
σk = E (X − mk )k

Image et Son – p.13/44


Moments d’ordre 1 et 2

Moment d’ordre 1 et moyenne

m1 = E (X)

En pratique, les signaux ont tendance à avoir une moyenne nulle.


Moment d’ordre 2

m2 = E (X 2 )

aussi appelé la variance V


=⇒ dispersion des valeurs du signal autour de la moyenne
L’écart-type, noté σ , est défini comme:

σX = m2 = V (X)
p

Image et Son – p.14/44


Moments d’ordre 3

Une grandeur appelée skewness et notée SX est définie à partir du moment


d’ordre 3:
E (X 3 )
SX =
σ3
=⇒ caractérise la symétrie de la densité de probabilité.

densité de probabilité symétrique ⇐⇒ un skewness nul


Plus la densité de probabilité est asymétrique, plus le skewness a une
grande valeur.

Image et Son – p.15/44


Moments d’ordre 4

Une grandeur appelée kurtosis et notée KX est définie à partir du moment d’ordre
4:
E (X 4 )
KX =
σ4
=⇒ caractérise la forme de la densité de probabilité.

Plus le kurtosis est important, plus la densité de probabilité est pointue.


un kurtosis faible signifie que la densité de probabilité est plate.

Image et Son – p.16/44


Kurtosis/Skewness : exemples

Loi de Distribution skewness kurtosis


Uniforme 0 1.8
Gaussienne 0 3.0
Rayleigh 0.631 3.245

Valeurs de skewness et kurtosis pour quelques distributions classiques.

Image et Son – p.17/44


Corrélation

Le coefficient de corrélation de deux variables aléatoires X et Y est défini par:

E (XY ) − E (X)E (Y )
p= p
E (X 2 )E (Y 2 )

Si les deux variables sont indépendantes, ce coefficient est nul, car

E (XY ) = E (X)E (Y )

Image et Son – p.18/44


Intercorrélation

La fonction d’intercorrélation est donnée par:

Γ(τ ) = E [X(t)Y (t + τ )]

Cette fonction présente les propriétés suivantes:


Si les deux signaux sont indépendants, cette fonction est nulle (la
réciproque n’est pas toujours vraie);
La fonction d’intercorrélation de deux sinusoïdes de fréquences
différentes est nulle;
La fonction d’intercorrélation d’un signal périodique et d’un bruit
aléatoire est nulle;
Application : détection de sinusoïdes dans du bruit

Image et Son – p.19/44


Densité de probabilité

La fonction de densité de probabilité (PDF) d’une variable aléatoire X, notée ρ X


est la probabilité associée à chaque valeur possible de la variable.

La probabilité d’obtenir une valeur comprise entre x et x + dx est ρ (x)dx.

Cette fonction est normalisée:


Z ∞
ρX (x)dx = 1
−∞

Image et Son – p.20/44


Estimations

Estimation de pdf =⇒ Histogramme

Estimation de moments:
Z ∞
E (X) = xρX (x)dx
−∞

N
E (X) = ∑ x[n]ρX (x[n])
0

Image et Son – p.21/44


Somme de PDFs

Variable aléatoire Z : la somme de deux variables aléatoires indépendantes X et Y


ρZ (x0 ) : la somme fasse x0 .

Si la variable aléatoire X prend la valeur x0 (probabilité ρX (x0 )), la variable


aléatoire Y doit donc prendre la valeur (x0 − x0 ) (probabilité ρY (x0 − x0 )).

Z ∞
ρX+Y (x0 ) = ρX (x0 )ρY (x0 − x0 )dx0
−∞

Cette relation est en fait la convolution des deux PDFs:

ρX+Y (x0 ) = ρX (x0 ) ∗ ρY (x0 )

Image et Son – p.22/44


Loi uniforme

La loi de distribution uniforme : probabilité constante sur l’intervalle des valeurs


possibles, noté [a; b]:

1
∀x ∈ [a; b], ρ (x) =
b−a

Algorithme: en C, la fonction rand

Image et Son – p.23/44


Loi de Gauss

1 −(x − x0 )2
ρ (x) = √ exp[ 2
]
σ 2π (2σ )
x0 représente la valeur moyenne
σ représente l’écart-type.

ρ max
ρ(x)

x0
x

Image et Son – p.24/44


Théorème central limite

La somme à l’infini de variables aléatoires indépendantes, de même loi, moyenne


et variance (finie), est une variable aléatoire qui suit une loi de Gauss.

Si Xn sont des variables aléatoires de variance σ , de moyenne x0 , et:

∑Ni=1 Xi − Nx0
Yn = √
σ N

alors limN→∞ Yn suit une loi de Gauss.

Phénomènes aléatoires naturels à tendance gaussienne. . .

Image et Son – p.25/44


Loi de Gauss : algorithme

repose sur le théorème central limite:


=⇒ addition d’un grand nombre de valeurs uniformément distribuées (notées
xu ): le nombre total obtenu, noté Xig suit une loi de Gauss:

N
Xg = ∑ xuj
j=1

Image et Son – p.26/44


SNR

Le rapport signal sur bruit (SNR pour Signal-to-Noise Ratio) est défini par la
rapport entre l’énergie du signal s sur l’énergie du bruit b:

Es
SNR =
Eb

Le SNR est souvent représenté sur une échelle logarithmique:

SNRdB = 10 log10 (SNR)

Image et Son – p.27/44


Signaux aléatoires : bruit

En signal, le bruit est un signal perturbant assimilé à un signal aléatoire.

En pratique : bruit toujours présent

Différents types de bruit:


Bruit thermique
Bruit blanc
Bruit coloré
Bruit rose
Bruit brownien
...

Image et Son – p.28/44


Bruits thermiques

Introduite en électronique au début du 20ème siècle par Johnson et Nyquist.

Le bruit : mouvements désordonnés (aléatoires) des porteurs de charges


(électrons) d’un matériau sous l’influence de la température (non nulle sur
l’échelle Kelvin) =⇒ neige sur la télé

=⇒ bruit de Johnson ou de Nyquist, ou encore bruit thermique

Image et Son – p.29/44


Bruit blanc

Analogie avec la lumière blanche (présence de photons de toutes les valeurs


d’énergie, et donc de toutes les couleurs)

Spectre de fréquence continu et d’amplitude moyenne constante indépendante


des fréquences:
∀f, hX( f )i = X0

Le bruit blanc reste un modèle théorique et un tel bruit ne peut pas exister
naturellement car il aurait sinon une puissance infinie:
Z ∞
P= X 2 ( f )d f
0

Image et Son – p.30/44


Bruit blanc : propriétés

Bruit blanc B[n] est représenté par des échantillons de moyenne nulle,
indépendants, mais qui suivent la même loi de distribution.

∀n, E (B[n]) = 0

∀n, ∀τ 6= 0, Γ(τ ) = E (B[n]B[n + τ ]) = 0

En calculant la fonction d’autocorrelation Γ pour τ = 0:

Γ(τ = 0) = E [x2 (n)] = σx2

La fonction d’autocorrelation d’un bruit blanc est décrite par:

Γ(τ ) = σx2 δ (τ )

Image et Son – p.31/44


Bruit blanc : algorithme

Distribution uniforme:

∀(x1 , x2 ) ∈] − 1; 1]2 , p(x = x1 ) = p(x = x2 )

La fonction de densité de probabilité ρ employée est donc définie par:

1
∀x ∈] − 1; 1], ρ (x) =
2

Image et Son – p.32/44


Bruit blanc gaussien : algorithme

La somme de M = 12 variables uniformes Xi , choisies entre 0 et 1, est suffisante


pour avoir une bonne approximation:

M
∀m, Xm = ∑ Xmi
i=1

M
M
∀m, E (Xm ) = ∑ E (Xmi ) = 2
i=1

ainsi que la variance:

M
M
∀m, V (Xm ) = ∑ V (Xmi ) =
i=1 12

Image et Son – p.33/44


Bruit blanc gaussien : algorithme

M variables aléatoires distribuées selon une loi de Gauss de moyenne m et de


variance σ 2 :
Data : N, M, m, σ
Result : tableau samples de taille N
début
pour i = 0 à N − 1 faire
sum = 0;
pour j = 0 à M − 1 faire
sum = sum + rand(0,1);
fin
samples[i] = σ .(sum- M2 )+m;
fin
fin

Image et Son – p.34/44


Bruit rose

Les bruits peuvent être considérés comme rose (pink noise) si leur distribution de
puissance moyenne (ou énergie sur une longue période de temps) suit une
échelle logarithmique.

=⇒ leur spectre d’amplitude soit proportionnel à l’inverse de la fréquence:

S0
∀ f ≥ fmin , S( f ) =
f

Ainsi, la puissance du bruit est aussi importante dans l’octave [200; 400]Hz que
dans l’octave [2000 − 4000]Hz:

2f
Z 2f
∀ f ≥ fmin , S( f )d f = S0 ln = S0 ln(2)
f f

Image et Son – p.35/44


Bruit rose

Bruit rose : bruit en 1f .

1
S(2 f ) = S( f )
2

Spectre caractérisé par une baisse de −3dB par octave (à peu près −10dB par
décade):
S( f )
∀ f ≥ fmin , 10 log = −10 log 2 = −3
S(2 f )

Applications nombreuses : biologie, astronomie, géologie, . . .

Image et Son – p.36/44


Bruit rose : algorithme

Principe:

Chaque échantillons est la somme de n variables aléatoires.


Pour avoir l’échantillon, on ne retire qu’un certain nombre de ces
variables.

Comme les hautes fréquences sont atténuées, deux valeurs successives vont être
proches: peu de variables retirées.

Image et Son – p.37/44


Bruit rose : algorithme

Data :M
Result : tableau samples de taille 2M
début
pour i = 0 à M − 1 faire
oldbit[i] = 1;
fin
pour K = 0 à 2M − 1 faire
K = bit[0], bit[1], . . . , bit[M-1];
sum = 0;
pour i = 0 à M − 1 faire
si bit[i] 6= oldbit[i] alors
d[i] = rand(0.1);
fin
sum = sum + d[i];
oldbit[i] = bit[i];
fin
samples[K] =sum;
fin
fin
Image et Son – p.38/44
Bruit rose : algorithme

indice i 0 1 2 3 4 5 6 7
bits 000 001 010 011 100 101 110 111
retirages 3 1 2 1 3 1 2 1

Image et Son – p.39/44


Bruit brownien

Son nom vient des mouvements dits browniens des molécules dans un fluide. On
parle aussi de marche aléatoire (random walk).

Les bruits dits browniens sont les bruits dont les spectres d’amplitude sont
proportionnels à l’inverse de la fréquence au carré. =⇒ bruit en f12

Le spectre peut donc s’écrire sous la forme:

S0
∀ f ≥ fmin , S( f ) = 2
f

S(2 f ) = 14 S( f )
Spectre caractérisé par une baisse de 6dB par octave.

Image et Son – p.40/44


Bruit brownien: algorithme

Data :N
Result : tableau samples de taille N
début
sum = rand(−1,1);
oldsum = sum;
pour i = 0 à N − 1 faire
sum = oldsum + rand(−0.1,0.1);
tant que sum > 1.0 OU sum < −1.0 faire
sum = oldsum + rand(−0.1,0.1);
fin
samples[i] =sum;
oldsum = sum;
fin
fin

Image et Son – p.41/44


Estimation de la DSP

La densité spectrale de puissance obtenue par transformée de Fourier d’un signal


aléatoire n’a pas forcément une grande signification.

Deux méthodes principales pour affiner l’estimation de la DSP:


Lissage du spectre
Moyenne de spectres à court-terme

Image et Son – p.42/44


Filtrage et signaux aléatoires

Effet du filtrage (réponse impulsionnelle h) sur un signal aléatoire x:

y(n) = x(n) ∗ h(n)

La densité spectrale de puissance Sy du signal obtenu y est donc:

Sy ( f ) = |H( f )|2 Sx ( f )

où H( f ) représente la réponse fréquentielle du filtre appliqué. Or Sx ( f ) = σx2 :

Sy ( f ) = |H( f )|2 σx2

Nous pouvons donc remarquer le signal obtenu après filtrage d’un bruit blanc,
n’est plus un bruit blanc. La densité spectrale de puissance prend la forme de la
réponse fréquentielle du filtre.

Image et Son – p.43/44


Bilan TSN

Echantillonnage
Transformée fourier
Analyse spectrale
Convolution
Transformée Z
Filtres FIR, IIR
Signaux aléatoires

Image et Son – p.44/44

Vous aimerez peut-être aussi