2 - Chapitre 2 - Cours TI

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 22

Chapitre 2

Introduction aux outils fondamentaux


d'analyse des images numériques

Un certain nombre d'outils fondamentaux se sont révélés au cours du temps plus ou moins
incontournables en traitement d’images numériques, que ce soit d'un point de vue pratique ou
théorique. Citons : la convolution, la transformée de Fourier, la corrélation, l'histogramme,
la transformée en ondelettes ... Nous donnons dans ce chapitre une introduction à ces outils.

Pour des raisons didactiques, la présentation est organisée selon les principaux modèles
mathématiques regroupant ainsi les outils. Ces différents modèles ne sont cependant ni exclusifs
ni cloisonnés.

1. Le modèle linéaire : la convolution


Dans le modèle linéaire, les opérateurs fondamentaux sont des applications linéaires. Parmi ces
derniers nous présentons, celui qui est considéré comme l'opérateur de base du traitement
linéaire des images, la convolution. Apparue très tôt dans les premiers systèmes d'analyse
d'images sous forme empirique, ce n'est que plus tard qu'on a fourni des justifications physiques
et fait le lien théorique avec les filtres et le traitement du signal.

Soit I une image numérique et soit h une fonction de [x1, x2] ×[y1, y2] à valeurs réelles. La
convolution de I par h est définie par :
𝑥2 𝑦2

𝐶𝑜𝑛𝑣(𝑥, 𝑦) = 𝐼(𝑥, 𝑦) ∗ ℎ(𝑥, 𝑦) = ∑ ∑ 𝐼(𝑖, 𝑗). ℎ(𝑥 − 𝑖, 𝑦 − 𝑗)


𝑖=𝑥1 𝑗=𝑦1

La fonction h est dite noyau de convolution.


Ce calcul consiste à remplacer la valeur de chaque pixel par la valeur du produit scalaire entre
les valeurs du noyau de convolution et les valeurs du voisinage du pixel considéré par rapport
à l'origine (0,0) du noyau de convolution (figure 1).
Figure 1 : Noyau de convolution

Dans cette expression on peut reconnaitre, h(x−i,y−j) qui comporte une opération de translation
par le vecteur (x,y) et une symétrie centrale (inversion des coordonnées i et j) : il s’agit du
déplacement de l’image h à la position (x,y), (h joue donc le rôle de fenêtre glissante). La
symétrie centrale est présente pour une raison technique.

Propriétés de la convolution :

 Commutativité :

 Associativité :

 Distributivité :

Exemple de calcul
La figure 2 donne un exemple de calcul du produit de convolution d’une image I de taille
5x5 par un noyau de convolution h de taille 3x3.
1 2 3 4
5 6 7 8
9 0 3 2
1 2 3 5
Image ‘I’
 44 92 120 115 
 2 4 5  
   93 167 159 166 
h   3 6 8 , I * h  
107 159 125 150 
0 9 1  
 93 38 76 75 
 
Après avoir retourné h, le premier élément est alors : 6x1+3x2+4x5+2x6=44.

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 2


1 2 3 9 8 7 1 9 0
 
( 𝑀 = (4 5 6) , 𝑀𝑟 = (6 5 4), hr  8 6 3 )
7 8 9 3 2 1 5 4 2

Figure 2 : Exemple de calcul du produit de convolution


La figure 3 montre une image convoluée avec un noyau h.

(a) (b)
Figure 3 : Exemple de convolution d’une image par un noyau (a) image originale
(b) image convoluée avec une matrice identité de 9x9 normalisée par (9x9)

2. Le modèle fréquentiel
2.1. La Transformée de Fourier Discrète
Le Transformée de Fourier Discrète tend à décrire l'image en termes de structures périodiques,
en la décomposant dans une base de fonctions périodiques simples, comme des sinusoïdes.

C’est un outil fondamental d'analyse en traitement du signal, sa version discrète peut être
appliquée avec profit aux images numériques. Si son utilisation en tant qu'outil analytique et
algorithmique s'est estompée en traitement d'images au profit d'approches mieux adaptées à la
localisation spatiale des fréquences (ondelettes), elle reste un outil théorique et pédagogique
important.
La transformée de Fourier permet la décomposition d'un signal f(x,y) en combinaison linéaire
de sinusoïdes complexes, dont les coefficients F[u, v] dit coefficients de Fourier, fournissent
des informations sur les fréquences (u, v) et permettent des manipulations dans le domaine
fréquentiel.
La Transformée de Fourier Discrète Bidimensionnelle Directe est donnée par :

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 3


où (x, y) sont les coordonnées du domaine spatial et (u, v) sont les coordonnées du domaine
fréquentiel.
La Transformée de Fourier Discrète Bidimensionnelle inverse est donnée par :

Propriétés de la Transformée de Fourier Discrète Bidimensionnelle


 Ecriture sous formes module/phase :

 Périodicité :

 Linéarité :

 Correspondance convolution/produit :

 Translation spatiale/fréquentielle :

 Dérivation :

 Théorème de PARSEVAL :

Les figures 4 et 5 montrent deux exemples de la Transformée de Fourier Discrète

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 4


(a) (b)
Figure 4 : Exemple de la TFD (a) image « porte »
(b) sa transformée de Fourier Discrète bidimensionnelle

(a) (b)
Figure 5 : Exemple de la TFD (a) Image originale naturelle
(b) sa Transformée de Fourier Discrète Bidimensionnelle

Pour des raisons de symétries, on représente habituellement les valeurs de ||F[u, v]||
(respectivement [u, v]) dans une image appelée spectre d’amplitude (respectivement spectre
de phase), montrant (en niveaux de gris) les valeurs sur la période -w/2, w/2 [ x -h/2, h/2[. La
figure 6 montre les spectres d’amplitudes et de phase associés à une image exemple. Les valeurs
d’amplitude présente en général une très grande dynamique (les basses fréquences plusieurs
ordre de grandeur fois plus importantes que les hautes fréquences), le spectre d’amplitude
représente log (||F[u,v]||).

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 5


(a)

(b) (c)
Figure 6 : Exemple de la TFD (a) image originale « House » (b) son spectre d’amplitude
représentant (sur 255 niveaux de gris) le logarithme de ||F[u,v]|| (c) son spectre de phase
représentant (sur 255 niveaux de gris) [u, v]

Exemple d’application : La figure 7 montre un exemple de filtrage en passant par la TFD.

(a) (b) (c) (d)


Figure 7 : Application au filtrage (a) image originale (b) sa TFD
(c) son filtrage (d) sa TFD inverse

2.2. La transformée en ondelettes


La transformée en ondelettes est une technique importante d’analyse du signal analogique et
numérique. Elle a la particularité de fournir une information sur son contenu fréquentiel tout en
conservant la notion de localisation de l’événement. Grâce à cette particularité capitale, elle
trouve des applications dans de nombreux domaines tels que la sismologie, le traitement et
l’analyse des signaux vocaux, l’analyse de la turbulence, la compression, l’analyse de la texture,
la détection de contours, la segmentation, le filtrage,…
Cette section a pour but, de présenter juste le principe de la transformée en ondelettes. Le
développement de toute la théorie des ondelettes sort du cadre de ce cours, pour plus de détails,
on peut se référer aux nombreux ouvrages existants dans le domaine.

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 6


Le principe de la transformée en ondelettes standard consiste à décomposer l’image par une
cascade d’opération de filtrages à l’aide de deux filtres monodimensionnelles ; un passe-bas
h(m) et un passe-haut g(m) menées suivant les lignes puis les colonnes de l’image (ou
inversement). Chaque opération de filtrage est suivie d’un sous-échantillonnage par un facteur
deux. Les filtres passe-bas et passe-haut sont des filtres miroirs en quadrature, qui couvrent
entièrement le domaine fréquentiel du signal. Ces filtres doivent satisfaire certaines conditions.
Leurs fonctions de transfert H et G sont créées à partir d’une fonction de base dénommée
ondelette mère.
La figure 8 illustre le principe de cet algorithme. Les quatre images (aj, djh, djv et djd) obtenues
après décomposition correspondent respectivement à l’image d’approximation et aux images
~ ~(n)g(n)
de détails horizontaux, verticaux et diagonaux. Dans ce schéma h (n)h(n) et g

LIGNES COLONNE
S
Figure 8: Schéma de décomposition
La transformée en ondelettes est réversible ; la figure 9 donne le schéma de reconstruction.

COLONNE LIGNES
S
Figure 9: Schéma de reconstruction

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 7


Pour déterminer les coefficients d’ondelettes, le processus de filtrage et de sous-échantillonnage
est appliqué itérativement, sur plusieurs niveaux de résolutions, à partir de la sous-bande basse
fréquence (image d’origine). A chaque niveau du processus, la sous-bande haute fréquence est
préservée. Quand le processus atteint le niveau de décomposition le plus élevé, les quatre
bandes sont conservées. Les coefficients d’ondelettes d’une image sont alors constitués par
toutes les bandes basses fréquence plus la dernière bande haute fréquence. L’ensemble a la
même taille que l’image originale. Le schéma de décomposition d’une image jusqu’au troisième
niveau est donné sur la figure 10.

Image initiale

A1,0 DH1,1 DV1,2 DD1,3 Niveau 1

A2,0 DH2,1 DV2,2 DD2,3 Niveau 2

A3,0 DH3,1 DV3,2 DD3,3 Niveau 3

Figure 10 : Schéma de décomposition en ondelettes

Une forme plus généralisée de la transformée en ondelettes standard est la transformée en


paquets d’ondelettes, qui décompose à chaque itération les quatre images résultantes du niveau
précédent (figure 11).

Image initiale

A1,0 DH1,1 DV1,2 DD1,3 Niveau 1

A2,0 DH2,1 DV2,2 DV2,3 … A2,12 DH2,13 DV2,14 DD2,15 Niveau 2

Figure 11 : Schéma de décomposition en paquets d’ondelettes

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 8


Lorsqu’il est nécessaire de montrer la décomposition à l’ordre j d’une image, les coefficients
sont organisés suivant le modèle de la figure 12.

Figure 12 : Organisation des coefficients de la décomposition à l’ordre j d’une image

La figure 13 montre un exemple de décomposition en ondelettes d’une image synthétique :


carré blanc sur fond noir. On pourra constater en particulier la mise en évidence des détails
verticaux, horizontaux et diagonaux aux différentes échelles et l’image d’approximation qui
reste au deuxième niveau. On vérifiera aussi que les détails sont bien localisés spatialement.
L’ondelette utilisée est celle de symlets 2.

La figure 14 montre un exemple de décomposition en ondelettes d’une image naturelle :


"woman". L’ondelette utilisée est celle de Daubechies (2 coef.). On pourra constater la aussi la
mise en évidence des détails verticaux, horizontaux et diagonaux aux différentes échelles et
l’image d’approximation qui reste au deuxième niveau. On vérifiera aussi que les détails sont
bien localisés spatialement.
A titre indicatif, la figure 15 montre un exemple de transformée en ondelettes d’un signal 1D.
L’ondelette utilisée est celle de Daubechies (2 coef.). On pourra constater que les détails sont
bien localisés spatialement.

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 9


(a)

(b)

(c)
Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 10
Figure 13 : Exemple de décomposition en ondelettes d’une image synthétique «carré blanc sur
fond noir » (a) image originale (b) décomposition au niveau 1 (c) décomposition au niveau 2

(a)

(b)

(c)
Figure 14 : Exemple de décomposition en ondelettes d’une image naturelle : "woman"
(a) image originale (b) décomposition au niveau 1 (c) décomposition au niveau 2

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 11


(a)

(b)

(c)
Figure 15 : Exemple de la transformée en ondelettes d’un signal 1D « signal carré »
(a) signal original (b) sa transformée en ondelettes continue
(c) sa transformée en ondelettes discrète

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 12


3. Le modèle statistique
On s'intéresse dans ce modèle aux propriétés statistiques des images : la distribution des valeurs
prises par les pixels, la corrélation existante entre des pixels spatialement proches, la fréquence
d'occurrence de certaines structures spatiales... Les mesures statistiques fournissent des
grandeurs et fonctions empiriques sur lesquelles peuvent s'appuyer des modèles probabilistes
utilisés par les algorithmes d'analyse d'images.
Dans cette section, nous développerons quelques un de ces outils à savoir l'histogramme, les
matrices de cooccurrence, matrices de longueur de plages.

3.1. L’histogramme
C’est un outil de base pour l'étude de la dynamique d'une scène, il est utilisé par certains
opérateurs d'analyse. On retiendra cependant qu'il ne faut pas considérer l'histogramme comme
une caractéristique fondamentale de l'image dans la mesure où on peut le transformer
radicalement sans changer significativement l'image.
L'histogramme représente la répartition des pixels en fonction de leur niveau de gris. Il fournit
diverses informations comme les statistiques d'ordre, l'entropie, et peut permettre d'isoler des
objets. La figure 17 montre un exemple d’histogramme et Histogramme cumulatif normalisé.

(a)

Niveau de gris Niveau de gris


(b) (c)
Figure 17 : Exemple d’histogramme et histogramme cumulatif normalisé
(a) image (b) histogramme (c) histogramme cumulatif normalisé

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 13


H(x) est le nombre de pixels dont le niveau de gris est égal à x et HC(x) est le taux de pixels
dont le niveau de gris est inférieur à x.

où W est le nombre de colonnes et H le nombre de lignes dans l’image

Traitement à base d'histogramme


On présente dans la suite trois traitements d’analyses effectués uniquement à partir de
l'histogramme :
 La normalisation ; elle permet d’exploiter toute la dynamique de codage.
 L’égalisation ; elle permet d’équilibrer la dynamique de codage et augmenter le contraste.
 La segmentation ; utilisée pour simplifier l'image en regroupant les pixels selon leurs
valeurs.

Retenons que certains de ces traitements sont souvent calculés au niveau des capteurs, et qu'en
général leur pertinence est très intimement liée aux conditions d'acquisition.

- Normalisation
La normalisation d'histogramme, ou expansion de dynamique, est une transformation affine du
niveau de gris des pixels de telle sorte que l'image utilise toute la dynamique de représentation.

avec D la dynamique, Nmin la plus petite valeur dans l'image et Nmax la plus grande valeur
dans l'image. La figure 18 montre un exemple de normalisation d’histogramme.

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 14


(a) (b)

(c) (d)
Figure 18 : Exemple de normalisation d'histogramme (a) image d'origine f[x,y]
(b) histogramme d'origine (c) Expansion de dynamique fnew[x,y]
(d) histogramme normalisé
- Egalisation
L'égalisation d'histogramme est une transformation des niveaux de gris dont le principe est
d'équilibrer le mieux possible la distribution des pixels dans la dynamique (Idéalement, on
cherche à obtenir un histogramme plat).

La technique classique consiste à rendre « le plus linéaire possible » l'histogramme cumulé de


l'image en utilisant la transformation suivante :

avec D la dynamique, (w, h) la dimension de l'image et HC(.) l’histogramme cumulé. La figure


19 montre un exemple d’égalisation d’histogramme.

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 15


Le résultat est une augmentation globale du contraste dans l'image. Notez dans l'exemple ci-
dessus l'accentuation des défauts avec la mise en évidence du bruit spatial fixe.

(a)

(b)
Figure 19 : Exemple d’égalisation d’histogramme
(a) image f[x,y], histogramme et histogramme cumulé d'origines
(b) histogramme, histogramme cumulé et image fnew[x,y] après égalisation

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 16


- Segmentation
Il existe des techniques de segmentation basées sur un regroupement des niveaux de gris à partir
de l'histogramme. Ces techniques sont rarement efficaces car elles ne considèrent que la valeur
des pixels sans tenir compte de critères géométriques ou topologiques (voisinage).

La figure 20, montre un exemple de méthode qui calcule un certain nombre de quantiles à partir
de l'histogramme cumulé, les regroupe par classes en fonction d'un critère de distance, puis
attribut la même étiquette aux pixels dont la valeur est la plus proche d'une classe donnée.

a) b) c)
Figure 20 : Exemple de méthode de segmentation (a) image originale
(b) histogramme cumulé avec agrégation des quantiles (c) image segmentée

3.2. Statistique du 2ème ordre : les matrices de cooccurrence


La méthode des matrices de cooccurrence, développée à l’origine par Haralick et ses
collaborateurs en 1973, est considérée comme la référence dans le domaine de classification
d’images. Elle est de loin la plus utilisée. Des études comparatives ont démontré son efficacité
et sa capacité de sélection et de caractérisation.
Son principal inconvénient réside dans le temps de calcul requis pour des images de grandes
tailles et ayant un nombre important de niveau de gris ainsi que dans la difficulté de choix du
paramètre d.
Elle consiste à effectuer une analyse statistique de deuxième ordre pour estimer les
fréquences d’apparition des couples de pixels ayant les mêmes niveaux de gris dans l’image.
Un couple de pixels est défini par la distance d qui les sépare et leur orientation . Le paramètre
d est choisi en fonction de la résolution des détails dans la texture ; plus les détails sont fins,
plus le paramètre d choisi est petit. L’angle  est identique à la direction moyenne des primitives
dans la texture. En général,  prend quatre valeurs : 0°, 45°, 90° et 135° et d’une valeur (1, 2

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 17


ou 3). A chaque couple de valeurs (d, ), correspond une matrice de cooccurrence de taille
NgxNg, où Ng désigne le nombre de niveaux de gris utilisés dans l’image. Chaque élément Pd,(i,j)
de la matrice, correspond à la fréquence d’apparition dans l’image d’un pixel de niveau de gris
i et d’un pixel de niveau de gris j situés à une distance d l’un de l’autre dans une direction .

La figure 21 montre un exemple de calcul des P°,d à partir d’une image 4x4 composée de quatre
niveaux de gris (0, 1, 2, 3). Cet exemple se limite au cas d=1. L’élément (2,3) de P0°,1 est égale
à 4, cela signifie qu’il existe 4 configurations dans l’image où un pixel de niveau de gris 2 est
séparé horizontalement d’un autre pixel de niveau de gris 3 par une distance 1. Les éléments de
cet exemple apparaissent en souligné sur l’image et sur la matrice P0°,1.
0 0 1 2
0 1 3 2
0 2 3 2
1 2 3 0
Image
3
2 2 1 1 2 10 0 4 2 0 1 0 1 2 2
       
P0,1  
2 0 2 1  P  1 21 0
P  2 0 1 1  P  1 0 1 1
2 1 2 0 4  45,1  0 10 5 90,1  0 1 6 0  135,1  2 1 0 2
       
 1 1 4 0  0 05 0   1 1 0 4  2 1 2 0 
Figure 21 : Exemple de calcul des matrices de cooccurrence
De chacune de ces matrices, plusieurs paramètres caractéristiques de la texture peuvent être
extraits dont voici quelques-uns.
 Le second moment angulaire (ASM : Angular Second Moment) (ou l’énergie):
Ng 1Ng 1
ASM    P(i, j)2
i 0 j 0

Ce paramètre mesure l’homogénéité (ou l’uniformité) de l’image ; il est d’autant plus grand que
l’image a de fortes transitions de niveaux de gris.
 Le contraste (CON) :

 Ng 1Ng 1
Ng 1

 
CON   n2    P(i, j)
n 0 i 0 j 0
 i  j n 

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 18


CON mesure le contraste d’une image ; il est d’autant plus élevé que la texture présente un fort
contraste (c’est à dire des passages de pixel très clairs à pixel très foncés ou inversement).
 La corrélation (COR):

 Ng 1Ng 1 
  ijP(i, j)   x  y
COR   
i 0 j 0

 x y
Ng 1 Ng 1 Ng 1 Ng 1 Ng 1 Ng 1
 x   i P(i, j)  y   j P(i, j)  x
2
 (imx P(i, j)
)2
où i 0 j 0 , j 0 i 0 , i 0 j 0 et
Ng 1 Ng 1
 y
2

j 0
(j my P(i, j)
)2
i 0 .
COR décrit la corrélation des niveaux de gris d’un pixel avec un autre distant de d dans la
direction .
 La variance (VAR):
Ng 1Ng 1 Ng 1Ng 1
VAR   (i)2 P(i, j)   12  P(i, j)
i 0 j 0 Ng i 0 j 0
avec .
Cet indicateur décrit la dispersion des transitions entre niveaux de gris. Il augmente lorsque les
niveaux de gris diffèrent de leur moyenne.
 Le moment de différence inverses (IDM : Inverse Difference Moment) (ou inertie):
Ng 1Ng 1
P(i, j)
IDM   
j 0 1(i  j)
2
i 0

Ce paramètre renseigne sur l’importance des transitions entre niveaux de gris proches.
 L’entropie (ENT):
Ng 1Ng 1
ENT   P(i, j)log(P(i, j))
i 0 j 0

où  est une valeur faible (10-4).


Elle fournit une indication sur le désordre que peut présenter une texture. Contrairement à
l’énergie, l’entropie atteint de fortes valeurs lorsque la texture est complètement aléatoire (sans
structure apparente).

Applications
Les applications de la méthode des matrices cooccurrence sont nombreuses : classification de
texture, reconnaissance de formes, …. On présente dans la suite un exemple d’application en
Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 19
classification de texture. Le principe consiste à calculer, sur une fenêtre glissante sur l’image
centrée sur le pixel à classifier, les matrices de cooccurrence et delà l’ensemble de paramètres
cités ci-dessus. Le vecteur ainsi obtenu constitue le vecteur d’entrée à un classifieur. Ce dernier
détermine la classe du pixel.
La figure 22 visualise l’image à classifier, la carte de la réalité de terrain et les résultats de
classification obtenus (le taux global de bonne classification est de 53,4%). Pour faciliter
l’interprétation des résultats, on a introduit un post-traitement qui consiste à affecter à chaque
classe de texture, à l’issue de la phase de classification, un niveau de gris spécifique.

(a) (b)

E. en taillis Acacia

Eucalyptus Mer

Chêne-liège Sol nu

Pin Z. urbaines

(c)
Figure 22 : Classification d’image (a) image à classifier - image HRV XS de SPOT de la
forêt de la région de Rabat au Maroc- (b) carte de la réalité de terrain
c) résultats de classification obtenus

3.3. Statistique du 2ème ordre : Méthode des matrices de longueur de plages


La méthode des matrices de longueur de plages a été introduite pour la première fois par
Galloway en 1975 et utilisée par la suite dans de nombreuses applications. Elle consiste à
rechercher les plages (ou segments) de même niveau de gris. Une plage est définie comme un

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 20


ensemble consécutif de points ayant des niveaux de gris similaires dans une direction donnée.
Elle est caractérisée par sa longueur et son orientation . Pour résumer l’information apportée
par les plages dans une image, on établit pour une direction donnée, une matrice dont l’élément
(i,j) est égal au nombre d’isosegments de niveau de gris i-1 et de longueur j. En général, la
matrice est établie pour les quatre directions principales (0°, 45°, 90° et 135°).

La figure 23 montre un exemple de calcul des P à partir d’une image 4x4 composée de quatre
niveaux de gris (0, 1, 2, 3). L’élément (3,1) de P0° est égal à 3, cela signifie qu’il existe, dans
l’image, 3 segments de longueur 1 (pixels) dont le niveau de gris est 2. Les éléments de cet
exemple apparaissent en souligné sur l’image et sur la matrice P0°.
0 1 2 3
0 2 3 3
2 1 1 1
3 0 3 0
Image
1
4 0 0 0  4 0 0 0  2 1 0 0 4 0 0 0
       
1 0 1 0  4 0 0 0  4 0 0 0 4 0 0 0
P0    P45  P  P 3
2 300 0 0 0 1 0 90  3 0 0 0 135
0 0 0
       
3 1 0 0  3 1 0 0   3 1 0 0  5 0 0 0 
Figure 23 : Exemple de calcul des matrices de longueur de plages

De chacune des matrices obtenues, sont extraits les cinq paramètres caractéristiques ci-dessous,
définis par Galloway. Dans ces expressions, P représente la matrice des isosegments, Ng le
nombre de niveau de gris dans l’image, Nr la longueur maximale des isosegments et M le
nombre de pixels de la fenêtre d’analyse.
 Importance des courtes plages ( SRE : Short Runs Emphasis) :
Ng Nr
p(i, j)
( j
2
)
i 1 j 1
SRE  Ng Nr
 p(i, j)
i 1 j 1

Le paramètre SRE est révélateur de la présence de texture fine. Il est d’autant plus élevé que la
probabilité de rencontrer de plages courtes est élevée.

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 21


 Importance des longues plages (LRE : Long Runs Emphasis) :
Ng Nr
(p(i, j) j 2)
LRE  i 1Ngj 1Nr
 p(i, j)
i 1 j 1

Le paramètre LRE est caractéristique de la présence de texture grossière. Il est d’autant plus
élevé que la probabilité de rencontrer des longues plages est élevée.
 Hétérogénéité des niveaux de gris (GLN : Gray Level Non-uniformity) :
Ng Nr 2

[
j 1
p(i, j)]
GLN  i Ng
1
Nr
 p(i, j)
i 1 j 1

Ce paramètre mesure la non-uniformité de la dispersion des plages entre les niveaux de gris. Il
est minimal lorsque les plages sont également distribuées entre les niveaux de gris.
 Hétérogénéité des longueurs de plages (RLN : Run length Non-uniformity) :
Nr Ng 2

[ p(i, j)]


RLN  j Ng
1 i 1
Nr
 p(i, j)
i 1 j 1

Cet attribut mesure la non-uniformité de la répartition des plages entre les longueurs. Il est
minimal lorsque les plages sont également distribuées entre les longueurs.
 Pourcentage de plages ( RP : Run Percentage):

Ng Nr

j 1
p(i, j)
RP i 1
M
Ce paramètre exprime le rapport entre le nombre total de plages et le nombre de pixels de
l’image. Il s’agit d’une mesure de nombre de plages par unité de surface (pixel).

Applications
Les applications des matrices de longueur de plages sont la classification de texture, la
reconnaissance de formes, etc. A titre comparatif, le taux global de bonne classification obtenu
pour la même image de la figure 22 est de 33,3% (à comparer avec celui obtenu avec les
matrices de cooccurrence qui est de 53,4%).
Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 22

Vous aimerez peut-être aussi