1 - Chapitres 1 - Cours TI
1 - Chapitres 1 - Cours TI
1 - Chapitres 1 - Cours TI
ENSAM, Rabat
ANALYSE ET TRAITEMENT
DE L’IMAGE
ET
DE LA VIDEO
Les premiers traitements d'images par des moyens techniques remontent au 18ème siècle, à
l'époque des pionniers de la photographie. L'électronique a fait son apparition dans le
traitement d’images vers la fin du 19ème siècle quand elle a permis en 1884 la transcription
d'une image en signal électrique. D'améliorations en perfectionnements, on, est arrivé à la
télévision vers 1941. Les techniques photographiques, optiques et électroniques analogiques
constituent ce qui a été appelé traitement analogique d'images.
Pour ce qui est du traitement numérique d’image, le véritable essor n'a lieu que dans les
années 1960 quand les ordinateurs commençaient à être suffisamment puissants pour travailler
sur des images. Cependant, l'essentiel des recherches portait encore, à cette époque, sur la
simulation des systèmes de transmission d'images (télévision, téléfax) et sur l'amélioration des
images et leur compression. Le grand nombre d'échantillons nécessaires pour représenter
une image sous forme numérique a rapidement ouvert la voie à d’importants travaux,
toujours d'actualité, pour réduire ce nombre.
Les résultats que l'on obtient aujourd'hui avec les films et les appareils disponibles sur le marché
montrent le progrès considérable accompli dans le domaine de traitement numérique
d’image.
Applications
Une caractéristique très importante et en même temps très enrichissante du traitement
d'images est son aspect interdisciplinaire. On trouve ses applications dans des domaines très
variés tels que :
les télécommunications (TV, vidéo, transmission, stockage, téléconférence, publicité, etc.),
la médecine (radiographie, tomographie, microscopie, etc) (figure 3),
(a) (b)
Figure 1 : (a) dessin (b) image
Une image numérique désigne toute image (dessin, photographie,…) acquise (par des
Convertisseurs Analogique-Numérique situés dans des dispositifs comme les appareils photo
ou caméscopes numériques, les scanners, les cartes d'acquisition vidéo,…) ou créée
(directement par des programmes informatiques ; ce que l'on appelle par abus de langage les
« images de synthèse ») (figure 2).
(a)
(b)
Figure 3 : Effets d‘agrandissement d’une image (a) image vectorielle (b) image matricielle
(a) (b)
Figure 5 : (a) pavage (b) échantillonnage
Une image numérique 2d est représentée par un tableau I de h lignes et w colonnes. Le pixel
est désigné par un couple (i,j) où i est l'indice de colonne; i {0, h-1}, et j l'indice de ligne j
{0,w-1}. W est la largeur, h la hauteur de l'image I. Par convention, le pixel origine (0,0) est
en général en haut à gauche (figure 8). Le nombre I(i,j) est la valeur (ou le niveau de gris) du
pixel (i, j). I(i.j) {0, Nmax- l}. (Nmax-Nmin) est le nombre de niveaux de gris. On appelle
dynamique de l'image Log2(Nmax-Nmin), i.e. le nombre de bits utilisés pour coder l'ensemble des
valeurs possibles.
2. Échantillonnage et information
2.1. Echantillonnage idéalisé
L’échantillonnage 2-D de g(x, y) est réalisé en prélevant des échantillons espacés
périodiquement selon la direction des axes x et y (figure 11). Le signal échantillonné est donné
par:
Ce phénomène appelé aliasing est encore pire en 2D, car il affecte la fréquence et la direction
des structures périodiques. Imaginons par exemple qu'on souhaite échantillonner l'image
correspondant aux bandes noires de la figure 13.a.
(b) (c)
Figure 13 : Aliasing sur un signal 2D (a) échantillonnage adapté
(b) échantillonnage non adapté
Avec un échantillonnage adapté, l'image numérique fait apparaître des structures conformes à
l'information présente dans l'image (figure 13.b). Mais en considérant seulement 1 échantillon
sur 2 (c'est-à-dire un échantillonnage non adapté ou un sous - échantillonnage), une structure
différente apparaît, dont l'analyse (ici des bandes verticales, plus épaisses) ne sera pas conforme
à la réalité de l'objet (figure 13.c). Ceci est une illustration du théorème classique de Shannon
– Nyquist qui dit qu’on ne peut reconstituer un signal analogique original 2D à partir de sa
version échantillonnée que si la fréquence d’échantillonnage est au moins le double de la plus
grande fréquence présente dans le signal.
fe≥2fmax-image
Pour sous – échantillonner sans faire apparaître des structures parasites, il faut donc réduire
l’intervalle de fréquence de l’image numérique initiale (c'est-à-dire la filtrer) avant de la sous
échantillonner. La figure 14 illustre ce principe sur une image naturelle.
(b) (c)
Figure 14 : Effet du filtrage avant sous-échantillonnage (a) image originale
(b) la même image sous-échantillonnée, en prenant 1 pixel sur 2 dans chaque dimension
(c) la même image filtrée pour éliminer les hautes fréquences, puis sous - échantillonnée,
en prenant 1 pixel sur 2 dans chaque dimension
3. Quantification et information
La quantification, comme on l’a vu, désigne la résolution tonale, c'est-à-dire le nombre de
valeurs différentes (niveaux de gris) qu’on peut associer à un pixel. Elle peut également faire
apparaître des distorsions dans les images (figure 15) :
Comme pour l'échantillonnage, il existe des règles pour déterminer la bonne quantification
(le bon nombre de bits) pour coder les images numériques. L'une dépend du capteur et de sa
capacité effective à observer des signaux de valeurs différentes qui s’assimile à un rapport
signal sur bruit. Ce rapport signal sur bruit est défini à partir du rapport entre l'amplitude des
niveaux de gris mesurables par le capteur (nmax - nmin) et le niveau du bruit.
Outre la capacité du capteur, le nombre de bits réellement nécessaires pour coder une image
varie d'une image à l'autre, en fonction de leur contenu informationnel. Ce nombre dépend
de l'entropie, définie à partir de la distribution des niveaux de gris de l'image :
où N est le nombre de niveaux de gris présents, p i est la proportion (0 < pi < 1) de points de
l'image ayant pour niveau de gris i. Cette grandeur représente le nombre moyen de bits par
pixel nécessaires pour coder toute l'information présente. Elle est utilisée dans les techniques
de compression sans perte pour adapter le volume de donnée des images à leur contenu
informationnel.
La synthèse soustractive consiste à enlever des couleurs à la couleur blanche (qui "contient"
toutes les couleurs) (figure 16.b). Plus on ajoute une couleur plus cette couleur absorbe (donc
enlève) sa couleur complémentaire (le cyan absorbe le rouge, le magenta absorbe le vert, le
jaune absorbe le bleu). En soustrayant donc à la lumière blanche ses composantes bleues,
vertes et rouges à l'aide de filtres respectivement jaunes, magenta et cyan, il est possible de
d'obtenir pratiquement toutes les couleurs visibles (par exemple : Jaune + magenta => rouge,
Jaune + cyan => vert, Magenta + cyan => bleu, Jaune + magenta + cyan => noir, …). Les
nuances intermédiaires sont obtenues en faisant varier l'absorption des filtres. Ce principe est
essentiellement utilisé pour l'impression des couleurs.
(a) (b)
Figure 16 : Synthèse des couleurs (a) Synthèse additive (b) Synthèse soustractive
Les images matricielles (ou images bitmap) en couleurs peuvent être représentées soit par
une image dans laquelle la valeur du pixel est une combinaison linéaire des valeurs des trois
0 0 0 noir
0 0 1 nuance de noir
255 0 0 rouge
0 255 0 vert
0 0 255 bleu
… … … …
Les images « bitmap » basées sur cette représentation peuvent rapidement occuper un espace
de stockage considérable, chaque pixel nécessitant trois octets pour coder sa couleur. Par
exemple, dans le cas d'une image de 1000 x 1000 = 1 000 000 pixels, elle occupe 3 millions
d'octets. Ce codage de la couleur est utilisé par la plupart des écrans d'ordinateurs
actuellement. Pour faciliter le stockage des images en mémoire on utilise d'autres formes de
codage. La figure 18 montre une image couleur codée avec 8bits/pixel/couleur.
Une autre méthode existante consiste à se passer de la palette et coder directement les trois
couleurs en utilisant un octet : chaque composante couleur est codée sur deux bits, le bit
restant peut servir à gérer plus de couleurs sur une des composantes par exemple.
000 008 016 024 032 040 048 056 064 072 080 088 096 104 112 120 128
255 248 240 232 224 216 208 200 192 184 176 168 160 152 144 136
Figure 19 : Codage en niveaux de gris
Ce procédé est fréquemment utilisé pour reproduire des photos en noir et blanc. La figure 20
montre une image en niveaux de gris codée avec 8bits/pixel, soit 28 =256 niveaux.
Il est également utilisé pour le codage d'images couleurs : l'image est représentée par trois
images d'intensité lumineuses, chacune se situant dans une composante distincte de l'espace
colorimétrique (par exemple, intensité de rouge, de vert et de bleu). La figure 21 montre une
image couleurs codée par trois images d'intensité lumineuses correspondant au rouge, au vert
et au bleu.
(a)
De plus, les formats actuels intègrent souvent une zone de métadonnées (metadata en anglais)
servant à préciser les informations concernant l'image comme :
la date, l'heure et le lieu de la prise de vue,
les caractéristiques physiques de la photographie (sensibilité ISO, vitesse d'obturation,
usage du flash…)
Ces métadonnées sont par exemple largement utilisées dans le format Exif (extension du format
JPEG), qui est le format le plus utilisé dans les appareils photo numériques. Le tableau 1 donne
les principaux formats.
Type Nombre de couleurs Affichage
(matriciel/ vectoriel) supportées progressif
JPEG matriciel 16 millions Oui