1 - Chapitres 1 - Cours TI

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 21

Université Mohammed V

ENSAM, Rabat

ANALYSE ET TRAITEMENT
DE L’IMAGE
ET
DE LA VIDEO

Pr. Ahmed HAMMOUCH


2023-2024
Introduction

Généralités et notes historiques


Avec les sons, les images constituent l'un des moyens les plus importants qu'utilise l'homme
pour communiquer avec ses semblables. Les efforts récents élargissent même cette
communication aux machines ! Le traitement d'images est l'ensemble des méthodes qui
cherchent à rendre cette opération plus simple, plus efficace et plus agréable.

Les premiers traitements d'images par des moyens techniques remontent au 18ème siècle, à
l'époque des pionniers de la photographie. L'électronique a fait son apparition dans le
traitement d’images vers la fin du 19ème siècle quand elle a permis en 1884 la transcription
d'une image en signal électrique. D'améliorations en perfectionnements, on, est arrivé à la
télévision vers 1941. Les techniques photographiques, optiques et électroniques analogiques
constituent ce qui a été appelé traitement analogique d'images.

Pour ce qui est du traitement numérique d’image, le véritable essor n'a lieu que dans les
années 1960 quand les ordinateurs commençaient à être suffisamment puissants pour travailler
sur des images. Cependant, l'essentiel des recherches portait encore, à cette époque, sur la
simulation des systèmes de transmission d'images (télévision, téléfax) et sur l'amélioration des
images et leur compression. Le grand nombre d'échantillons nécessaires pour représenter
une image sous forme numérique a rapidement ouvert la voie à d’importants travaux,
toujours d'actualité, pour réduire ce nombre.

Les résultats que l'on obtient aujourd'hui avec les films et les appareils disponibles sur le marché
montrent le progrès considérable accompli dans le domaine de traitement numérique
d’image.

Diversités des traitements


Le traitement d'images fait appel à un nombre important de disciplines : la théorie du signal,
la théorie des systèmes, l'analyse numérique, les statistiques, la théorie de l'information, la
neurophysiologie, l'optique, l'électronique et l'informatique pour ne citer que les principales.
Cette situation est résumée à la figure 1. On peut voir le traitement d'images comme une

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 2


prolongation du traitement numérique des signaux et comme un préalable à la
reconnaissance des formes, à l'analyse de scènes et à l'intelligence artificielle (figure 2).
Ces relations avec des domaines variés font que la diversité des traitements que l'on peut
effectuer par voie numérique sur des images est très grande. Pour illustrer cette diversité, on
peut citer quelques exemples de traitement :
 Rendre nette une image floue,
 Améliorer le contraste d'une image,
 Filtrer des parasites sur une image,
 Comprimer le nombre d'échantillons d'une image numérique et d'une séquence d'images
(TV numérique),
 Reconnaître des empreintes digitales, des signatures,
 Authentifier des billets de banque,
 Détecter des intrusions dans des lieux non gardés,
 Détecter des maladies dans des radiographies,
 Aider les pilotes et les conducteurs à s'entraîner,
 Diriger un véhicule sans chauffeur,
 Surveiller la qualité des produits à la sortie des chaînes de production,
 Surveiller l'usure des machines-outils,
 Aider les robots mécaniques à «voir »,
 etc.
Ce genre de liste s'enrichit avec le temps, le progrès des moyens et des méthodes et
l'apparition de nouvelles applications.

Figure 1 : Relations du traitement d'image avec d'autres disciplines.

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 3


Figure 2 : Position du traitement d'images

Applications
Une caractéristique très importante et en même temps très enrichissante du traitement
d'images est son aspect interdisciplinaire. On trouve ses applications dans des domaines très
variés tels que :
 les télécommunications (TV, vidéo, transmission, stockage, téléconférence, publicité, etc.),
 la médecine (radiographie, tomographie, microscopie, etc) (figure 3),

(a) (b) (c) (d) (e)


Figure 3 : Exemples d’applications en médecine (a), (b), (c) aide au diagnostic,
(d) et (e) détection des tumeurs cancéreuses à partir d’une mammographie
 l'industrie (robotique, surveillance de qualité, reconnaissance de pièces, sécurité, etc.)
(figure 4),

(a) (b) (c) (d) (e)


Figure 4 : Exemples d’applications en industrie (a), (b) et (c) robots
(d) surveillance de qualité (e) reconnaissance des pièces mécaniques
Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 4
 la météorologie (suivi du cyclone, météo, etc.) (figure 5),

Figure 5 : Exemple d’application en météorologie ; le suivi du cyclone

 le recensement des ressources terrestres -la télédétection- (couverture et utilisation du sol,


la classification des types de cultures, cartographie et délimitation des inondations,
surveillance des feux de forêts, etc.) (figure 6),

(a) (b) (c) (d)


Figure 6 : Exemples d’applications en télédétection (a) couverture et utilisation du sol (b) la
classification des types de cultures (c) cartographie et délimitation des inondations
(d) surveillance des feux de forêts
 l'armement (guidage de missiles, reconnaissance arienne et sous-marine, détection et
protection des véhicules de combat, exploration des fonds marins, etc.) (figure 7),

(a) (b) (c) (d)


Figure 7 : Exemples d’applications militaires (a) guidage de missiles (b) reconnaissance
arienne et sous- marine (c) détection et protection des véhicules de combat
(d) exploration des fonds marins

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 5


 Sécurité (reconnaissance d'empreintes, visages, signatures, suivie de personnes, etc.)
(figure 8),

(a) (b) (c) (d)


Figure 8 : Exemples d’applications en sécurité (a), (b) et (c) reconnaissance d'empreintes, de
visages, de signatures (d) suivie de personnes
 l'architecture,
 l'imprimerie,
 etc.

La liste est longue et s'allonge chaque jour d’avantage.


La principale difficulté dans la réalisation d'une application quelconque du traitement d'images
est l'absence d'un traitement idéal universel qui résoudrait plusieurs problèmes à la fois. En
effet, chaque application particulière nécessite une étude en soi. Celle-ci se fait à l'aide d'un
arsenal de méthodes de base. Il faut choisir, principalement sur la base de l'expérience, les
méthodes qui conviennent et les appliquer. L’objectif principal de ce cours est de présenter un
ensemble de techniques de traitement numérique d’image dans le but de l'améliorer ou d'en
extraire des informations. Il s’inspire des références citées en fin de polycopié.

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 6


Partie 1 :
Traitement numérique
des images

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 7


Chapitre 1

Généralités sur l’image numérique

1. Notions de bases et vocabulaire


1.1. Définition de l’image
D’après le petit Larousse, une image est une représentation d’une personne ou d’un objet par
la peinture la sculpture, le dessin, la photographie, le film, etc. (figure 1). C’est aussi un
ensemble structuré d’informations qui, après affichage sur l’écran ont une signification pour
l’œil humain.

(a) (b)
Figure 1 : (a) dessin (b) image
Une image numérique désigne toute image (dessin, photographie,…) acquise (par des
Convertisseurs Analogique-Numérique situés dans des dispositifs comme les appareils photo
ou caméscopes numériques, les scanners, les cartes d'acquisition vidéo,…) ou créée
(directement par des programmes informatiques ; ce que l'on appelle par abus de langage les
« images de synthèse ») (figure 2).

(a) (b) (c)


Figure 2 : (a) image acquise, (b) et (c) images de synthèse

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 8


Mathématiquement, une image numérique est une fonction à support discret et borné, et à
valeurs discrètes. Le support est multidimensionnel, en général 2D ou 3D. Les valeurs peuvent
être scalaires (images en niveaux de gris), ou bien vectorielles (imagerie multi- composante,
imagerie couleur).

1.2. Types d’images


1.2.1. Images vectorielles
Les images vectorielles décrivent les objets qu’elles contiennent par leurs caractéristiques
géométriques, sous forme de vecteur dans un espace donné. Une image vectorielle est donc
décrite par un ensemble d’objets géométriques 2D simples (rectangle, cercle, …). Chaque objet
est caractérisé par sa forme, sa position dans l’image, ses propriétés de couleur, d’épaisseur,
etc. L'avantage de ce type d'image est la possibilité de l'agrandir indéfiniment sans perdre la
qualité initiale, ainsi qu'un faible encombrement.

1.2.2. Images matricielles


Elle est composée, comme son nom l'indique, d’une matrice (tableau) de points. Dans le cas
des images à deux dimensions (le plus courant), les points sont appelés pixels (pixels= picture
elements=éléments images= les plus petits constituants d’une image). Ce type d'image a
l’avantage d’être facile d’acquisition, cependant il est plus encombrant et n’offre pas la
possibilité de l'agrandir indéfiniment sans perdre la qualité initiale (figure 3).

(a)

(b)
Figure 3 : Effets d‘agrandissement d’une image (a) image vectorielle (b) image matricielle

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 9


Ce type d'image s'adapte bien à l'affichage sur un écran informatique (lui aussi orienté
pixel) ; il est en revanche peu adapté pour l'impression, car la résolution des écrans
informatiques, généralement de 72 à 96 ppp (« points par pouce », en anglais dots per inch
ou dpi) est bien inférieure à celle atteinte par les imprimantes, au moins 600 ppp aujourd'hui.
L'image imprimée, si elle n'a pas une haute résolution, sera donc plus ou moins floue ou laissera
apparaître des pixels carrés visibles.

1.3. Numérisation d’images


Une image numérique est une image continue (réelle) numérisée. Cette étape de
numérisation est essentielle pour passer d’une représentation continue à une représentation
discrète. Elle comprend l’échantillonnage et la quantification (figure 4).

Figure 4 : Numérisation d’image

L’échantillonnage est le procédé de discrétisation spatiale d'une image qui consiste à


associer à chaque zone rectangulaire (pixel) de l’image une unique valeur I(x,y) (figure 5).
De part son acquisition, une image numérique est associée à un pavage.

(a) (b)
Figure 5 : (a) pavage (b) échantillonnage

La quantification désigne la limitation du nombre de valeurs différentes que peut prendre


chaque pixel I(x,y) (figure 6).

Figure 6 : Définition de la quantification

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 10


Il s’agit, en fait, de remplacer les valeurs réelles par des valeurs entières de manière optimale,
c’est à dire remplacer toute valeur située entre 2 niveaux de décision consécutifs di et di+1 par
un niveau de reconstruction ri (figure 7), avec [m, M] la gamme dynamique du signal à
quantifier.

Figure 7 : Principe de la quantification

Une image numérique 2d est représentée par un tableau I de h lignes et w colonnes. Le pixel
est désigné par un couple (i,j) où i est l'indice de colonne; i {0, h-1}, et j l'indice de ligne j 
{0,w-1}. W est la largeur, h la hauteur de l'image I. Par convention, le pixel origine (0,0) est
en général en haut à gauche (figure 8). Le nombre I(i,j) est la valeur (ou le niveau de gris) du
pixel (i, j). I(i.j)  {0, Nmax- l}. (Nmax-Nmin) est le nombre de niveaux de gris. On appelle
dynamique de l'image Log2(Nmax-Nmin), i.e. le nombre de bits utilisés pour coder l'ensemble des
valeurs possibles.

Figure 8 : Conventions de notation

1. 4. Effets de l'échantillonnage : la résolution spatiale


Une image numérique ne constitue donc qu'une version approchée de l' « image réelle»
formée (au sens mathématique) par de la projection de la scène 3D sur la portion de plan
correspondant à la surface photosensible du capteur. La qualité de l'approximation dépend de
la quantité d'information portée par l'image numérique, en particulier du nombre de pixels

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 11


utilisés ; la résolution spatiale (ou la définition). La résolution spatiale d'une image est
définie par le nombre de points la composant (par exemple 256x256). Elle est parfois définie
par le nombre de pixels par unité de longueur de la structure à numériser (classiquement en
ppp=pixels par pouce). Par exemple 72 pixels par pouce, soit environ 30 pixels par cm, ce qui
correspond approximativement à la résolution d’un écran d’ordinateur. La figure 9 montre un
exemple d'une même image acquise à des résolutions spatiales différentes. On constate qu’on
a une perte de netteté et que les détails sont moins visibles et moins précis, quand la résolution
spatiale diminue.

Figure 9 : Effets de l’échantillonnage : résolution spatiale

1.5. Effets de la quantification


La résolution tonale, correspondant à la quantification, fait aussi apparaître une perte
d'information dans les images. La figure 10 montre un exemple d'une même image avec des
quantifications (résolutions tonales) différentes. On constate qu’on a une apparition de faux
contours et un bruit de quantification.

Figure 10 : Résolution tonale : quantification

2. Échantillonnage et information
2.1. Echantillonnage idéalisé
L’échantillonnage 2-D de g(x, y) est réalisé en prélevant des échantillons espacés
périodiquement selon la direction des axes x et y (figure 11). Le signal échantillonné est donné
par:

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 12


ge(x,y) = f(x,y)ij ( x - ix , y -jy )
=ij f(ix , jy) ( x - ix , y -jy )
où ij ( x - ix , y -jy ) est la peigne de Dirac 2D, x la période d’échantillonnage dans la
direction x et y la période d’échantillonnage dans la direction y.

Figure 11 : Echantillonnage idéalisé

2.2. Théorème d’échantillonnage


L'échantillonnage est une étape fondamentale qui doit tenir compte du contenu informationnel
pertinent de l'image à analyser. Intuitivement, on conçoit bien qu’une « structure fine »
nécessitera plus de pixels qu’une partie présentant moins de variation. Sur l'exemple en 1D de
la figure 12, le signal échantillonné « ressemble » à une sinusoïde mais de fréquence 8 fois plus
faible.

Figure 12 : Phénomène aliasing sur un signal 1D

Ce phénomène appelé aliasing est encore pire en 2D, car il affecte la fréquence et la direction
des structures périodiques. Imaginons par exemple qu'on souhaite échantillonner l'image
correspondant aux bandes noires de la figure 13.a.

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 13


(a)

(b) (c)
Figure 13 : Aliasing sur un signal 2D (a) échantillonnage adapté
(b) échantillonnage non adapté

Avec un échantillonnage adapté, l'image numérique fait apparaître des structures conformes à
l'information présente dans l'image (figure 13.b). Mais en considérant seulement 1 échantillon
sur 2 (c'est-à-dire un échantillonnage non adapté ou un sous - échantillonnage), une structure
différente apparaît, dont l'analyse (ici des bandes verticales, plus épaisses) ne sera pas conforme
à la réalité de l'objet (figure 13.c). Ceci est une illustration du théorème classique de Shannon
– Nyquist qui dit qu’on ne peut reconstituer un signal analogique original 2D à partir de sa
version échantillonnée que si la fréquence d’échantillonnage est au moins le double de la plus
grande fréquence présente dans le signal.
fe≥2fmax-image
Pour sous – échantillonner sans faire apparaître des structures parasites, il faut donc réduire
l’intervalle de fréquence de l’image numérique initiale (c'est-à-dire la filtrer) avant de la sous
échantillonner. La figure 14 illustre ce principe sur une image naturelle.

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 14


(a)

(b) (c)
Figure 14 : Effet du filtrage avant sous-échantillonnage (a) image originale
(b) la même image sous-échantillonnée, en prenant 1 pixel sur 2 dans chaque dimension
(c) la même image filtrée pour éliminer les hautes fréquences, puis sous - échantillonnée,
en prenant 1 pixel sur 2 dans chaque dimension

3. Quantification et information
La quantification, comme on l’a vu, désigne la résolution tonale, c'est-à-dire le nombre de
valeurs différentes (niveaux de gris) qu’on peut associer à un pixel. Elle peut également faire
apparaître des distorsions dans les images (figure 15) :

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 15


Figure 15 : Distorsions de la quantification

Comme pour l'échantillonnage, il existe des règles pour déterminer la bonne quantification
(le bon nombre de bits) pour coder les images numériques. L'une dépend du capteur et de sa
capacité effective à observer des signaux de valeurs différentes qui s’assimile à un rapport
signal sur bruit. Ce rapport signal sur bruit est défini à partir du rapport entre l'amplitude des
niveaux de gris mesurables par le capteur (nmax - nmin) et le niveau du bruit.
Outre la capacité du capteur, le nombre de bits réellement nécessaires pour coder une image
varie d'une image à l'autre, en fonction de leur contenu informationnel. Ce nombre dépend
de l'entropie, définie à partir de la distribution des niveaux de gris de l'image :

où N est le nombre de niveaux de gris présents, p i est la proportion (0 < pi < 1) de points de
l'image ayant pour niveau de gris i. Cette grandeur représente le nombre moyen de bits par
pixel nécessaires pour coder toute l'information présente. Elle est utilisée dans les techniques
de compression sans perte pour adapter le volume de donnée des images à leur contenu
informationnel.

4. Représentation des couleurs


Il existe plusieurs modes de codage informatique des couleurs, le plus utilisé est l'espace
colorimétrique Rouge, Vert, Bleu (RVB ou RGB - Red green Blue). Cet espace est basé sur
une synthèse additive des couleurs, c'est-à-dire que le mélange des trois composantes R, V, et
B à leur valeur maximum donne du blanc, à l'instar de la lumière. Le mélange de ces trois
couleurs à des proportions diverses permet de reproduire à l'écran une part importante du spectre
visible, sans avoir à spécifier une multitude de fréquences lumineuses.
Rappelons que la synthèse additive consiste à ajouter des couleurs à la couleur noire (figure
16.a). Par addition de trois faisceaux lumineux de couleur rouge, verte et bleue, il est possible

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 16


d'obtenir pratiquement toutes les couleurs visibles (par exemple : Rouge + vert => jaune,
Rouge + bleu => magenta, Bleu + vert => cyan, Rouge + vert + bleu => blanc, ….). Les
couleurs intermédiaires sont reproduites en faisant varier l'intensité des faisceaux lumineux. Ce
principe est utilisé pour la reconstitution des couleurs en télévision ou sur les écrans
d'ordinateurs.

La synthèse soustractive consiste à enlever des couleurs à la couleur blanche (qui "contient"
toutes les couleurs) (figure 16.b). Plus on ajoute une couleur plus cette couleur absorbe (donc
enlève) sa couleur complémentaire (le cyan absorbe le rouge, le magenta absorbe le vert, le
jaune absorbe le bleu). En soustrayant donc à la lumière blanche ses composantes bleues,
vertes et rouges à l'aide de filtres respectivement jaunes, magenta et cyan, il est possible de
d'obtenir pratiquement toutes les couleurs visibles (par exemple : Jaune + magenta => rouge,
Jaune + cyan => vert, Magenta + cyan => bleu, Jaune + magenta + cyan => noir, …). Les
nuances intermédiaires sont obtenues en faisant varier l'absorption des filtres. Ce principe est
essentiellement utilisé pour l'impression des couleurs.

(a) (b)
Figure 16 : Synthèse des couleurs (a) Synthèse additive (b) Synthèse soustractive

Il existe d'autres modes de représentation des couleurs :


 Teinte, Saturation, Luminance (TSL ou HSL), où la couleur est codée suivant le cercle
des couleurs ;
 Base de couleur optimale YUV, Y représentant la luminance, U et V deux chrominances
orthogonales.

Les images matricielles (ou images bitmap) en couleurs peuvent être représentées soit par
une image dans laquelle la valeur du pixel est une combinaison linéaire des valeurs des trois

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 17


composantes couleurs, soit par trois images représentant chacune une composante couleur.
Dans le premier cas, selon le nombre de bits alloués pour le stockage d'une couleur de pixel, on
distingue généralement les différents types d'images suivants :

4.1. Images 24 bits


Le codage de la couleur est réalisé sur trois octets, chaque octet représentant la valeur d'une
composante couleur par un entier de 0 à 255 (figure 17). Ces trois valeurs codent généralement
la couleur dans l'espace RVB. Le nombre de couleurs différentes pouvant être ainsi représenté
est de 256 x 256 x 256 possibilités, soit près de 16 millions de couleurs. Comme la différence
de nuance entre deux couleurs très proches est quasiment imperceptible pour l'œil humain, on
considère commodément que ce système permet une restitution exacte des couleurs, c'est
pourquoi on parle de « couleurs vraies ». Il s'agit d'une appellation trompeuse car le monde
numérique (fini, limité) ne peut pas rendre compte intégralement de la réalité (infinie).
R V B Couleur

0 0 0 noir

0 0 1 nuance de noir

255 0 0 rouge

0 255 0 vert

0 0 255 bleu

128 128 128 gris

255 255 255 blanc

… … … …

Figure 17 : Codage de la couleur sur trois octets

Les images « bitmap » basées sur cette représentation peuvent rapidement occuper un espace
de stockage considérable, chaque pixel nécessitant trois octets pour coder sa couleur. Par
exemple, dans le cas d'une image de 1000 x 1000 = 1 000 000 pixels, elle occupe 3 millions
d'octets. Ce codage de la couleur est utilisé par la plupart des écrans d'ordinateurs
actuellement. Pour faciliter le stockage des images en mémoire on utilise d'autres formes de
codage. La figure 18 montre une image couleur codée avec 8bits/pixel/couleur.

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 18


Figure 18 : Image couleur codée avec 8bits/pixel/couleur,

4.2. Images à palettes, images en 256 couleurs (8 bits)


Pour réduire la place occupée par l'information de couleur, on utilise une palette de couleurs
« attachée » à l'image. On parle alors de couleurs indexées : la valeur associée à un pixel ne
véhicule plus la couleur effective du pixel, mais renvoie à l'entrée correspondant à cette
valeur dans une table (ou palette) de couleurs (appelée Look-Up Table ou LUT en anglais),
dans laquelle on dispose de la représentation complète de la couleur considérée.
Selon le nombre de couleurs présentes dans l'image, on peut ainsi gagner une place non
négligeable. On considère en pratique que 256 couleurs parmi les 16 millions de couleurs
sont suffisantes.

Une autre méthode existante consiste à se passer de la palette et coder directement les trois
couleurs en utilisant un octet : chaque composante couleur est codée sur deux bits, le bit
restant peut servir à gérer plus de couleurs sur une des composantes par exemple.

4.3. Images en teintes (ou niveaux) de gris


On ne code ici plus que le niveau de l'intensité lumineuse, généralement sur un octet (256
valeurs). Par convention, la valeur zéro représente le noir (intensité lumineuse nulle) et la valeur
255 le blanc (intensité lumineuse maximale) (figure 19):

000 008 016 024 032 040 048 056 064 072 080 088 096 104 112 120 128
255 248 240 232 224 216 208 200 192 184 176 168 160 152 144 136
Figure 19 : Codage en niveaux de gris

Ce procédé est fréquemment utilisé pour reproduire des photos en noir et blanc. La figure 20
montre une image en niveaux de gris codée avec 8bits/pixel, soit 28 =256 niveaux.

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 19


Figure 20 : Image en niveaux de gris codée avec 8bits/pixel 28 =256 niveaux de gris

Il est également utilisé pour le codage d'images couleurs : l'image est représentée par trois
images d'intensité lumineuses, chacune se situant dans une composante distincte de l'espace
colorimétrique (par exemple, intensité de rouge, de vert et de bleu). La figure 21 montre une
image couleurs codée par trois images d'intensité lumineuses correspondant au rouge, au vert
et au bleu.

(a)

(b) (c) (d)


Figure 21 : Image couleurs codée par trois images d'intensité lumineuses
(a) Image couleurs (b) intensité du rouge (c) intensité du vert (d) intensité du bleu

4.4. Image binaire


Dans ce cas l’image est représentée en noir et blanc avec 1bit/pixel. La figure 22 montre une
image binaire (2 niveaux : noir et blanc) codée avec 1bit/pixel.

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 20


Figure 22 : Image binaire codée avec 1bit/pixel
5. Formats d'image
Un format d'image est une représentation informatique de l'image, associée à des
informations sur la façon dont l'image est codée et fournissant éventuellement des
indications sur la manière de la décoder et de la manipuler.
La plupart des formats sont composés d'un en-tête contenant des attributs (dimensions de
l'image, type de codage, LUT, etc.), suivi des données (l'image proprement dite). La
structuration des attributs et des données diffère pour chaque format d'image.

De plus, les formats actuels intègrent souvent une zone de métadonnées (metadata en anglais)
servant à préciser les informations concernant l'image comme :
 la date, l'heure et le lieu de la prise de vue,
 les caractéristiques physiques de la photographie (sensibilité ISO, vitesse d'obturation,
usage du flash…)
Ces métadonnées sont par exemple largement utilisées dans le format Exif (extension du format
JPEG), qui est le format le plus utilisé dans les appareils photo numériques. Le tableau 1 donne
les principaux formats.
Type Nombre de couleurs Affichage
(matriciel/ vectoriel) supportées progressif
JPEG matriciel 16 millions Oui

JPEG2000 matriciel 32 millions Oui


GIF matriciel 256 maxi (palette) Oui
256 couleurs ou moins
PNG matriciel Oui
ou 16 millions

TIFF matriciel de monochrome à 16 millions Non


SVG vectoriel 16 millions ne s'applique pas
Tableau 1 : Comparaison des principaux formats

Pr. Ahmed HAMMOUCH, ENSAM, UM5, Rabat Page 21

Vous aimerez peut-être aussi