BENHIZIA_
BENHIZIA_
BENHIZIA_
FILIERE : Informatique
MÉMOIRE DE MASTER
Thème :
2021/2022
Résumé
The remarkable development in the field of information technology and the diversity of
multimedia applications in recent years, involves the development of efficient image
compression techniques, the objective of which is to improve the transmission and storage
capacity data.
The purpose of this work is to achieve a digital image compression application, two
approaches will be proposed, a lossless approach and a lossy compression approach. The
performance obtained from these two approaches will be compared to identify the best
solution for compressing digital images.
Index Terms : Compression, Digital Images, Image Compression, PSNR, SSIM, JPEG, JPEG
2000.
مهخص
انتطىر انمهحىظ فً مجال تكىىنىجٍا انمعهىماث وتىىع تطبٍقاث انىسائظ انمتعذدة فً انسىىاث األخٍزةٌ ،ىطىي عهى تطىٌز تقىٍاث
فعانت نضغظ انصىر ،انهذف مىه هى تحسٍه بٍاواث سعت انىقم وانتخزٌهꓸ
انغزض مه هذا انعمم هى تحقٍق تطبٍق ضغظ انصىر انزقمً ،وسٍتم اقتزاح طزٌقتٍه ،ضغظ بذون فقذان وضغظ مع فقذان .ستتم
مقاروت األداء انذي تم انحصىل عهٍه مه هاتٍه انطزٌقتٍه نتحذٌذ أفضم حم نضغظ انصىر انزقمٍتꓸ
كلمات المفاتيح ꓽانضغظ ꓹانصىرة انزقمٍت ꓹضغظ انصىر.JPEG ꓹPSNR ꓹSSIM ꓹJPEG 2000 ꓹ
Remerciements
à exprimer ma gratitude, pour leur amour et leur soutien tout au long de mes études.
Ma mère a travaillé si dur pour ma réussite, pour son amour, pour son soutien, pour tous
ses sacrifices et pour ses précieux conseils, pour toute son aide et sa présence dans ma vie,
à travers ce travail, aussi dur soit-il, Soyez humble et exprimer mes sentiments et mon
éternelle gratitude.
Mon papa peut fièrement retrouver ici le fruit d'années de sacrifices et de privations pour
m'aider à avancer dans la vie. Que Dieu fasse fructifier ce travail ; merci pour vos nobles
valeurs, votre éducation et votre soutien continu.
Mes frères, s.
Inas
gratitude à:
Résumé
Remerciements
Dédicaces
Table des matières
Figure I.4 (A) Image de Lena (B) histogramme de l'image de Lena ...................................... 18
Figure II.12 Exemples de descendances parent-fils dans le cas SPIHT, le pixel désigné par
(*) n’accepte pas de descendants ............................................................................................... 49
CHAPITRE III : Compression des images : Algorithmes, Simulation et Résultats
Figure III.1 : Icône MATLAB ................................................................................................... 52
La société actuelle génère de plus en plus de données, principalement des sons, des images
ou des textes, issus de différents domaines tels que la physique, la médecine, la biologie, la
culture, le tourisme ou la finance qui doivent être traitées, transmises et/ou stockées.
Cependant, ces techniques de compression sans perte conduisent à des taux de compression
relativement faibles et sont dédiées à des applications sensibles, telles que la compression
d'images médicales et satellitaires, et la compression de fichiers informatiques. L'accès aux
grands appareils public et aux plates-formes hautes performances pousse les fournisseurs de
contenu à offrir de plus en plus de choix dans la manière dont les images numériques sont
diffusées. La compression implique de trouver des moyens de décrire les informations de
manière aussi concise que possible, vous permettant éventuellement de les dégrader vous-
même.
La compression d'une image peut être réalisée par projection basée sur une fonction
orthogonale, puis transformée en codant le résultat de la transformation. Enfin, du fait de la
grande quantité de données à traiter, il y a souvent un arbitrage entre la complexité des
opérations réalisées et la qualité des résultats obtenus. Le principe général de toute
compression est de réduire la taille des données en construisant des messages qui
résumeront les informations initiales en éliminant la redondance.
Depuis le début de l'ère numérique, la quantité d'informations échangées sur les réseaux à
travers le monde nécessite un traitement de l'information pour réduire la taille des données
tout en préservant leur intégrité. Effets visuels de la dégradation de l'image, simplement
parce que la numérisation de l'image réduit la qualité de l'image. Il comprend des techniques
dites irréversibles pour obtenir des images reconstruites de qualité moyenne à des taux de
compression élevés. Dans le cas particulier des images, la compression tente d'extraire des
informations visuelles des données brutes reçues de la caméra. Cependant, la numérisation
présente un inconvénient : elle nécessite une capacité de stockage importante et une bande
passante de ligne de transmission suffisamment importante.
Le premier chapitre : nous allons étudier les différentes caractéristiques de l’image, les
différentes formats, quelques notions de base sur les images et enfin les traitements qu’on
peut appliquer sur celles-ci.
Le troisième chapitre : contient les résultats obtenus après l’application avec quelque
discussion d’évaluation de notre modèle. Nous terminerons par une conclusion générale.
13
CHAPITRE I
Notions sur les images numériques
CHAPITRE I : Notion sur les images numériques
I. 1) Introduction :
L'imagerie a toujours été l'un des moyens les plus privilégiés que les humains utilisent pour
communiquer avec les autres. En fait, c'est un moyen de communication universel dont le
contenu riche permet à des personnes d'âges et de cultures différents de se comprendre.
Chacun peut analyser les images à sa manière pour gagner des impressions et extraire des
informations précises. Dans ce chapitre, nous allons introduire le concept d'images
numériques de manière générale.
I. 3) Image numérique :
Une image numérique est constituée d'un ensemble de points appelés pixels. Un pixel
(abréviation de Picture Élément) est défini comme le plus petit composant d'une image
numérique raster. Pour les images bicolores en noir et blanc, les pixels peuvent être codés
15
CHAPITRE I : Notion sur les images numériques
par un seul bit de code (0 pour le noir ou 1 pour le blanc). Pour les images en niveaux de gris
ou en couleur, les pixels peuvent être encodés en 2, 4, 8, 16, 24 ou 32 bits. (1) (8)
I. 4) a. La Dimension :
C'est la taille de l'image. Cette dernière se présente sous la forme d'une matrice dont les
éléments sont des valeurs numériques représentant des intensités lumineuses (pixels). Le
nombre de lignes de cette matrice multiplié par le nombre de colonnes nous donne le
nombre total de pixels dans l'image. (1) (8)
I. 4) b. Le Bruit :
Il se matérialise standard la présence dans une région homogène des valeurs in addition to
ou moins éloignées de l'intensité de la région. Le bruit est le résultat de certains défauts
électroniques du capteur et de la qualité de numérisation. (1) (8)
I. 4) c. Le Pixel :
À côté le nombre de pixels standard unité de longueur de la structure à numériser est élevé,
in addition to la quantité d'information qui décrit cette structure est importante et in addition
to la résolution est élevée. La résolution d'une image est définie standard un nombre de
pixels standard unité de longueur de la structure à numériser (classiquement en ppp). Ce
paramètre est défini lors de la numérisation (section de l'image sous forme binaire), et
dépend principalement des caractéristiques du matériel utilisé lors de la numérisation. Ce
n'est d'ailleurs pas la seule : la date et l'heure de prise de vue, entre autres, sont aussi des
données stockées avec l'image. (1) (5) (8)
16
CHAPITRE I : Notion sur les images numériques
I. 4) d. La Résolution :
Est le nombre de pixels par pouce (1 pouce = 2,54 cm). Elle est exprimée en "DPI" (dots per
inch) ou PPP (points par pouce). Plus il y a de pixels (ou de points) par pouce, plus il y a
d'informations (et plus précises) dans l'image. (1) (8)
I. 4) e. L'Histogramme :
L'histogramme est une observation statistique, mais il est parfois utilisé comme modèle
probabiliste empirique. L'histogramme des niveaux de gris ou des couleurs d'une image est
une fonction qui donne la fréquence d'application de chaque niveau de gris (couleur) dans
l'image. Pour diminuer l'erreur d’évaluation, pour comparer deux images obtenues sous des
éclairages différents ou reprise pour mesurer les propriétés sur une image, on modifie
souvent l'histogramme correspondant. (1) (8)
17
CHAPITRE I : Notion sur les images numériques
(A) (B)
I. 4) f. La Luminance :
C'est le degré de luminosité de l'image sur laquelle vous vous concentrez. Elle est définie
aussi comme le reste de l'intensité lumineuse d'une surface standard l'aire apparente de cette
surface. (1) (8)
Pour un observateur lointain, le quolibet luminance est substitué à l’adage brillance, qui
relate à l'éclat d'un objet. Une bonne luminance se caractérise standard :
Les contours représentent la frontière entre les objets de l'image, ou la limite entre deux
pixels dont les niveaux de gris représentent une différence significative. Les textures
décrivent la structure de ceux-ci. L'extraction de contour consiste à identifier dans l'image les
points qui séparent deux textures différentes. (1) (8)
18
CHAPITRE I : Notion sur les images numériques
I. 4) i. Le Contraste :
C'est l'opposition marquée entre deux régions d'une image, plus précisément entre les
régions sombres et les régions claires de cette image. (1) (8)
Dans lesquelles l’intensité lumineuse est très changeante localement (dessin manuels par
exemple). Leur histogramme est multimodal.
les images binaires : qui contiennent seulement deux niveaux de gris différents.
les images multi-niveaux : numérisées sur plus d’un (1) bit par pixel.
les images multicanaux : dont l’exemple classique est celui des images couleurs.
Image photographiques
Ce sont généralement des images de scènes naturelles dans le lesquelles l’intensité
lumineuse varie de manière relativement continue.
I. 6) Les formats d’images :
Un design d'image est une représentation informatique de l'image, associée à des
informations sur la façon dont l'image est codée et fournissant éventuellement des signes sur
la manière de la décoder et de la manipuler. (1)
19
CHAPITRE I : Notion sur les images numériques
Le design BMP est un des premiers designs d'image utilisée sous Windows. Il est un des
seuls designs à ne pas utiliser à pressurer. Le fichier BMP contient des données graphiques
matricielles qui sont indépendantes des périphériques d'affichage. Les images BMP sont
généralement non compressées ou compressées avec une méthode de pressuré sans perte.
En dépit de leur grande consommation en matière d'espace de stockage, ils sont in addition
To fiable pour ce qu'il en ait des impressions de haute résolution dans le domaine du
matériel. Il permet d'obtenir une image de très bonne qualité, mais sa taille reste
volumineuse, même si elle est inférieure à celle des fichiers BMP, véhicule les fichiers TIFF
peuvent être compressés largement pris en charge standard les différentes plateformes
existantes, il est souvent approprié dans les environnements professionnels et précisément
dans le domaine business. (1) (5) (14) (13)
Les fichiers GIF sont de petite taille, ce qui est dû au courant que ces images ne peuvent
enregistrer que 256 couleurs.
Le GIF est un design qui offre une image compressée promote en gardant bon rendu, mais
qui reste limité au niveau de la profondeur de couleur (limité à 256 couleurs). Ils sont donc
pris en charge standard la plupart des navigateurs utilisant des algorithmes de pressurer
pour garder leurs tailles initiales. Contrairement au JPG, ils autorisent les fonds transparents
et peuvent aussi stocker plusieurs images afin de créer des diapos ou des liveliness.
20
CHAPITRE I : Notion sur les images numériques
Les GIF texte le style part des fichiers multimédia les in additions to utilisés sur le web et
pour les messages électroniques. (1) (5) (14)
Ce design offre des taux de pressurer inégalés, même si la qualité de l'image s'en ressent au
fur et à mesure que vous augmentez la pressure.
Avec des taux de pressuré élevés donnants lieus à des fichiers imagent de modeste taille, ce
design est devenu le standard des designs d'image sur le web. Généralement, l'on opte pour
une résolution basse pour les messages, une résolution moyenne pour les designs web et une
grande résolution pour les archives commerciales.
Les JPG sont une expansion des design JPEG qui est une norme de pressuré d'image
numérique. (1) (5) (14) (13)
21
CHAPITRE I : Notion sur les images numériques
FAX :
Ce design utilisé pour la transmission de reports (télécopie), codage binaire, application d'un
codage RLC puis d'un codage de Huffman. (1)
TGA :
Le design TGA a été créé à l'origine standard la firme Ture Vision, fabriquant des cartes
graphiques Targa et Vista. Ce design est parmi les designs les in additions to puissants, avec
le design TIFF. Toutefois, il est moins connu que les autres designs comme le design BMP, le
design EPS. Il peut coder la couleur sur 8, 16, 24 ou 32 pièces standard pixel. Ce design est
aussi compétent de gérer le noir et blanc et le RGB. (1)
Les images binaires sont des images en niveau de gris particulières, dont les valeurs valent
soit 0 (noir), soit 1 (blanc). On cherche souvent à se ramener les images de départ à des
images binaires, véhicule il est très facile ensuite d'identifier les objets présents. L'image
22
CHAPITRE I : Notion sur les images numériques
obtenue n'est pas très nuancée, alors, pour convertir une image couleur en mode
monochrome, il faut d'abord passer standard le mode niveaux de gris. (1) (5) (13)
La plupart des images designs de fichiers prennent en charge un least de niveaux de gris en
bits 8, qui fournissent les niveaux de luminance 2 ^ 8 ou 256 standards pixels. Les images
peuvent être enregistrées en niveaux de gris (ou en noir et blanc), même les images couleur
contiennent des informations en niveaux de gris.
23
CHAPITRE I : Notion sur les images numériques
I. 7) c. L'image en couleurs :
On peut représenter les couleurs à l'aide de leurs composants primaires, le rouge, le vert et le
bleu (le modèle R.V.B). Les images en couleurs vraies stockent pour chaque pixel 3
composantes : rouge, vert, bleu (ou RGB, pour Red-Green-Blue). L'espace HSV décompose
chaque pixel en trois composantes de teinte (tint, qui représente la couleur principale),
d'immersion (dose entre « coloré » et « gris »), et de valeur (qui correspond à l'intensité
globale du pixel). La représentation des couleurs s'effectue de même manière que les images
en niveaux de gris avec cependant quelque particularité. Ces trois composantes permettent
de représenter toutes les autres couleurs, y compris les subtleties de gris. Si chaque
composante est codée sur 8 pièces (soit valeurs 256 possibles), on peut ainsi représenter
jusqu'à 256*256*256=16 millions de couleurs différentes. (1) (5) (8) (13)
24
CHAPITRE I : Notion sur les images numériques
25
CHAPITRE I : Notion sur les images numériques
Un cercle, une droite, ou un objet prédéfini ont été reconnus dans l'image, une pièce
manufacturée a été reconnue conforme : le préhenseur du bras de robot, ou du robot delta va
prendre la pièce sur le tapis roulant et la stocker, un singe a été reconnu : le tir va être
effectué.
De nouvelles applications pratiques possibles aujourd'hui et qui touchent tous les domaines
d'activités, tels que : les métiers du spectral, de la radio, les créations artistiques. On trouve
ses applications dans des domaines très variés tels que les télécommunications (TV, vidéo,
publicité…), la médecine (radiographie, ultrasons…).
Les exemples et domaines d'applications du traitement d'image sont très nombreux. Les
deux principaux domaines, qui ont permis au Traitement d'Image de se développer sont :
(12)
Le domaine militaire :
Le domaine médical :
Angiographie
Radiographie
Echographie
Scanner
IRM
Mais, une multitude d'applications apparaissent dans des domaines divers allant :
Du domaine industriel :
Les contrôles automatiques standards des robots (« choisir et repérer » : récupération sur
un tapis roulant pour mise en sachet ou dans un conteneur) y compris dans l'industrie
alimentaire en in addition to du contrôle de la structure, de la fraîcheur.
Le contrôle de la qualité des produits en session de chaîne (état de surface,
dimensionnement, forme, couleur, présence des comprimés standard exemple dans
l'industrie pharmaceutique).
26
CHAPITRE I : Notion sur les images numériques
I. 10) Conclusion :
Dans ce chapitre, nous avons présenté les notions d’images d’une manière générale. Nous
avons essayé de donner un aperçu sur les différents formats, caractéristiques et les différents
types d’images. Cependant, nous allons dans le chapitre suivant présenter les différentes
techniques de compression.
27
CHAPITRE II
Généralités sur les techniques de compression
d’images
CHAPITRE II : Généralités sur les techniques de compression d’images
II. 1) Introduction :
Malgré l'augmentation de la capacité des supports de stockage et des débits des réseaux, il
existe toujours un besoin de compresser les images compte tenu de l'évolution des usages de
l'image et de la vidéo et de l'augmentation de la capacité d'acquisition des capteurs. Les
méthodes de compression sans perte sont dédiées aux applications sensibles, telles que la
compression d'images médicales et satellitaires, et la compression de fichiers informatiques,
un engouement qui ne se dément pas depuis les années 1970, porté par l'évolution des
méthodes d'acquisition, des capacités de stockage et des performances de calcul.
Dans ce chapitre, nous donnons quelques concepts de base sur la compression d'image, les
paramètres qui permettent d'évaluer ses performances et les différentes méthodes de
compression. La compression de cette grande quantité d'informations est donc une étape
importante pour optimiser la taille mémoire nécessaire à son archivage et réduire le temps
nécessaire à la télétransmission sur un réseau informatique. Les opérations de compression
d'image sont utiles pour l'archivage ou le transfert sur support de stockage. Une légère perte
(parfois imperceptible) de fidélité est acceptable pour les images naturelles (telles que les
photographies) afin d'obtenir des réductions substantielles du débit binaire.
La compression d'image est une application de compression de données sur des images
numériques. Son utilité est de réduire la redondance des données dans une image afin qu'elle
puisse être stockée ou transférée rapidement sans prendre beaucoup de place. La langue elle-
même utilise des mots de longueurs variables, les plus courants étant les plus courts, pour
réduire la taille des phrases.
Le compresseur utilise un algorithme qui optimise les données avec des considérations
spécifiques au type de données compressées. Par conséquent, un décompresseur est
nécessaire pour reconstruire les données d'origine en utilisant l'algorithme inverse utilisé
pour la compression. (1) (9) (3)
28
CHAPITRE II : Généralités sur les techniques de compression d’images
Image
Originale
Décorrélation
Quantification
Codage
Entropique
Image
Compressés
A partir de ce schéma, nous allons revoir chacune de ses étapes à fin de préciser leur rôle.
Le but d'une transformation est de projeter un signal sur la base d'une fonction dont les
propriétés sont appropriées aux propriétés et caractéristiques du signal que l'on souhaite
analyser.
Les pixels qui composent une image numérique sont souvent liés, ce qui crée des
informations redondantes qui doivent être utilisées pour la compression afin de réduire la
taille de l'image.
Les dépendances existantes entre chaque pixel et ses voisins (petits changements de
luminosité d'un pixel aux voisins) reflètent de très fortes corrélations dans l'image. En effet,
en plus de réorganiser l'information, il doit représenter les parties importantes du signal avec
le moins d'éléments possible. (1) (3) (10)
II. 3) b. Quantification :
29
CHAPITRE II : Généralités sur les techniques de compression d’images
Dans les schémas de compression, l'étape de quantification est une étape qui dégrade de
manière irréversible la qualité de l'image. Il se rapproche de chaque valeur du signal comme
un multiple entier de la quantité q, appelée quantum fondamental ou pas de quantification.
Il se rapproche de chaque valeur du signal comme un multiple entier de la quantité q,
appelée quantum fondamental ou pas de quantification. (1) (3) (9) (4) (10)
II. 3) c. Codage :
Cette dernière étape est nécessaire dans les méthodes sans perte, mais elle se produit aussi
souvent dans les algorithmes irréversibles, car les valeurs transformées et quantifiées
contiennent plus de redondance. Le codeur doit répondre a priori aux deux conditions
suivantes :
o Unicité : Deux messages différents ne peuvent pas être encodés de la même manière.
o Déchiffrement : Deux mots de code consécutifs doivent être distingués sans
ambiguïté.
Cependant, l'absence d'un codeur entropique peut être raisonnable et nécessaire, notamment
en raison des limitations de transmission.
Le codage entropique effectue un codage nul sur les valeurs quantifiées. (1) (3) (9) (4) (10)
Cette technique de compression conservatrice est utilisée dans des applications telles que
l'archivage d'images médicales, l'imagerie satellite, où les photographies sont coûteuses, et
les informations critiques, textes, programmes et toute autre forme de données devant être
stockées dans une résidence. Si les données sont compressées sans perte, les données
d'origine peuvent être récupérées avec précision à partir des données compressées.
Avec la compression sans perte, les données sont compressées sans perte de données.
Comme leur nom l'indique, les techniques de compression sans perte n'impliquent pas de
perte d'informations.
30
CHAPITRE II : Généralités sur les techniques de compression d’images
Ils peuvent trouver exactement les pixels de l'image numérique d'origine. (1) (3) (5) (10) (7)
(8)
Shannon du Bellis Lab et R.M. Fano du MIT ont développé une méthode de codage basée sur
une simple connaissance de la probabilité d'occurrence de chaque symbole dans un message
presque simultanément. Ils utilisent des codes de longueur variable, comprenant plus de
bits, car la probabilité de symboles est faible.
o Les symboles sont triés et classés en fonction de leur fréquence, commençant par le
plus fréquent.
o La liste des symboles est ensuite divisée en deux parties de manière à ce que le total
des fréquences de chaque partie soit aussi proche que possible.
o Le chiffre binaire 0 est affecté à la première partie de la liste, le chiffre 1 à la
deuxième partie.
o Rediviser chaque sous ensemble en deux nouveaux sous-ensembles de fréquences
équivalentes afin de réitérer l’algorithme jusqu’à ce qu’il n’y ait plus qu’un élément
dans chaque sous ensemble.
Exemple :
Symbole Fréquences
C 11
B 7
E 5
D 4
A 2
Tableau II.1 Fréquences (ou probabilité) des symboles
31
CHAPITRE II : Généralités sur les techniques de compression d’images
La longueur de chaque mot de code n'est pas la même pour tous les symboles : les symboles
les plus courants (ceux qui apparaissent le plus fréquemment) sont codés avec de petits mots
de code, tandis que les symboles les plus rares reçoivent des codes plus longs.
En 1952, David Huffman a proposé le codage de Huffman, qui consiste à remplacer chaque
symbole de la chaîne à compresser par un code binaire, les symboles les plus fréquents étant
codés avec moins de bits.
Le but de cet encodage est de réduire le nombre de bits utilisés pour encoder les caractères
fréquents dans le texte et d'augmenter le nombre de bits utilisés pour les caractères rares.
C'est une méthode de compression statistique de données qui permet d'affecter des mots de
code binaires aux différents symboles à compresser. C'est un code optimal à longueur
variable, c'est-à-dire affectant le symbole de poids le plus faible à la branche 1 et l'autre à la
branche 0 Et ainsi de suite, en traitant chaque nœud formé comme un nouveau symbole
jusqu'à l'obtention d'un nœud parent appelé racine.
En informatique et en théorie de l'information, le codage de Huffman est un algorithme de
codage entropique utilisé pour la compression de données sans perte. Le code de chaque
symbole correspond à la séquence de codes sur le chemin de ce caractère à la racine.
Un encodeur Huffman crée un arbre ordonné à partir de tous les symboles et de leur
fréquence d'occurrence. Contrairement au codage Shannon-Fano, il commence à la racine des
feuilles de l'arbre et fonctionne par fusions successives jusqu'à la racine. On dit codage à
longueur variable (en anglais VLC est Variable Length Code), le préfixe fait référence à ce
type de codage, car aucun codage n'est le préfixe d'un autre codage. Ainsi, la séquence finale
de mots codés de longueur variable sera en moyenne plus petite qu'une séquence de taille
constante. (1) (9) (3) (5) (7) (8)
Le codage de Huffman crée des codes de longueur variable sur des bits entiers.
32
CHAPITRE II : Généralités sur les techniques de compression d’images
o Regrouper par séquences les paires de symboles de plus faible probabilité, en les
reclassant si nécessaire. Plus précisément : calculer s = n + n−1, la somme des deux
plus faibles fréquences.
o Choisir le plus petit indice k tel que s soit supérieur ou égal à k, remplacer k par
k+1.
o Recomposer la table des fréquences en plaçant à la k ème position la valeur s et en
décalant les autres d’une position vers le bas. Puis décrémenter n d’une unité,
poursuivre jusqu'à ce que la table des fréquences ne comporte plus que deux
éléments.
o Coder avec retour arrière depuis le dernier groupe, en ajoutant un 0 ou un 1 pour
différencier les symboles préalablement regroupés.
Exemple:
Soit le tableau suivant :
Les codes obtenus par la méthode de huffman sont: D(14)=0. A (7) =111. B (6) =110. C (5)
=101. E (4) =100.
Par exemple, un symbole avec une probabilité de 0,9 a une entropie de 0,15, mais Huffman
peut attribuer un code d'un bit (ou plus), et la séquence codée sera plus longue en bits que
théorique. Ce code de sortie est un nombre à virgule flottante entre 0 et 1 avec le nombre de
chiffres après la virgule correspondant au nombre de symboles. En fait, au lieu d'attribuer un
mot de code à chaque symbole, il associe une valeur dans l'intervalle [0,1] à un ensemble de
symboles.
33
CHAPITRE II : Généralités sur les techniques de compression d’images
Contrairement aux algorithmes de codage qui utilisent des mots de code de longueur
variable, ici les codes sont associés à des séquences plutôt qu'à chaque symbole acquis
individuellement. Après lecture de chaque symbole d'entrée de l'alphabet, l'intervalle est
subdivisé en intervalles plus petits proportionnels à la probabilité du symbole d'entrée.
Dans cette section, nous présentons les idées principales du codage arithmétique, l'une des
techniques de compression sans perte les plus efficaces et probablement la plus importante
dans les applications et les normes actuelles. Contrairement à ce dernier, il génère un code
pour toute la séquence de symboles, plutôt qu'un code par symbole. Ce sous-intervalle
devient alors le nouvel intervalle et est divisé en parties selon les probabilités des symboles
alphabétiques entrés. (9) (1) (3) (5) (8)
Les encodeurs arithmétiques sont plus efficaces que les encodeurs Huffman, mais sont plus
complexes à mettre en œuvre.
Enfin, tous les nombres à virgule flottante dans le dernier intervalle déterminent de manière
unique les données d'entrée.
Le codage arithmétique est le codage le plus récent qui utilise des modèles statistiques,
comme les encodeurs Huffman.
Nous décrivons brièvement ci-dessous l’algorithme de codage arithmétique dans le but d’en
illustrer le principe, sachant que le décodage opère de manière inverse.
34
CHAPITRE II : Généralités sur les techniques de compression d’images
Ce codage consiste, pour chaque séquence de pixels de même couleur, à ne coder que le
nombre de pixels, puis la couleur de la séquence. Au lieu de coder des symboles consécutifs
de la chaîne, le nombre de symboles consécutifs de même valeur est codé. Le principe est de
regrouper une même valeur adjacente et de ne transmettre la valeur qu'une seule fois,
précédée du nombre de répétitions.
Dans le cas de la compression d'images, RLE est utilisé par de nombreux formats d'images
(BMP, PCX, TIFF). Cependant, sans répétition d'éléments, cette technique ne donne pas de
résultats satisfaisants. Il existe des variantes où l'image est encodée par des blocs de points, le
long de lignes ou même en zig-zag. Le plus simple de ces algorithmes est le codage de
longueur de plage (RLE), une méthode également connue sous le nom de codage de
longueur de plage (RLC).
Il existe plusieurs algorithmes utilisés pour compresser les informations des plus simples aux
plus complexes et leur efficacité varie avec celle-ci. Évidemment, cette méthode fonctionne
bien s'il y a beaucoup de répétitions dans le signal. (9) (1) (3) (5) (7) (8)
La performance dépend
d'une bonne estimation si
l'estimation n'est pas
meilleure que la
performance est mauvaise.
35
CHAPITRE II : Généralités sur les techniques de compression d’images
deux structures de
problèmes pour stocker les
nombres et la division
constante de l'intervalle
peuvent entraîner un
chevauchement de code.
Tableau II.2 Résumé des avantages et inconvénients de divers algorithmes de compression
sans perte
Le taux de compression d’un facteur 4, n’est pas toujours suffisant pour la transmission et
le stockage des images numériques de grandes tailles. Pour l’améliorer, il va falloir perdre de
l’information et par conséquent dégrader l’image. Il existe plusieurs méthodes pour la
compression données :
o par quantification
o par prédiction
o par transformation
Les méthodes irréversibles permettent des taux de compression assez élevés au prix d’une
dégradation de la qualité de l’image. Outre, le taux de compression, une mesure de cette
dégradation est nécessaire à l’évaluation des performances de ces méthodes. Des algorithmes
de compression avec pertes est de minimiser cette dégradation pour un taux de compression
donné. (1) (3) (5) (10) (7) (8)
36
CHAPITRE II : Généralités sur les techniques de compression d’images
Un quantificateur scalaire est un opérateur qui associe une variable continue u à une variable
discrète u' pouvant prendre un nombre petit et fini de valeurs ; il est généralement défini
comme une fonction en escalier (Figure II.5), avec chaque valeur L'intervalle entre est appelé
l'intervalle de décision.
Les quantificateurs scalaires sont des opérateurs qui relient des variables continues à des
variables discrètes, qui peuvent prendre un nombre petit et fini de valeurs. Il s'agit d'une
opération irréversible largement utilisée en compression (il est à noter que les procédés de
codage utilisant des quantificateurs ne sont jamais réversibles, car l'étape de quantification
introduit inévitablement de la distorsion). (9) (1) (8)
37
CHAPITRE II : Généralités sur les techniques de compression d’images
QV, développé par Gersho et Gray, occupe une place très importante dans le domaine de la
compression d'images, que ce soit à des fins de transmission ou d'archivage.
La quantification vectorielle, développée par Gersho et Gray (1980), fait aujourd'hui l'objet de
nombreuses publications dans le domaine de la compression d'images numériques. Le rôle
de l'encodeur est de rechercher dans le dictionnaire Y le code vectoriel y le plus proche pour
tout vecteur x du signal d'entrée (patch). Il s'agit d'une quantification vectorielle incluant les
mêmes opérations que QS, seul le partitionnement se fait dans R. (9) (1) (3) (8)
QV est divisé en deux parties, une partie d'encodage et une partie de décodage.
Quantification scalaire, qui relie une variable continue à une variable discrète qui peut
prendre un nombre plus petit et fini de valeurs.
La quantification vectorielle dans son sens le plus général est l’approximation d’un signal
d’amplitude continue par un signal d’amplitude discrète. Elle peut être vue comme une
application Q associant à chaque vecteur d’entrée x de dimension K un vecteur y = Q(x) de
même dimension appartenant à un ensemble fini Y appelé DICTIONNAIRE de taille finie N,
Y = (yj , j = 1...N).
o Codeur
Le rôle du codeur consiste, pour tout vecteur xi du signal en entrée à rechercher dans le
dictionnaire Y le code vecteur yj le plus proche du vecteur source x. C’est uniquement
l’adresse du code vecteur yj ainsi sélectionnée qui sera transmise ou stockée. C’est à ce
niveau donc que s’effectue la compression.
o Décodeur
Il dispose d’une réplique du dictionnaire et consulte celui-ci pour fournir le code vecteur
d’indice correspondant à l’adresse reçue. Le décodeur réalise l’opération de décompression.
38
CHAPITRE II : Généralités sur les techniques de compression d’images
Dans ces méthodes, une image de taille NxN est subdivisée en sous-images ou blocs de taille
réduite (le calcul nécessaire pour effectuer la transformation sur toute l'image est très élevé).
Chaque bloc subit une transformation mathématique orthogonale linéaire inversible du
domaine spatial vers le domaine fréquentiel, indépendamment des autres blocs (transformés
en un ensemble de coefficients plus ou moins indépendants). Il s'agit plutôt de trier les
coefficients pour faciliter le travail de l'encodeur entropique ou d'exploiter les dépendances
entre les coefficients. Les coefficients obtenus sont ensuite quantifiés et codés pour rendre
compte de leur transmission ou stockage. (9) (1) (5)
Un schéma typique de compression par transformée est représenté sur la Figure (II.7).
39
CHAPITRE II : Généralités sur les techniques de compression d’images
Son but est de regrouper les énergies en passant des notions de pixel et de couleur aux
notions de fréquence et d'amplitude.
Après avoir appliqué cette transformée au bloc, nous pouvons stocker les informations
fondamentales dans la base de fréquence et les énergies seront regroupées dans le coin
supérieur gauche de la matrice.
Pour les images couleur, trois fonctions tridimensionnelles (indépendantes) sont traitées : X
et Y, représentant le pixel et Z représentant la valeur du pixel à cet instant.
C'est l'acte d'appliquer une transformée en cosinus discrète à des blocs de pixels pour
supprimer la redondance des données d'image. (9) (1) (5) (10) (8)
Cette transformation sera appliquée à chaque composant de chaque bloc. En pratique, pour
une image codée en 24 bits, on appliquerait la DCT 3 fois par bloc (1 pour la composante Y, 1
pour Cb ou U, et 1 pour V ou Cr) (Figure II.8).
40
CHAPITRE II : Généralités sur les techniques de compression d’images
∑∑
√
o √
√
41
CHAPITRE II : Généralités sur les techniques de compression d’images
Représentée par leurs réponses impulsionnelles (h et g), cette opération est l'inverse de
l'opération de décomposition (remplacement des filtres passe-bas et passe-haut par les filtres
miroirs associés), et l'opération de décimation est remplacée par l'opération d'interpolation
incluse dans chacun Ajouter un zéro entre les coefficients. Selon cela, le schéma de
suralimentation est un algorithme efficace pour mesurer la DWT car il utilise moins de
coefficients de filtre, ce qui permet une mise en œuvre rapide et une réduction de la mémoire
de la DWT.
La transformée en ondelettes discrètes (DWT) est une puissante transformée qui offre une
efficacité de compression nettement meilleure que la DCT à des taux de compression plus
élevés. Il présente des propriétés d'adaptabilité ou de flexibilité très intéressantes,
notamment le choix des fonctions d'ondelettes de base (orthogonales ou sans support,
compact ou infini, etc.) et des paramètres.
La méthode de prédiction est l'une des plus anciennes et c'est une méthode de décorrélation
qui fonctionne comme suit. Les méthodes prédictives peuvent être facilement mises en
œuvre et conduire à de bons taux de compression. (1)
Le terme hybride fait référence aux techniques qui combinent le codage prédictif et le codage
par transformation.
Dans le cas d'images fixes, une transformation unidimensionnelle est effectuée le long des
lignes, puis une prédiction est effectuée le long des colonnes. Pour les images animées, une
combinaison est effectuée entre une transformation bidimensionnelle dans le domaine
42
CHAPITRE II : Généralités sur les techniques de compression d’images
spatial et une prédiction le long des composantes temporelles pour exploiter la redondance
temporelle du signal image.
Un codeur hybride combine les avantages des deux techniques qui le composent.
Après une longue période de recherche et développement, avec la participation d'une très
large communauté scientifique, JPEG est devenu une norme internationale en 1993.
La norme JPEG (Joint Photographic Experts Group) a été conçue par le groupe ISO
(International Standards Organization) et le groupe IEC (International Electronics
Commission). Il est conçu pour compresser des images fixes en couleur et en niveaux de gris
pour les stocker sur un support numérique. Il est conçu pour couvrir les applications les plus
diverses, tout en prenant en compte les contraintes du monde réel associées aux applications
les plus évidentes : édition, transmission, référentiels d'images. (2) (3) (5) (7) (8)
o les méthodes de compression avec pertes qui sont basées sur la TCD suivie d’une
quantification et d’un codeur entropique (cf. figure II.9).
o La seconde classe, concerne les processus de codage sans pertes, cette classe de
codeurs n’est pas basée sur la TCD mais sur le codage MICD suivi d’un codage
entropique (cf. figure II.10). Pour les méthodes avec pertes, quatre codeurs ont été
spécifiés : un codage de base où l’image compressée puis décompressée n’est plus
identique à l’image originale, ce processus utilise la TCD et un codage de Huffman.
43
CHAPITRE II : Généralités sur les techniques de compression d’images
Discrete Cosine Transform via 8x8 Blocks (DCT) : L'objectif du calcul DCT est de supprimer
les hautes fréquences, et il y a 2 étapes de base pour atteindre cet objectif JPEG :
1. Séparer les basses et les hautes fréquences présentes dans une image : sauf Imagez en
blocs et appliquez sa distribution spectrale à chaque pixel de bloc via DCT.
44
CHAPITRE II : Généralités sur les techniques de compression d’images
100 155 131 116 151 135 131 211 145 -84 34 -69 4 -66 35 72
120 135 127 88 155 131 155 179 -45 -28 28 19 10 -54 5 15
120 135 151 100 179 116 155 167
DCT
0 -2 -8 -15 -9 0 30 -41
120 155 151 108 191 112 155 179 9 -14 15 -11 5 8 -12 -32
135 151 135 210 197 112 179 179 1 1 3 -11 7 -23 -4 0
120 151 155 151 151 116 179 179 18 4 -17 -10 4 -10 7 -10
135 151 167 167 151 151 167 171 -5 1 -7 -20 1 -1 -3 5
150 151 179 151 151 131 155 167 3 1 1 9 2 7 2 -2
Les basses fréquences se trouvent en haut à gauche de la matrice, et les hautes fréquences
en bas à droite.
2. Étape de compression : quantifier ces blocs transformés avec plus ou moins de bits
selon la qualité requise
Ce choix a été fait suite à des tests de facteurs de dégradation d'image associés à l'étape de
quantification : les développeurs du format JPEG ont estimé qu'il ne fallait pas dépasser un
facteur de 25, de sorte que
4 7 10 13 16 19 22 25
7 10 13 16 19 22 25 28
Quantification= 10 13 16 19 22 25 28 31
13 16 19 22 25 28 31 34
16 19 22 25 28 31 34 37
19 22 25 28 31 34 37 40
22 25 28 31 34 37 40 43
25 28 31 34 37 40 43 46
Chaque coefficient du calcul DCT sera alors quantifié à l'aide de cette matrice.
Compression RLE et Huffman : La dernière étape de l'algorithme JPEG consiste à utiliser des
méthodes de compression classiques sans perte.
RLE : est par conséquent utilisé pour les séquences formées essentiellement de 0.
45
CHAPITRE II : Généralités sur les techniques de compression d’images
Le codage RLE est appliqué en premier d’une manière particulière pour les séquences de 0.
Décompression :
Nous avons vu que la compression JPEG se fait en 5 étapes. Pour décompresser l'image, il
faut donc prendre le chemin inverse. On part d'un fichier contenant une séquence de bits :
ceux-ci doivent contenir des facteurs de compression (reconstruction des tables de
quantification), des tables de codage Huffman (conversion du codage Huffman de DCT en
coefficients).
2) Repérer la balise du codage RLE pour remettre les bonnes séquences de zéros.
3) Procéder à une transformation par bloc 8x8 de type IDCT (Inverse Discrète Cosinus
Transform).
∑∑
√
L'un des principaux inconvénients de JPEG est la perte de netteté des bords en utilisant une
quantification qui a tendance à lisser l'image, donc JPEG est nul à des taux de compression
très élevés. La norme JPEG a parfois eu du mal à répondre aux besoins identifiés par ces
applications, ce qui a conduit à la création d'une nouvelle version de la norme ; JPEG 2000,
pour intégrer des technologies plus performantes et répondre à ces nouveaux besoins.
La technologie d'aujourd'hui n'est plus la même, car la recherche a évolué et, d'autre part, les
besoins ne sont plus les mêmes.
JPEG 2000 est une évolution du format JPEG qui va reprendre certains éléments du JPEG,
comme le prétraitement des images en passant du RVB, nécessaire en réponse aux évolutions
de la photographie numérique, du web et de l'e-commerce.
Deux types de méthodes de compression par ondelettes sont aujourd'hui référencés : les
algorithmes de codage imbriqués {EZW (Embedded Zerotree Wavelet), SPIHT (Set
Partitionning In Hierarchical Trees).
46
CHAPITRE II : Généralités sur les techniques de compression d’images
La norme JPEG2000 est basée sur la transformée en ondelettes discrètes DWT au lieu de la
DCT utilisée par la norme JPEG.
Le but de ces transformations est généralement de décorréler les données brutes de l'image
représentée par ses pixels. DWT permet une analyse plus localisée et plus fine des
informations, ce que DCT ne peut pas.
Un tel programme est difficile à réaliser. Le groupe de travail ISO JPEG 2000 y travaille
depuis 1998. (2) (5) (7) (8)
On peut tout de même donner un premier aperçu de ce que devrait être le format JPEG 2000
en présentant 3 de ses caractéristiques principales:
o Il sera basé sur la technologie des ondelettes. Le résultat pratique de ce choix devrait
être une amélioration modeste, mais réelle, du taux de compression (environ 20%) et
de la qualité de reproduction par rapport à ce que permet le JPEG actuel. Les
coefficients d'ondelettes sont plus faciles à stocker que les blocs produits en
appliquant DCT.
o Il permettra à l'utilisateur de déterminer jusqu`à quel point les détails de l'image
l'intéressent en lui donnant le choix de la résolution de restitution. La récupération
sans pertes de l'image devrait être possible.
o Il permettra une meilleure restitution des couleurs grâce à l'utilisation des profils
ICC. On pourra aussi bien enregistrer des images RVB que des images CMJN.
JBIG est une norme de compression sans perte adaptée aux images à deux tons seulement
(images à deux couches, telles que les images de télécopie).
La norme s'applique également aux débits binaires de 9,6 Kbits/S à 64 Kbits/S. Il utilise un
codage sans perte avec un codeur arithmétique adaptatif.
La norme JBIG (Joint Bilayer Image Group) est conçue pour compresser des images
photographiques représentées sous forme d'images textuelles bicolores (noir et blanc). Sa
structure est en couches et chaque couche est un encodeur indépendant. (3)
Par rapport à la norme JPEG, l'encodeur EZW offre les caractéristiques de transfert progressif
de l'image encodée tout en offrant des performances supérieures (débit-distorsion). La
structure zerotree peut détecter les régions d'une image qui ne contiennent pas
d'informations importantes, puis les encoder dans un arbre.
L'EZW (Embedded Zerotree Wavelet) proposé par J. Shapiro a été le premier encodeur de
sous-bande zerotree à être introduit.
47
CHAPITRE II : Généralités sur les techniques de compression d’images
L’algorithme EZW a été ensuite amélioré par l’algorithme SPIHT et SPECK. (1) (2) (3)
Sur les coefficients des sous-bandes, l'algorithme SPIHT applique les règles de
partitionnement définies. Les algorithmes du codeur et du décodeur sont les mêmes et
aucune information d'ordre de transmission explicite n'est requise. Il est le même que
d'autres algorithmes de transmission progressive pour l'in- codage du véhicule, ce qui
améliore l'efficacité de codage de l'algorithme par rapport à d'autres algorithmes. Ainsi, le
flux de sortie contient les informations générées par l'algorithme de tri, les informations
nécessaires au décodeur pour pouvoir réorganiser (d'étrier) les coefficients, et les
informations liées aux valeurs des coefficients (signe et bits les moins significatifs).
Ainsi, le tri partiel utilise une recherche en profondeur des nœuds qui ont des descendants
significatifs dans l'arbre hiérarchique, réorganisant les coefficients des branches en fonction
de leurs bits les plus significatifs (réduisant l'erreur quadratique). Par conséquent, des
coefficients insignifiants dans les basses fréquences sont probablement dus à des enfants
insignifiants dans les hautes fréquences, et ceux qui ont une énergie élevée ont généralement
des enfants avec moins d'énergie. Cependant, les coefficients sont partiellement ordonnés à
l'aide d'une arborescence hiérarchique de coefficients pour coder préférentiellement les
coefficients à haute énergie. Il est basé sur le même concept : codage progressif à travers des
plans de bits et utilisant des dépendances hiérarchiques entre différents coefficients de sous-
bande.
En 1996, Said et Pearlman ont créé un algorithme de codage d'images simple et entièrement
intégré basé sur le principe de la division des ensembles en arbres hiérarchiques (SPIHT).
L'algorithme SPIHT permet la génération directe de flux binaires au lieu des symboles
significatifs utilisés dans EZW.
Comme EZW, cet algorithme suppose une décroissance énergétique pour les coefficients de
résolution/fréquence la plus élevée dans l'arbre hiérarchique.
Cependant, un nouveau protocole de dépendance entre les coefficients est défini. Les
coefficients de la sous-bande de plus basse fréquence (A2 en figure II.12) sont regroupés par
quatre, et pour chaque groupe, la descendance est comme suit :
Un des quatre coefficients (marqué par « * » en figure II.12) n’admet pas des descendants.
Pour les autres sous-bandes, comme dans le cas de l’EZW, chaque coefficient admet quatre
descendants. (1) (2) (3) (10)
48
CHAPITRE II : Généralités sur les techniques de compression d’images
Figure II.12 Exemples de descendances parent-fils dans le cas SPIHT, le pixel désigné par (*)
n’accepte pas de descendants
Trois ensembles de coordonnés sont utilisés pour présenter la nouvelle méthode de codage :
II. 7) Conclusion
Notez que chaque encodeur a des avantages et des inconvénients, donc aucun encodeur
général n'est utilisé dans l'opération de compression, nous pouvons donc en déduire que
changer l'image doit changer l'algorithme de compression.
49
CHAPITRE II : Généralités sur les techniques de compression d’images
Afin d'obtenir une meilleure qualité d'image, certaines méthodes et mesures sont introduites
pour supporter le procédé de compression selon le domaine d'utilisation du procédé de
compression. Son importance tient avant tout aux possibilités matérielles des appareils que
nous utilisons (capacité de mémoire de masse, débit internet, etc.) et aux besoins exprimés
par les utilisateurs (visiophonie, vidéo plein écran, transmissions de masse obtenues dans
des délais de plus en plus courts périodes de temps) Plus d'informations. L'avenir de la
compression ne peut être atteint que grâce à des algorithmes mathématiques, et les progrès
de la recherche mathématique conduiront inévitablement à des progrès dans la compression
d'images, et il existe de multiples formats qui compensent la diversité des images, leur taille,
leur nombre des couleurs, et représentation (vecteur et bitmap).
Au final, nous pouvons conclure qu'il existe de nombreuses façons d'encoder, de représenter
et de compresser des images. Les ratios deviennent de plus en plus grands sans perte notable
et réelle de qualité d'image.
50
CHAPITRE III
Résultats expérimentaux
CHAPITRE III : Résultats expérimentaux
III. 1) Introduction :
Dans ce chapitre, nous étudions les résultats obtenus par notre méthode sur les images tests
utilisées, et nous définirons le protocole de test pour valider notre méthode.
La compression d'image est une application de compression de données sur des images
numériques.
L'organigramme :
La compression d’une image suit un certain nombre d’étapes visant à réduire la place
occupée à l’aide de diverses méthodes. Ces étapes sont illustrées dans le schéma ci-dessous :
52
CHAPITRE III : Résultats expérimentaux
Transformation de couleurs:
La première étape consiste à passer du modèle initial des couleurs de l’image (souvent RVB)
en modèle de type chrominance/luminance (YCrCb).
R Y
G Cr
B Cb
RGB YCrCb
Les meilleurs taux de compression sont obtenus avec un codage couleur de type
luminance/chrominance (par exemple YUV, YCbCr), car l'œil humain est très sensible à la
luminance, mais moins sensible à la chrominance.
Le sous-échantillonnage :
L’objectif ici va être de réduire l’information occupée par la chrominance. Si l’œil humain est
très sensible à la luminance, elle distingue par contre très mal la chrominance. Ainsi, une
perte d’information sur ce point passera relativement inaperçu.
À partir d’ici, la compression va travailler sur des blocs de pixels seulement. Ces blocs sont
des matrices de pixels 8*8 soient 64 pixels.
53
CHAPITRE III : Résultats expérimentaux
DCT :
La DTC (Discrete Cosine Transform) est une étape qui permet d’évaluer l’amplitude des
changements d’un pixel à l’autre afin d’identifier les hautes et basses fréquences. Les basses
fréquences, très présentes dans une image, sont des zones unies où les couleurs sont proches
les unes des autres. A l’inverse, les hautes fréquences sont des zones de contraste, de
changement rapide dans les couleurs.
Cette étape consiste à appliquer à notre matrice de pixels la formule mathématique du DCT
afin d’obtenir une matrice des fréquences. Cette matrice sera utilisée dans la prochaine étape
: la quantification.
La Quantification :
La quantification a pour objectif d’atténuer les hautes fréquences d’une image qui ont été mis
en évidence par la DCT. L’œil humain distingue mal les zones de contrastes (les hautes
fréquences) et la quantification va permettre de diminuer l’importance de ces informations
superflues.
La technique est simple. Il suffit de diviser notre matrice des fréquences avec la matrice de
quantification pour obtenir notre matrice quantifiée.
Cette matrice a un avantage qui sera utilisée dans la prochaine étape : les valeurs non nulles
ne sont toutes situées dans le bord haut-gauche de la matrice.
Le codage :
Souvent, le codage peut être transmis d'une représentation de données à une autre.
La dernière étape de la compression est l'encodage. Le but est d'encoder notre bloc de pixels.
Pour évaluer les performances de l'algorithme, nous avons effectué testé sur des images.
Pour mieux comprendre la corrélation des résultats obtenus, deux grandeurs caractéristiques
sont considérées. Il s'agit de l'indice de similarité structurelle (SSIM) et du rapport signal sur
54
CHAPITRE III : Résultats expérimentaux
bruit (PSNR). Ces derniers sont représentés par des pics et sont déterminés en comparant
l'image reconstruite compressée/décompressée avec l'original.
Pour notre application, nous avons utilisé des images testes en couleur (les images
rétiniennes)
a) 2_test.tif
b) 07_test.tif
c) 15_test.tif
55
CHAPITRE III : Résultats expérimentaux
d) 20_test.tif
56
CHAPITRE III : Résultats expérimentaux
Nous cliquons sur le bouton (sélectionner une image) pour choisir l'image à compresser.
Ensuite, nous appuyons sur le bouton (compression avec perte) pour voir le résultat.
57
CHAPITRE III : Résultats expérimentaux
Et ici la même chose pour la compression sans perte, où l'on passe par les mêmes étapes.
58
CHAPITRE III : Résultats expérimentaux
Et ici si on veut supprimer l'image d'origine afin d'insérer une autre image.
Et à la fin, si nous voulons quitter l'application, nous appuyons sur le bouton de sortie.
59
CHAPITRE III : Résultats expérimentaux
Le rapport signal/bruit maximal (PSNR) et l'indice de similarité structurelle (SSIM) sont deux
outils de mesure largement utilisés dans l'évaluation de la qualité d'image. Surtout dans les
images stéganographiques, ces deux instruments de mesure sont utilisés pour mesurer la
qualité de la stéganographie. (1)
Mesure de la distorsion :
La distorsion entre l’image originale et l’image reconstituée est donnée par l’erreur
quadratique moyenne(EQM) et le rapport signal sur bruit crête (PSNR) : (1) (2)
∑( ̂)
Structural Similarity :
Structural Similarity ou SSIM est une mesure de similarité entre deux images numériques.
Il a été développé pour mesurer la qualité visuelle des images compressées par rapport à
l'original. L'idée de SSIM est de mesurer la similarité structurelle entre deux images, et non la
60
CHAPITRE III : Résultats expérimentaux
différence pixel à pixel comme le PSNR. L'hypothèse de base est que l'œil humain est plus
sensible aux modifications de la structure de l'image.
2_test
Figure III.11 : Image originale X Figure III.12 : Image compressé Y Figure III.13 : Image décompressé Z
07_test
Figure III.14 : Image originale A Figure III.15 : Image compressé P Figure III.16 : Image décompressé C
15_test
Figure III.17 : Image originale D Figure III.18 : Image compressé E Figure III.19 : Image décompressé F
61
CHAPITRE III : Résultats expérimentaux
20_test
Figure III.20 : Image originale H Figure III.21: Image compressé I Figure III.22: Image décompressé K
Le tableau III.1 résume certains résultats des tests d'image. Nous avons utilisé le type de
compression de données sans perte.
2_test
Figure III.23 : Image originale S Figure III.24 : Image compressé F Figure III.25 : Image décompressé B
62
CHAPITRE III : Résultats expérimentaux
07_test
Figure III.26 : Image originale N Figure III.27 : Image compressé M Figure III.28 : Image décompressé W
15_test
Figure III.29 : Image originale Q Figure III.30 : Image compressé T Figure III.31 : Image décompressé U
20_test
Figure III.32 : Image originale L Figure III.33 : Image compressé J Figure III.34 : Image décompressé V
Le tableau III.2 résume certains résultats des tests d'image. Nous avons utilisé le type de
compression de données avec perte.
63
CHAPITRE III : Résultats expérimentaux
l’image
compressé
PSNR et PSNR 51.815 51.6746 51.317 51.6948
SSIM entre
l’image
originale et SSIM 0.253909 0.164136 0.087051 0.147141
l’image
décompressé
Tableau III.2 : Résultats des PSNR et SSIM (Compression avec perte)
Les résultats obtenus sont considérés satisfaisants, si nous prenons, par exemple, la
compression sans perte des données et la compression avec perte des données.
PSNR SSIM
2_test (Compression sans Inf 1
perte)
2_test (Compression avec 51.815 0.253909
perte)
07_test (Compression sans Inf 1
perte)
07_test (Compression avec 51.6746 0.164136
perte)
15_test (Compression sans Inf 1
perte)
15_test (Compression avec 51.317 0.087051
perte)
20_test (Compression sans Inf 1
perte)
20_test (Compression avec 51.6948 0.147141
perte)
Tableau III.3 : Résultats des PSNR et SSIM
Ces différents résultats montrent que le meilleur PSNR, celui dont la valeur est supérieure en
compression, car le PSNR est supérieur en compression sans perte de données par rapport à
la compression avec perte de données et la même chose pour le SSIM.
64
CHAPITRE III : Résultats expérimentaux
III. 6) Conclusion :
Ce chapitre est consacré à l'évaluation de la qualité liée à la compression d'images.
Nous expliquons nos résultats en utilisant des paramètres d'évaluation de la qualité basés
sur le système visuel humain (PSNR, SSIM).
65
CONCLUSION GENERALE
Les algorithmes de compression de données réduisent non seulement la taille des données,
mais réduisent également le temps système de traitement et de transmission des données. La
compression réduit la taille d'image nécessaire à l'archivage et réduit le temps nécessaire à la
transmission à distance sur un réseau informatique.
L'importance des images dans notre vie quotidienne est bien connue. Les étudiants sont
souvent fascinés par les images générées par ordinateur telles que les fractales. Pour les
informaticiens, les formats d'image ne sont que des fichiers de données. Ces données
particulières sont plus susceptibles d'être compressées par leur structure. Par conséquent, de
nombreux algorithmes de compression ont été développés pour les images, certains sans
perte et d'autres avec perte, ces derniers exploitants le fait que l'œil humain ne peut pas
distinguer certaines nuances et détails dans une image.
Les techniques de compression avec perte fournissent généralement des taux de compression
relativement élevés, mais avec un certain degré de dégradation. Par conséquent, le but des
nouvelles technologies, des nouvelles techniques de compression, est de réduire davantage
et de changer le moins possible.
L'objectif de notre rapport est d'obtenir une compression des données d'image tout en
conservant la qualité essentielle de l'image d'origine, c'est-à-dire une bonne solution via
PSNR et SSIM. Cette méthode a l'avantage d'une grande précision de reconstruction.
De manière générale, on peut dire que la méthode proposée obtient de très bons résultats du
point de vue de la qualité des images reconstruites.
66
BIBLIOGRAPHIE