Traitement D'image
Traitement D'image
Traitement D'image
e
n
u
p
r
i
n
Rechercher
c
i
Créer
p un compte
Se
a connecter
O
l
u
t
i
l
s
p
e
r
s
Sommaire
o
n masquer
n
e
Début
l
sHistorique
Types de données manipulées
Acquisition d'une image
Opérateurs de traitement d'images
Opérateurs locauxA
Filtres linéaires f
Généralités f
Lissage i
c
Détection de contours
h
Opérateurs morphologiques
e
Construction d'une application de traitement d'images
r
Reconnaissance d'objets
Quelques exemples concrets de traitement d'images
/
Glossaire en vrac
Domaines d'application
m
Bibliothèques logicielles
a
s
q
u
e
Notes et références
Voir aussi
BibliographieA
f
Articles connexes
f
Traitement d'images
35 langues i
c
h
Article e
Discussion r
/
Lire
m
Modifier
a
Modifier le code
s
Voir l’historique
q
Outils
u
e
r
l
a
s
o
u
Le traitements d'images est une discipline de l'informatique et des mathématiques
appliquées qui - étudie les images numériques et leurs transformations, dans le but
d'améliorer leurs qualité ou d'en extraire de l'information.
e
Il s'agit d'un sous-ensemble
c du traitement du signal dédié aux images et aux données
dérivées comme t la vidéo (par opposition aux parties du traitement du signal consacrées à
d'autres typesi de données : son et autres signaux monodimensionnels notamment), tout
en opérant dans o le domaine numérique (par opposition aux techniques analogiques de
traitement dunsignal, comme la photographie ou la télévision traditionnelles).
Dans le contexte
V de la vision artificielle, le traitement d'images se place après les étapes
d'acquisition et
o de numérisation, assurant les transformations d'images et la partie de
calcul permettant
i d'aller vers une interprétation des images traitées. Cette phase
d'interprétation
r est d'ailleurs de plus en plus intégrée dans le traitement d'images, en
faisant appel notamment à l'intelligence artificielle pour manipuler des connaissances,
principalement a sur les informations dont on dispose à propos de ce que représentent les
images traitéesu (connaissance du « domaine »).
s
s
i
La compréhension du traitement d'images commence par la compréhension de ce qu'est
une image. Le mode et les conditions d'acquisition et de numérisation des images traitées
conditionnent largement les opérations qu'il faudra réaliser pour extraire de l'information.
En effet, de nombreux paramètres entrent en compte, les principaux étant :
les réglages optiques utilisés, (dont la mise au point) qui déterminent par exemple la
netteté de l'image ;
les conditions d'éclairage, qui déterminent une partie de la variabilité des images traitées ;
Quelques exemples types d'informations qu'il est possible d'obtenir d'une image
numérique :
la luminance moyenne ;
le contraste moyen ;
la couleur prédominante ;
Le traitement d'images commence à être étudié dans les années 1920 pour la
transmission d'images par le câble sous-marin allant de New York à Londres. Harry G.
Bartholomew et Maynard D. McFarlane effectuent la première numérisation d'image
avec compression de données pour envoyer des fax de Londres à New York. Le temps de
transfert passe ainsi de plus d'une semaine à moins de trois heures. Il n'y a pas vraiment
d'évolution par la suite jusqu'à la période d'après-guerre1.
Le véritable essor du traitement d'images n'a lieu que dans les années 1960 quand
les ordinateurs commencent à être suffisamment puissants pour travailler sur des images.
Peu après, la redécouverte de la transformée de Fourier rapide (FFT) révolutionne le
domaine, en rendant possible les manipulations du contenu fréquentiel des signaux sur
ordinateur. Cependant, l'essentiel des recherches porte encore, à cette époque, sur
l'amélioration des images et leur compression.
En 1980, David Marr formalise le premier la détection de contours de manière précise (D.
Marr et E. Hildreth : Theory of Edge Detection, Proc. R. Soc. London, B 207, 187-217,
1980). Au cours des années 1980, un véritable engouement se fait jour pour le traitement
de l'image et surtout pour la compréhension de l'image par des systèmes experts. Les
ambitions étaient beaucoup trop grandes, l'échec fut d'autant plus cuisant.
En ce qui concerne les images proprement dites, la représentation la plus utilisée est celle
d'un tableau à 2 dimensions composé d'un ensemble de lignes et de colonnes. Chaque
cellule du tableau, appelée pixel, contient une valeur quantifiée. Cette valeur est une
sémantique dépendant du type de signal qu'elle code (intensité lumineuse du point,
distance à un point de référence, ou numéro de la région d'appartenance par exemple).
Dans le cas des images 3D d'IRM, la représentation n'est plus un tableau à 2 dimensions
mais un tableau à 3 dimensions.
Acquisition d'une image[modifier | modifier le code]
L'acquisition d'images est une mesure spatiale d'une interaction entre une onde et de
la matière. L'onde est émise par une source et reçue par un capteur. Par exemple dans le
cas de l'échographie, l'ultrason, une onde acoustique, est émise et reçue par la sonde.
L'interaction est la réflexion de l'ultrason sur la structure du corps.
Les deux caractéristiques importantes de la mesure spatiale est la taille du plus petit
élément (pixel), mais aussi l'intercorrélation de deux éléments voisins : plus cette
intercorrélation est faible, meilleure est l'image.
Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la
bienvenue ! Comment faire ?
opérateurs locaux (traitent les pixels en fonction de leur voisinage) : opérateurs de flou,
opérateurs morphologiques (érosion, dilatation, squelette), opérateurs de détection de
contours ;
Les parties suivantes s'attachent à détailler les différents opérateurs et leurs applications
habituelles, puis à présenter la manière dont ils sont combinés pour construire une
application de traitement d'images.
Il faut alors utiliser des opérateurs de traitement plus complexes scindés bien souvent en
deux sous-catégories :
La première sous-catégorie comprend tous les opérateurs pouvant exprimer leur résultat
comme une combinaison linéaire des niveaux de gris d'un voisinage de l'image. Ces filtres
possèdent des caractéristiques spectrales, on parle ainsi de filtre passe-bas (l'image
devient floue) ou de filtre passe-haut (les contours ressortent).
Une fois le bruit éliminé et l'image restaurée afin de compenser les déformations
introduites par le milieu de transmission et l'optique d'acquisition, on peut passer à l'étape
de segmentation qui doit permettre de réaliser une partition de l'image en ensembles
connexes homogènes.
la segmentation de région ;
Dans cette étape on retrouve souvent une partie de classification des pixels en classes.
On essaye de regrouper au sein d'un même ensemble, aussi appelé classe, les pixels
présentant une même caractéristique : niveau de gris compris dans un certain intervalle ou
dérivée seconde supérieure à un certain seuil.
Ceux-ci sont des filtres passe-bas qui coupent plus ou moins les plus hautes fréquences.
Ils sont utilisés pour atténuer les bruits d'origines les plus diverses qui polluent
l'information, en particulier dans la détection de contours considérée ci-après.
Filtre pyramidal : la convolution d'un filtre rectangulaire avec lui-même conduit à un filtre
triangulaire grâce auquel les phases ne sont plus modifiées. Le filtre pyramidal est obtenu
à partir de filtres triangulaires dans les deux directions.
Filtre gaussien: ce filtre très populaire utilise la loi de probabilité de Gauss (voir Loi
normale multidimensionnelle). Des approximations de plus en plus précises peuvent être
obtenues, selon le théorème central limite par itération de l'un des filtres précédents.
Le filtre gaussien est utilisé comme constituant du masque flou qui améliore la netteté
apparente des photographies numériques. Bien qu'il soit popularisé par la photographie
plus ou moins artistique, il est également utilisé dans certaines techniques, comme
l'astronomie3.
Ces filtres transforment l'image d'entrée en une image noire sauf aux points où un contour
est détecté qui est marqué en blanc. Les valeurs absolues importent peu, il est sans
intérêt de changer d'échelle comme pour un lissage.
La détection est basée sur la dérivation selon les deux coordonnées. Si on considère
classiquement les signaux comme des sommes de sinusoïdes, la dérivation apparaît
comme un filtre passe-haut qui introduit donc du bruit à l'origine de faux contours. Pour
l'amateur il est recommandé, avant d'utiliser un filtre simple, d'atténuer ce bruit par
passage dans un filtre flou. Des méthodes plus élaborées ont été systématisées pour les
professionnels.
Filtre dérivées premières. Le filtre le plus simple consiste à calculer les différences entre
pixels voisins sur les horizontales puis sur les verticales. Chaque extremum correspond à
un point d'un contour.
Filtre de Prewitt : le filtre de Prewitt introduit un flou, chacune des deux matrices étant le
produit du filtre dérivation dans la direction considérée par un filtre de flou rectangulaire
selon l'autre direction.
Filtre de Canny : c'est un filtre de Sobel précédé par un lissage gaussien et suivi par un
seuillage. Ce filtre est conçu pour être optimal, au sens de trois critères.
Filtre de Marr-Hildreth : le calcul du laplacien est précédé par un lissage gaussien avec
deux variances ajustables pour filtrer les hautes fréquences.
Dans tous les cas, l'idée est, en partant d'une image initiale, d'en extraire des informations.
Pour cela, on va utiliser les opérateurs à la manière de « briques logicielles », en les
combinant et en les enchaînant. Ces techniques sont la base des systèmes de vision
industrielle.
Tout d'abord objet d'algorithmes dirigés par l'homme, jusqu'en 1995 (tentatives de
reproduire par un algorithme un raisonnement humain d'identification, comme dans « un
vélo possède deux roues, un cadre… »), la reconnaissance d'objets a fait l'objet de
progrès importants par la suite au travers de la mise en œuvre de techniques
d'apprentissage, comme les séparateurs à vaste marge. Ces techniques visent à faire
exploiter des bases d'exemples positifs et négatifs (contre-exemples) par un algorithme de
recherche de critères discriminants, c'est-à-dire de critères permettant de séparer au
mieux les exemples des contre-exemples.
Contrôle du niveau de maturation des fruits sur une chaîne de conditionnement. Il s'agit de
reconnaître à la couleur et à la texture du fruit son degré de maturité et donc la catégorie
sous laquelle il sera emballé puis vendu.
Recherche d'image par le contenu. L'objectif de cette technique est de rechercher, parmi
une base de données d'images, les images similaires à une image exemple, ou ayant
certaines caractéristiques, par exemple rechercher toutes les images comportant un vélo.
Analyse et authentification de tableaux. L'étude des niveaux des couleurs des pigments et
des vernis permet une analyse approfondie des œuvres. Il est ainsi possible de voir les
restaurations successives et d'identifier les faux.
Calibration : opération consistant à trouver la relation entre les coordonnées dans l'image
et les coordonnées dans l'espace de la scène.
Filtre : autre nom d'un opérateur prenant une image en entrée et produisant une image.
Pixel : Mot-valise, contraction de « picture element », plus petit élément d'une image
numérique 2D.
Segmentation : opération qui consiste à extraire d'une image des primitives géométriques.
Les primitives les plus employées sont les segments (contours) ou les surfaces (régions).
Voxel : Mot-valise formé à partir de « volumic pixel ». Le voxel est aux cubes d'image 3D
ce que le pixel est aux images numérique 2D.
Zone d'intérêt : dans la mise au point d'un système de traitement d'images, il n'est que
rarement intéressant d'appliquer un opérateur de traitement d'images à la totalité de
l'image. Le plus souvent seule une partie de l'image doit être traitée. Cette zone est
nommée « zone d'intérêt ».
Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la
bienvenue ! Comment faire ?
photographie
cinéma numérique
astronomie
contrôle de la qualité
médecine
sécurité
microscopie
micro-tomographie
(en) Rafael C. Gonzalez, Richard E. Woods, Digital Image Processing, Pearson Prentice
Hall, 2008
Retouche d'image
Trucage photographique
Photomontage
Imagerie médicale
[masquer]
v·m
Traitement du signal
Théorie de l'estimation
Analyse harmonique
Bruit de fond
Théorie
Échantillonnage
Quantification
Ligne de transmission
Amplificateur
Filtre
Techniques Numérisation
Détection synchrone
Super-résolution
Radar
Télécommunications
Traitement
Domaines d'applications Images
Parole
Son
Vidéo
Carré
Dents de scie
Signaux
Sinusoïdal
Triangulaire
Automatique
Électricité
Électrochimie
Électromagnétisme
Électronique
Électrotechnique
Robotique
Catégorie :
Traitement d'image
[+]
La dernière modification de cette page a été faite le 19 octobre 2023 à 15:48.
Droit d'auteur : les textes sont disponibles sous licence Creative Commons attribution,
partage dans les mêmes conditions ; d’autres conditions peuvent s’appliquer. Voyez
les conditions d’utilisation pour plus de détails, ainsi que les crédits graphiques. En cas de
réutilisation des textes de cette page, voyez comment citer les auteurs et mentionner la
licence.
Wikipedia® est une marque déposée de la Wikimedia Foundation, Inc., organisation de
bienfaisance régie par le paragraphe 501(c)(3) du code fiscal des États-Unis.
Politique de confidentialité
À propos de Wikipédia
Avertissements
Contact
Code de conduite
Développeurs
Statistiques
Version mobile
A
c
t
i
v
e
r