Dossier Rayons X
Dossier Rayons X
Dossier Rayons X
Médicales et Rayons X
M1 Physique-Imagerie 2011/2012 1
PLAN
I/ Rayonnement X
1) La radiologie conventionnelle
A) l'optique radiologique p. 10 à 14 Riccardo
B) la détection de l'image radiante p. 14 à 18 Riccardo
C) le principe de l'imagerie tomographique p. 18 à 29 Reza
D) règles de radioprotection en radiologie p. 29 à 32 Reza
2) Le scanner
A) les tomodensitomètres p. 32 à 37 Gaël
B) la formation d'une image tomodensitométrique p. 38 à 41 Rémi
C) les artefacts en TDM p. 41 à 44 Rémi
D) doses en scanographie p. 44 à 48 Rémi
M1 Physique-Imagerie 2011/2012 2
I/ Le rayonnement X
Les rayons X sont une forme de rayonnement électromagnétique à haute fréquence dont la longueur
d'onde est comprise approximativement entre 5 pico mètres et 10 nanomètres. L'énergie de ces
photons va de quelques eV (électronvolts), à plusieurs dizaines de MeV. C'est un rayonnement
ionisant utilisé dans de nombreuses applications dont l'imagerie médicale et la cristallographie.
Les rayons X ont été découverts en 1895 par le physicien allemand Wilhelm Röntgen, qui a reçu
pour cela le premier prix Nobel de physique ; il les nomma ainsi car ils étaient d'une nature
inconnue (la lettre x désigne l'inconnue en mathématiques).
La distinction entre les rayons X et les rayons gamma (qui sont de même nature et d'énergie
semblable) vient de leur mode de production : les rayons X sont des photons produits par les
électrons des atomes alors que les rayons gamma sont produits par les noyaux des atomes.
Röntgen parvient à en déduire que les rayons sont produits dans la direction des électrons du tube et
que ce rayonnement est invisible et très pénétrant.
Comme il ne trouve pas de dénomination adéquate pour ses rayons, Röntgen les baptise " Rayons
X ". Notons au passage que ce rayonnement est encore souvent appelé Röntgen Strahlen (litt.
rayons de Röntgen) en Allemagne.
Le premier cliché est celui de la main d'Anna Bertha Röntgen (22 décembre 1895, pose de 20
min.) ; il s'agit de la première radiographie, la radiologie est née.
Un mois plus tard, Bergonié reproduit à Bordeaux l'expérience de Röntgen, avant que ce dernier
publie officiellement.
Le 28 décembre 1895, Röntgen publie sa découverte dans un article intitulé " Über eine neue Art
von Strahlen " (" À propos d'une nouvelle sorte de rayons ") dans le bulletin de la Société physico-
chimique de Wurtzbourg.
C'est cette découverte qui lui vaudra le premier prix Nobel de physique en 1901.
M1 Physique-Imagerie 2011/2012 3
2) Physique du Rayonnement
1. " les rayons X sont absorbés par la matière ; leur absorption est en fonction de la masse
atomique des atomes absorbants ;
2. les rayons X sont diffusés par la matière ; c'est le rayonnement de fluorescence ;
3. les rayons X impressionnent la plaque photographique ;
4. les rayons X déchargent les corps chargés électriquement."
• Les effets dits non-stochastiques (qui ne sont pas le fruit du hasard) se manifestent lorsque
la dose reçu atteint ou dépasse une certaine valeur; il existe donc un seuil au-dessous duquel
ces effets n’apparaissent pas.
• Les effets aléatoires (ou stochastiques) ne se manifestent que chez certains individus,
apparemment au hasard, d’une population irradiée. Il s’agit notamment de l’apparition de
cancers ou de malformations dans la descendance. Il n’existe, semble-t-il, pas de seuil :
même de faibles doses peuvent déclencher ces effets. Ils sont tardifs et leur gravité est
indépendante de la dose reçue. La fréquence d’apparition des effets aléatoires dépend
cependant de la dose.
Dans le cas de doses conséquentes, le corps ne parvient plus à remplacer les cellules mortes si bien
que le tissu fonctionnel ne peut plus assurer son rôle. Pour une dose supérieure à 100 rems, il est
possible que l’intestin ne puisse plus digérer ni eau, ni nutriments, ni même assurer sa défense
immunitaire. Cela conduit à des nausées, des diarrhées et une faiblesse générale. Au-delà de ces
doses, c’est la destruction du système immunitaire qui a le plus de conséquences : sans assistance
médicale, le malade n’a pas plus de 60 jours d’espérance de vie. A 1 000 rems, les dommages
vasculaires conduisent à une mort certaine.
Pour diminuer au maximum la dose de rayon X reçue et la surface touchée lors d’un scanner, on
utilise divers moyens : en prenant des mensurations adéquates, en orientant correctement le faisceau
des rayons X vers la région examinée, en réduisant la quantité de rayons secondaires que le patient
M1 Physique-Imagerie 2011/2012 4
reçoit, en protégeant au moyen de protecteurs de plomb ("tablier de plomb") certaines régions plus
sensibles comme les organes génitaux reproducteurs quand cela est possible. De plus, pour éviter
que les organes génitaux soient touchés de façon trop importante, le patient est parfois installé sur le
dos. En effet, les rayons X doivent traverser beaucoup plus de muscles en pénétrant par le dos que
par le ventre. Aujourd'hui ces protecteurs en plomb sont très peu utilisés.
Actuellement, il y a principalement deux méthodes de formation des rayons X résultant d'un flux
d'électrons lancé à grande vitesse sur une cible: l'émission générale (Bremsstrahlung) et l'émission
caractéristique.
L'émission générale :
C'est la méthode principale de formation des rayons X en radiologie. Elle a lieu quand un électron
est envoyé vers une cible, passe à proximité du noyau et se trouve attiré par sa charge: l'électron est
dévié et ralenti.
La perte d'énergie se retrouve sous la forme de l'émission de rayons X. La quantité d'énergie
produite par cette méthode est donc variable: elle dépend de l'attraction du noyau, de la trajectoire
de l'électron (précisément sa distance au noyau) et de l'énergie cinétique de l'électron.
L'énergie produite est comprise entre 0 et l'énergie cinétique de l'électron (l'énergie de l'électron
provenant de son mouvement).
M1 Physique-Imagerie 2011/2012 5
L'émission caractéristique :
C'est une autre méthode de formation des rayons X: On envoie sur un atome des électrons, et quand
ceux-ci entrent en collision avec un électron d'une des couches internes (K ou L par
exemple), l'électron est éjecté de sa couche électronique. Ainsi, un « trou » se forme et afin
de combler la non-stabilité de cet atome qui n'a maintenant plus sa couche intérieure
complète, les électrons des couches périphériques viennent remplacer l'électron éjecté dans
la couche en déficit électrique.
Cette différence d'énergie entre les différentes couches d'un atome se retrouve sous forme de
rayons X. On peut donc en conclure que puisque l'énergie de liaison des électrons est unique
pour chaque couche et chaque atome, cette création de rayon X dépend de la nature de
l'atome qui va être « attaqué ».
Avec l'émission générale, méthode la plus utilisée, l'énergie produite des rayons X est comprise
entre 0 et l'énergie cinétique.
On obtient ainsi un spectre d'émission des rayons X sortant du tube radiogène ressemblant à ceci:
M1 Physique-Imagerie 2011/2012 6
Les différentes tubes des rayons X :
1. Tube de Crookes
Un tube de Crookes est un des premiers tubes à décharge électriques expérimentaux, inventé
par le physicien britannique William Crookes et autres entre les années 1869 et 1875 durant
lesquelles les rayons cathodiques (autrement dit les électrons), ont été découverts.
Le savant Wilhelm Röntgen découvrit les rayons X grâce au tube de Crookes en 1895.
L'appellation est aussi utilisée pour la première génération de tubes à rayons X à cathodes
froides, qui est issue des tubes de Crookes expérimentaux et qui fut utilisée jusque dans les
années 1920.
Fonctionnement
Les tubes de Crookes étaient des tubes à cathode froide, ce qui veut dire qu'ils ne comportaient pas
de filament chauffant comme on en mettra plus tard dans les tubes électroniques pour générer des
électrons. Dans le tube de Crookes, les électrons sont générés par l'ionisation du gaz résiduel excité
par une tension continue de quelques kilovolts à 100 kV, appliquée entre les deux électrodes. Cette
tension est fournie par une bobine de Ruhmkorff. Le niveau de vide du tube doit se situer entre 10-6
à 5×10-8 atmosphère (7×10-4 - 4×10-5 torr ou 0,1 - 0,005 pascal).
Lorsque qu'une tension élevée est appliquée au tube, le champ électrique induit l'accélération des
ions (chargés) présent dans le gaz, qui peuvent être créés par des processus naturels comme la
radioactivité. Ils entrent en collision avec les autres molécules du gaz, leur arrachant des électrons et
créant ainsi des cations par une réaction en chaîne. Ces cations sont attirés par la cathode, ou
électrode négative. Lorsqu'ils la percutent, ils éjectent un grand nombre d'électrons de la surface
métallique, qui sont par la suite attirés par l'anode (ou électrode positive). Ces électrons sont les
rayons cathodiques.
M1 Physique-Imagerie 2011/2012 7
Image simple d’un tube de Crookes
2. Tube de Coolidge
Le tube de Crookes fut amélioré par William Coolidge en 1913. Le tube de Coolidge, encore appelé
tube à cathode chaude, est le tube le plus largement utilisé. C'est un tube sous vide poussé (env. 10-4
Pa, env. 10-6 torr), recouvert d'une enceinte plombée.
Dans le tube de Coolidge, les électrons sont émis par un filament de tungstène chauffé par un
courant électrique (effet thermoïonique également utilisé dans les tubes cathodiques de téléviseur).
Le filament constitue la cathode du tube. La haute tension est établie entre la cathode et l'anode, ce
qui accélère les électrons émis par le filament. Ces électrons viennent frapper l'anode.
Fonctionnement
M1 Physique-Imagerie 2011/2012 8
Quel que soit le type de tube, la génération des rayons X se fait selon le même principe.
Une haute tension électrique (de l'ordre de 20 à 400 kV) est établie entre deux électrodes. Il se
produit alors un courant d'électrons de la cathode vers l'anode (parfois appelée « anticathode » ou
« cible »).Les électrons sont freinés par les atomes de la cible, ce qui provoque un rayonnement
continu de freinage ou Bremsstrahlung, dont une partie du spectre est dans le domaine des rayons
X.
Ces électrons excitent les atomes de la cible, et ceux-ci réémettent un rayonnement X
caractéristique par le phénomène de fluorescence X. Le spectre sortant du tube est donc la
superposition du rayonnement de freinage et de la fluorescence X de la cible.
Les tubes de rayons X ont une efficacité énergétique extrêmement mauvaise, la majeure partie de la
puissance électrique (99 %) étant dissipée sous forme de chaleur. Les tubes doivent donc être
refroidis, en général par une circulation d'eau.
M1 Physique-Imagerie 2011/2012 9
II/Le Rayonnement X dans l'imagerie
Médicale
1) La radiologie conventionnelle
La radiologie dans le domaine médical, désigne l'ensemble des modalités diagnostiques et
thérapeutiques utilisant les rayons X, ou plus généralement utilisant des rayonnements. Mais la
radiologie, dans son sens plus commun, désigne la spécialité médicale exercée par un médecin
radiologue en France, ou radiologiste au Canada. Un établissement de santé peut donc abriter un
service de radiologie. En médecine, on parle de radiologie conventionnelle pour désigner les
examens diagnostiques utilisant un tube à rayons X classique servant à réaliser des images
bidimensionnelles, radiographiques ou fluoroscopiques. La radiologie conventionnelle comprend la
radiologie standard qui concerne les examens radiographiques standards dont la réalisation obéit à
des protocoles reconnus de manière internationale.
A) L'optique radiologique
M1 Physique-Imagerie 2011/2012 10
Chacun de ces éléments de base peut varier dans des conditions multiples, le faisceau de RX se
définit par sa géométrie, le spectre d'énergie des photons, les rapports géométriques propres entre
Foyer, Objet et Récepteur.
Un cliché comporte une échelle de densité allant du noir au blanc qui résulte de l'absorption
différente des rayons X par les milieux traversés.
Dans le corps humain, il existe 4 densités fondamentales.
L'os : densité calcique et tous les produits de contraste à base d'iode ou de baryte.
Les différents parenchymes : foie, rate, reins, etc sont à densité hydrique (eau).
Les tissus cellulaires et la graisse: qui entoure de nombreux organes sont de densité graisseuse.
Toutes les structures contenant de l'air : trachée, bronches alvéolaires pulmonaires, etc ont la
densité de l'air.
Netteté : l'image doit être nette, sans flou, ses contours sont bien délimités.
Contraste : les différences d'intensité dans le noircissement du film permettent de reconnaître les
structures que l'on souhaitait étudier.
Incidence : l'analyse anatomique impose une comparaison à des clichés pris dans une position
définie de référence.
Centrage : l'image utile doit se trouver au centre d'un film de dimension minimale.
M1 Physique-Imagerie 2011/2012 11
Netteté de l'image : Flou :
Les contours de l'image doivent être nets, c'est-à-dire parfaitement délimités ; une ligne précise
sépare les zones opaques, sombres et claires. L'absence de netteté est le flou défaut que l'on
s’efforce de réduire. Le flou est en fait inévitable et les phénomènes qui le produisent sont
nombreux. Pour des raisons didactiques on les résume à 4 causes principales :
-flou géométrique
-flou cinétique
-flou d'écran
-flou de forme
Flou géométrique
Ce flou est lié à la disposition géométrique des éléments concourant à la formation de l'image :
taille du foyer, agrandissement, décalage par rapport au rayon directeur.
Problème géométrique
Le foyer géométrique (ou optique), source du rayonnement X n'est pas un point ; cette surface
d'émission est un carré de 0,6mm à 1,2mm de côté sur la majorité des tubes radiogènes actuels ; ses
dimensions peuvent atteindre 2 mm ou descendre à 0,1 mm.
On reconnaît la formation de l'image d'un foyer sur le bord fin d'un objet opaque.
On peut distinguer trois zones de l'image.
-Lumière: tout point du récepteur est en vue directe de la totalité du foyer ; l'éclairement est
maximum.
-Pénombre : cette zone intermédiaire ne reçoit qu'une partie du rayonnement du foyer ; le passage
de l'ombre à la lumière se fait progressivement et la limite entre ces deux zones est indistincte,
floue.
M1 Physique-Imagerie 2011/2012 12
Flou de mouvement
Mouvement de l'objet
Le malade respire, le cœur bat, les organes digestifs bougent, l'immobilité musculaire ne peut être
maitrisée longtemps.
C'est le flou le plus préoccupant. L'élément anatomique mobile se déplace à une vitesse parfois
importante (vitesse instantanée atteignant 100 à 200 mm/seconde). La longueur parcourue est
fonction du temps d'exposition ou temps de pose.
Il s'agit le plus souvent de vibration d'un plateau d'anode voilé, d'une vibration de gaine mal
contenue par une suspension qui, en vieillissant, a pris un jeu mécanique : l'amplitude de cette
vibration autour d'une position moyenne augmente la dimension apparente du foyer. L'effet est donc
plus marqué pour un foyer de petites dimensions qui pourrait alors donner des résultats équivalents
à un gros foyer. En tomographie les mouvements mécaniques obligatoires et leur jeu associé
créaient une limite à l'intérêt de foyers de petite taille (inférieur à 0,6 mm).
Mouvement du récepteur
-La lettre de repérage un peu épaisse, collée par un sparadrap peut créer un contact entre une
cassette supposée immobile et la grille mobile ; la cassette est donc entraînée par les vibrations de la
grille.
-Le temps séparant le lancement de l'anode de la prise de cliché sur une table télécommandée doit
être bref (moins de 2 secondes) ; ce temps comprend non seulement la mise en vitesse de l'anode
(9000 tours) mais le transport d'un tiroir contenant la cassette sur une distance de 50 cm et une
immobilisation en fin de course. Si l'on déclenche le deuxième temps de prise de cliché trop tôt, le
cliché est pris alors que la cassette est encore en mouvement ou en vibration.
-Les sérigraphies prenant des clichés à un rythme rapide et cahngeant le film peuvent si le temps de
pose est trop long déplacer le film pour mettre en place le suivant alors que l'émission des rayons
n'est pas encore terminée.
Flou de récepteur
Le récepteur a une structure granuleuse, grains de bromure d'argent pour le film, grains
luminescents de l'écran renforçateur ou de l'amplificateur de luminance et même structure de
matrice d'un système numérisé.
Une ligne droite de délimitation idéale se traduit donc par une ligne irrégulière et donc par une
imprécision de contours.
La qualité de résolution spatiale du récepteur règle donc le degré de netteté de l'image.
M1 Physique-Imagerie 2011/2012 13
Flou de forme
Les contours parfaitement défini d'un objet produira une image plus nette qu'un objet au contour
imprécis. Nous avions envisagé jusqu'ici des objets ayant une opacité absolue au rayonnement ; en
fait l'atténuation du rayonnement est liée à la nature et à l'épaisseur. La limite d'une structure
incomplètement opaque et épaisse même de forme géométrique crée une image de noircissement
passant progressivement de la lumière à l'ombre.
Ce flou de forme est plus particulièrement lié à la forme des objets et aux variations d'épaisseurs
pour des rayons grossièrement parallèles. Une forme en coin donne une image différente selon
l'angle de ce coin. Une forme courbe sera reconnue essentiellement par la ligne de tangence à cette
courbe et non par les zones limites de cette courbe. Elle est une composante essentielle de la
formation de l'image osseuse : on voit mieux la voûte crânienne dans la partie centrale , les
corticales tangentielles d'un os que celle qui sont perpendiculaires au rayon.
Les rayons gamma proviennent de l’interaction des nucléaires tandis que rayon-X proviennent de
l’interaction des électrons Ex = 30Kev pour la radiologie imagerie des tissues moues faible KV
L’effet photoélectrique:
Le photon entre en collision avec un électron des couches internes de l’atome. L’énergie E du
photon incident est transférée à l’électron qui est éjecté de sa couche. Une partie de cette énergie est
utilisée pour “extraire” l’électron interne (énergie de liaison W); l’excédent d’énergie se retrouve
sous forme d’énergie cinétique de l’électron éjecté. Par conséquent, E = W+Ecin.
-L’effet photoélectrique ne peut avoir lieu que si l’énergie du photon incident est supérieure à
l’énergie de liaison de l’électron.
-L’énergie cinétique du photoélectron est finalement transférée au milieu lors d’ionisations
ultérieures. Le retour de l’atome à l’état fondamental s’accompagne d’une émission d’énergie sous
forme d’un photon de fluorescence ou d’un électron Auger.
-Le photon de fluorescence est émis lorsqu'un électron des couches supérieures prend la place
laissée vacante par l'électron éjecté. Parfois, pour des milieux de Z petit, le photon de fluorescence
produit un nouvel effet photoélectrique avec émission d'un électron: c'est l'effet Auger.
M1 Physique-Imagerie 2011/2012 14
L’effet Compton :
Le photon entre en collision avec un électron libre ou faiblement lié auquel il cède une partie de son
énergie. Un photon d’énergie plus faible est diffusé dans une direction différente de la direction
initiale. Pour les photons X étudiés ici, la majeure partie de l’énergie est emportée par le photon
diffusé. Il y a trois possibilité soit un plein choque(e et Px direction opposé, soit un frôlement
direction perpendiculaire l’un par rapport à l’autre, soit un choc mou.
Contraste et Tension :
En plus de son action sur la densité photographique, la tension agit sur la qualité de l'image c'est à
dire sur le contraste : il diminue quand la tension augmente (effet Compton prédominant), alors
qu'en technique basse tension (<100Kv), le contraste est grand (effet photoélectrique prédominant).
En technique haute tension (>100Kv), le contraste entre deux plages est faible mais il est possible
de visualiser toutes les structures radiographiées : compression du contraste.
A l'opposé en basse tension, les différences d'atténuation étant grandes, il faut souvent plusieurs
expositions pour visualiser avec des densités radiographiques valables des structures de radio-
opacités très différentes.
-basse tension pour un contraste marqué (recherche de corps étrangers dans les parties molles,
mammographie, clichés du squelette)
-haute tension pour un contraste comprimé (cliché pulmonaire avec effacement des côtes,
pénétration du médiastin, examens digestifs barytés).
M1 Physique-Imagerie 2011/2012 15
Contraste et dimension du pixel :
Pour un flux constant si la dimension du pixel augmente le contraste diminue, et inversement pour
la même dimension du pixel si on diminue le flux le contraste diminue aussi, et si on divise le
contraste par le même coefficient on gardera le même contraste.
On doit noter qu’il faut une certaine dose (nombre de photon/u.surface/u.temps) pour sensibiliser un
pixel.
- l'efficacité quantique de détection (liée au pouvoir d'arrêt du milieu détecteur, aux différentes
sources de bruit et au nombre d'événements secondaires créés par photon X absorbé)
(FTM) d'un détecteur est une courbe qui relie la variation de contraste de l'image en fonction de la
fréquence spatiale de l'objet pour un contraste objet donné. Elle rend compte des possibilités de
visualiser un contraste donné dans l’image. Dans une chaîne où interviennent plusieurs éléments de
transformation de l'information, la FTM de l'ensemble du système est le produit des diverses
fonctions de transfert. C'est l'élément qui a la FTM la plus mauvaise qui a le rôle le plus important
dans la dégradation de l'image (capteur, optique...).
La résolution spatiale
En général, c'est la valeur correspondant à 5% de contraste qui est la limite au-delà de laquelle on
considère qu'un détail n'est plus décelable. Elle se mesure en μm ou en paires de lignes par
millimètre. Pour les détecteurs à pixels indépendants, on admet que cette résolution limite est
M1 Physique-Imagerie 2011/2012 16
définie par la fréquence de Nyquist (inverse du double de la taille du pixel élémentaire).
Elle caractérise probablement le mieux une chaîne de détection de l'image, puisqu'elle reflète
l'aptitude d'un système à convertir fidèlement l'image radiante sans la distordre en comparant le
rapport Signal/Bruit en sortie au rapport S/B en entrée. Ceci tient compte de l'efficacité d'absorption
du rayonnement X et de la conversion et rend compte de l'utilisation de la dose incidente au patient.
Le signal à l'entrée est lié au nombre de photons incidents(N), et donc le bruit associé, qui est
statistique, est la racine carrée du nombre de photons incidents (Sxentrée / BXentrée)
L'efficacité quantique de détection mesurée à fréquence spatiale nulle, inférieure à 1, devrait être
supérieure à 0,5 dans une chaîne d'imagerie médicale. Elle peut être voisine de 0,8 dans les cas les
plus favorables (intensificateurs de brillance).
Autres détecteurs :
On peut préciser en outre quelques autres notions utilisées pour caractériser les détecteurs :
La sensibilité qui correspond à la plus petite variation d'absorption des rayons X que l'on arrive à
mesurer. Cette notion est très importante pour la scopie. Elle se mesure en μGy typiquement.
La dynamique de l'objet qui est égale à l'inverse de l'atténuation (environ 300 pour un patient
"standard" en imagerie thoracique).
La dynamique vraie de l'image correspond au rapport de l'amplitude du signal non atténuée sur
l'amplitude du bruit du signal le plus atténué.
Le champ
Le détecteur idéal de photons X pourrait avoir une série de caractéristiques qui représentent un
compromis des valeurs des différents paramètres préalablement envisagés.
CCD petit composant électronique de toute résolution, il sert à numériser l’image en temps Presque
réel
Scintillateur il permet de recevoir les rayons X et de les transformer en photon pour produire une
image
M1 Physique-Imagerie 2011/2012 17
Fluoroscopie utilisé en bloc opératoire qui permet de faire plusieurs image dans le temps (sont en
train de disparaître et exige la protection du personnelle EQD=60-70, sensibilité qqn gray, champ 40
cm résolution/contraste faible, encombrement important, sensible aux champs magnétique
Film d’épaisseur 40 cm les RX sont bloqué par des électrons et donc mémorise, pour les relire il
faut un système a rayon laser >photo multiplicateur >CAN>image, très bonne résolution, peut être
traité, elle demande du temps, EQD 25, luminescence supérieur au film standard
Détecteur au silicium Ils sont en effet caractérisés par une faible dose d’exposition et une grande
résolution. Utilisé en imagerie pulmonaire
Détecteur a silicium amorphe : c’est l’avenir, même principe d’utilisation de transistor MOS-FET,
sont très utilisé, avantage basse tension, inconvénient : grande matrice donc pas de cadence
d’image, si on réunit les pixels de cet détecteur on arrive à diminuer la dose et passe de la
fluoroscopie a la graphie.
Solution hybrides écran luminescent + fibre optique réductrice + photo détecteur CCD
PET-scan : détecteur a semi-conducteur, grande sensibilité, détecteur a gaze avec de très haute
pression pour augmenter la probabilité d’interaction.
Historique :
La tomographie, technique radiologique d'étude en coupes du corps humain, est une méthode déjà
ancienne : en 1921, un dermatologue français, A. Bocage, en publie les principes, et fait breveter le
premier système.
L'idée est reprise en Italie par Vallebona, qui développe en 1930 le premier tomographe médical
dont les résultats soient réellement rigoureux ; à la même époque Ziedses des Plantes invente la
planigraphie multidirectionnelle.
Dans les années qui vont suivre, les chercheurs perfectionnent leur technique, cependant que les
médecins étudient les images. Cette période est celle de la prospection et de la recherche mais les
résultats ne dépassent pas le stade de la publication, et la tomographie ne sera pas utilisée dans la
pratique radiologique courante.
A partir de 1945, les recherches vont s'intensifier dans ce domaine et conduire à des résultats plus
performants. Rapidement, les images tomographiques deviennent indispensables en radiologie
pulmonaire, les artefacts sont peu à peu éliminés (Pizon et Tellier) ; la tomographie osseuse se
M1 Physique-Imagerie 2011/2012 18
développe (Herdner), cependant que Vallebona en Italie, Frain et Lacroix en France mettent au point
la tomographie axiale transverse, avec obtention des coupes transversales, perpendiculaires à l'axe
longitudinal du corps. Les développements technologiques ultérieurs vont conduire à des appareils
de plus en plus élaborés et précis. Sans et Porcher construisent, en 1950, le premier tomographe à
balayage pluridirectionnel, qui passe rapidement dans le domaine commercial (Polytome - Massiot).
Définition :
La tomographie a pour but de fournir une représentation en coupes des structures anatomiques
et/ou de leur fonction.
L'image radiologique habituelle additionne une infinité de plans superposés ; la tomographie est
l'étude d'un plan de coupe unique, sélectionné, cependant que tous les autres plans sont effacés
aussi complètement que possible.
Les définitions
M1 Physique-Imagerie 2011/2012 19
Eléments de vocabulaire
La matrice image: elle est représentée par un tableau de (n)lignes x (m)colonnes, chaque élément
de l'images est appelé pixel (picture element). Les matrices images peuvent être de taille carrée ou
symétrique (64x64, 128x128, 256x256, 512x512, 1024x1024), mais ells peuvent être asymétriques
(64x128, 192x256 par exemple). L'information contenue dans un pixel représente, suivant la
modalité
d'imagerie retenue, par exemple l'absorption du rayonnement X.
Cette grandeur est exprimée par un nombre compris en général entre 0 et 256 et dont la valeur est
caractérisé par le niveau d'une echelle de gris ou celui d'une echelle de
couleur.
Le contraste: il est représenté par la différence du contenu (du niveau ou de la couleur) de deux
pixels adjacents. C'est la variation du contraste qui détermine la possibilité de différenciation des
tissus biologiques en imagerie (forme anatomique et
structure des tissus et/ou fonction et métabolisme des organes).
pixel: la résolution spatiale de l'image est la distance minimum séparable de l'objet imagé, elle est
mesurée en [mm] en imagerie médicale (c'est la dimension du plus petit
détail visible). Il est préférable de lui substituer la résolution par pixel [mm/pixel ]ou si l'on tient
compte de la matrice symétrique ou non [(x)mm]x[(y)mm], (x) et (y) étant les dimensions du pixel.
Plus une image est résolue meilleure est sa définition.
L'épaisseur de coupe: elle est aussi donnée en (mm) et représente la troisième dimension de l'image
tomographique, c'est l'épaisseur de la tranche de tissu biologique qui est à l'origine de l'interaction
physique de l'onde utilisée. Cette épaisseur ne peut être infinitesimal bien sur. Plus l'épaisseur est
faible (plus la tranche est fine) plus le temps nécessaire à l'obtention de l'image sera élevé. Dans la
matrice image c'est l'épaisseur de coupe et la nature et/ou fonction des organes et des tissus qui y
sont contenus (ou qui la traversent) qui sont à l'origine du contraste image, mais l'épaisseur de
M1 Physique-Imagerie 2011/2012 20
coupe affecte aussi la resolution spatiale comme le montre la figure suivante où un objet incliné qui
traverse deux coupes d'épaisseurs différentes donnera deux tailles
d'images :
Le voxel: c'est l'élément de volume de l'objet qui est à l'origine du pixel de l'image.
M1 Physique-Imagerie 2011/2012 21
→ La rétroprojection simple
Considérons d’abord l’acquisition des projections de l’objet (ici par exemple un organe «fixant » un
radiotraceur) dont on souhaite reconstruire les coupes.
Les "projections" sont obtenues dans ce cas analogue (tomographie de
transmission) par un scanner X où la source de rayons X , à l’extérieur du
patient, est tournante tournant autour du patient, pas à pas, sur un arc de cercle de 180° ou sur la
totalité du cercle soit 360. Ainsi les images de projections sont obtenues par l’atténuation des rayons
X par le patient à chaque angle d’incidence.
Les sinogrammes des différentes coupes sont obtenus à partir de l'ensemble des projections. Ils
correspondent à une autre représentation des données d’acquisition où l’angle de rotation est en
ordonnée alors que le profil d’atténuation est en abscisse.
M1 Physique-Imagerie 2011/2012 22
Le processus général de reconstruction des coupes tomographiques est représenté ci
dessous :
figure 4 : (a) un objet de forme différente donne deux projections identiques dans la
même direction de projection, (b) 4 ou 2 objets donnent deux projections orthogonales
identiques
M1 Physique-Imagerie 2011/2012 23
Malheureusement après rétroprojection l'image reconstruite de l'objet n'est pas aussi pure que
l'image réelle de l'objet lui même. L'image reconstruite est altérée par des artéfacts (ou bruit) en
étoile provenant de l'épandage de chaque profil sur toute la matrice image comme l'illustre la figure
suivante.
Afin d'atténuer ces artéfacts en étoile on procède au filtrage des projections ou des
sinogrammes avant l'opération de rétroprojection.
→ La rétroprojection filtrée
Le filtrage des projections fait appel à une "convolution" qui est illustrée à l'aide de la
figure suivante.
M1 Physique-Imagerie 2011/2012 24
figure 6: convolution de la fonction B par la fonction A notée A+B. L'opération de
convolution s'effectue par etapes successives(1,..7 dans cet exemple où on peut l'illustrer en
réalisant l'addition de A et de B en décalant A à chaque pas de calcul). La
convolution a pour but de modifier la formede la fonction B.
Afin de minimiser les artéfacts en étoile de la rétroprojection on convolue les profils de projection
ou les sinogrammes par une fonction "filtre" . Cette étape est démontrée sur les figures suivantes.
figure 8: les projections orthogonales génèrent en rétroprojection simple des artéfacts en étoile. Si
l'on convolue les projections de telle sorte qu'elles deviennent de nouvelle fonctions, comme celles
représentées sur la figure 7, avec une partie positive mais deux parties négatives de part et d'autre,
on voit que les rayons des rétroprojections provenant des parties négatives diminueront et même
annuleront les artéfacts qui sont engendrés par les parties positives.
M1 Physique-Imagerie 2011/2012 25
Le rôle du filtrage des projections ou des sinogrammes
L’exemple ci dessous illustre les fréquences spatiales existant dans une image.
Les basses fréquences spatiales contiennent l’information des contrastes de l’image alors que les
hautes fréquences spatiales contiennent les détails.
M1 Physique-Imagerie 2011/2012 26
→ Les méthodes algebriques itératives
Ce sont des méthodes de reconstruction mathématique des coupes tomographiques basées sur des
approximations successives des valeurs des voxels lorsque l'on connait les résultats des sommes des
lignes, des colonnes et des diagonales de la matrice d'acquisition (les projections) et que l'on veut
retrouver les valeurs correspondantes de chaque pixel de l'image. Cette technique est illustrée à
l'aide de l'exemple d'un objet simple représenté par une matrice objet 2x2, et démontré par figure
12.
M1 Physique-Imagerie 2011/2012 27
figure 10: illustration des étapes successive du processus ART. En (a) on répartit de façon identique
la somme deslignes sur chaque pixel des lignes. En (b) on fait de même pour les colonnes et on
ajoute les résultats aux pixels de l'image. En (c) et en (d) on répète ce processus pour les diagonales.
En (e) on normalise les résultats par la soustraction de la somme des valeurs des voxels, ici 7, puis
par division par 3 de chacun des pixels. Le résultat final est présenté en (f) où le contraste de
l'image est identique à celui de l'objet (figure 9).
M1 Physique-Imagerie 2011/2012 28
→ Les méthodes statistiques
Méthodes statistiques:
MLEM: Maximum Likelihood Expectation Maximisation
• On utilise une formulation probabiliste du problème dereconstruction : Les projections P sont des
variables aléatoires et on determine la solution F qui maximise la vraisemblance c’est à dire la
prob(P|F) par rapport au modèle probabiliste choisi.
Effets biologiques :
Compte tenu de leur énergie, les rayonnements ionisants ont un effet néfaste sur les cellules
vivantes et particulièrement sur l'ADN. Les rayonnements peuvent ainsi induire des modifications
M1 Physique-Imagerie 2011/2012 29
ou ruptures de la chaîne d'ADN, réparables ou non.
Les effets ainsi produit peuvent être :
• stochastiques (aléatoire) pour des faibles doses d'irradiation et dans le cas où la cellule a
réussi à se réparer mais de manière incomplète, entraînant ainsi des modifications de sa
fonction. Les effets sanitaires de ces atteintes à l'ADN sont peu étudiés de par le monde2 ;
• déterministes pour des doses plus fortes, entraînant la mort de la cellule à plus ou moins
court terme.
Expositions :
Les sources d'expositions aux rayonnements ionisants peuvent être de deux natures :
• l'exposition externe engendrée soit par un panache soit par une source éloignée ;
• l'exposition interne engendrée par l'incorporation de radionucléides dans l'organisme.
Il y a des différences majeures entre ces deux types d'exposition :
• il est possible de se soustraire aux effets néfastes des expositions externes en s'éloignant de
la source tandis que cela n'est pas possible en cas d'exposition interne ;
• l'exposition interne suppose une incorporation de radionucléides, et la personne devient
alors une source d'exposition externe pour ses voisins (voire de contamination) ;
• les rayonnements alpha sont trop peu pénétrants pour être dangereux en exposition externe,
alors qu'ils sont particulièrement radiotoxiques en exposition interne (20 fois plus
radiotoxiques que les rayonnements béta ou gamma pour la même énergie délivrée).
Radioprotection :
La radioprotection désigne l'ensemble des mesures prises pour assurer la protection de l'homme et
de son environnement contre les effets néfastes des rayonnements ionisants.
Principes
La radioprotection repose sur 3 principes fondamentaux :
• Justification: Les avantages (en médecine : diagnostiques ou thérapeutiques) doivent
dépasser les risques engendrés par l'exposition.
• Optimisation : L'exposition est à maintenir à un niveau aussi faible que possible (en
médecine : tout en obtenant l'information diagnostique utile au patient)
• Limites de dose: Les limites de dose définies par le législateur ne doivent pas être
dépassées. Ce principe ne s'applique pas aux doses reçues comme patient.
Chaque activité impliquant une exposition au rayonnement ionisant doit respecter ces 3 principes.
Remarques
Le principe de justification signifie que toute activité impliquant une exposition au rayonnement
ionisant doit être justifiée par les avantages qu'elle procure. Appliqué au domaine médical, le
M1 Physique-Imagerie 2011/2012 30
principe de justification signifie que le médecin (aussi bien le médecin qui prescrit un examen que
celui sous l'autorité il est réalisé) doit juger, si l'examen est médicalement justifié : Les avantages
diagnostiques (ou thérapeutiques) potentiels doivent dépasser les risques engendrés par l'exposition.
Les médecins sont obligés de prendre en considération
3. les informations diagnostiques antérieures (carnet radiologique, necessité de refaire
l'examen)
4. les techniques alternatives (tant qu'ils sont aussi efficaces et présentent moins de risque pour
la santé)
5. les recommandations concernant les critères de prescription
6. la présence d'une éventuelle grossesse (ou allaitement dans le cas de la médecine nucléaire)
Le principe d'optimisation signifie que pour les activités satisfaisantes au principe de justification,
il s'agit de réduire et à maintenir l'exposition au rayonnement à un niveau de dose aussi faible que
raisonnablement possible. Ce principe est parfois encore appelé principe ALARA (As Low As
Reasonnably Achievable).
En médecine, ce principe signifie: Une fois l'indication pour un examen radiologique posé, il faut
prendre toutes les mesures possibles (règles de bonne pratique) pour que l'information diagnostique
utile au patient soit acquise en maintenant l'exposition à un niveau aussi faible que possible, tant
pour le patient que pour le personnel. On parle du processus d'optimisation de la technologie
radiologique.
L'Union et le Ministère de la Santé ont établi des niveaux de référence diagnostiques pour les
examens les plus courants. Pour des patients de taille standard (70kg), ces niveaux de dose ne
doivent généralement pas être dépassés.
La législation prévoit que certaines limites de dose ne doivent pas être dépassées. Les personnes
professionnellement exposées ne doivent pas êtres exposés à des doses de plus de 10 milli-Sievert
par année, tandis que les personnes du public ne doivent pas être exposés à des doses de plus de 1
milli-Sievert par année.
Toutefois, les limites de dose ne s'appliquent pas à l'exposition de patients dans le cas d'examens ou
de traitements médicaux, ni à l'exposition au rayonnement d'origine naturelle.
M1 Physique-Imagerie 2011/2012 31
Trois règles de protection contre toutes les sources de rayonnements sont :
• mettre un ou plusieurs écrans entre la source de rayonnements et les personnes (par exemple,
dans les industries nucléaires, de multiples écrans protègent les travailleurs. Ce sont des murs de
béton, des parois en plomb et des verres spéciaux chargés en plomb)
Les personnes professionnellement exposées se protègent des rayonnements ionisants par les
méthodes de protection suivantes :
Ils veillent à
• une grande distance à la source de rayonnement
• un temps de manipulation aussi faible que possible
• utiliser des écrans protecteurs entre soi-même et la source de rayonnement (comme un écran
plombé, du verre de plomb, un tablier en plomb, ...)
• n'utiliser pas plus que l'activité demandée
• éviter une contamination avec une source radioactive
2) Le scanner
A) Les tomodensitomètres
Historique :
M1 Physique-Imagerie 2011/2012 32
suivant leurs angles de pénétration. Toutefois, les calculs nécessaires à cette technique la rendaient
impraticable avant l'avènement des ordinateurs. L'ordinateur attribue à chaque pixel d'image une
valeur d'échelle de gris proportionnelle à l'absorption des rayons X par le volume corporel
correspondant. La densité mesurée en unités Hounsfield (UH) va de -1000 pour l'air à +1000 pour
l'os dense cortical, en passant par -50 pour la graisse et 0 pour l'eau.
Le premier scanner à rayons X a été mis au point en 1972 par un ingénieur britannique travaillant
dans un laboratoire financé par EMI, Godfrey Newbold Hounsfield, d'après les travaux publiés
quelques années auparavant par un physicien américain, Allan MacLeod Cormack. Ces deux
savants ont ainsi obtenu le Prix Nobel de médecine en 1979 pour le « développement de la
tomographie axiale calculée ».
Les premiers prototypes de tomodensitomètre ne permettaient d'« imager » que le cerveau au
moyen d'une série de capteurs ou détecteurs disposés en arc de cercle autour de la tête. Pour réaliser
une seule image sur ces appareils, il fallait acquérir le signal pendant plusieurs minutes.
L'ordinateur auquel ils étaient couplés nécessitait deux heures et demie pour traiter chaque coupe ou
tomographie. Ces images tomodensitométriques du cerveau permirent de visualiser, pour la
première fois en imagerie, le tissu cérébral et les ventricules remplis de liquide céphalo-rachidien.
Les appareils suivants permirent ensuite de produire des images de toutes les parties du corps
humain. D'une matrice grossière de 80x80, on est passé rapidement à des pixels plus petits, jusqu'à
une résolution d'images de 512x512.
Dans les appareils modernes, l'émetteur de rayons X (tube à rayons X) effectue une rotation
autour du patient en même temps que les récepteurs situés en face, et qui ont pour fonction de
mesurer l'intensité des rayons après qu'ils ont été partiellement absorbés durant leur passage à
travers le corps. Les données obtenues sont ensuite traitées par ordinateur, ce qui permet de
recomposer des vues en coupes bidimensionnelles puis des vues en trois dimensions des organes.
On peut faire ressortir le contraste de certains tissus, en particulier des vaisseaux sanguins, en
injectant un produit dit « de contraste » qui a la propriété de fortement absorber les rayons X et
M1 Physique-Imagerie 2011/2012 33
donc de rendre très visibles les tissus où ce produit est présent c'est-à-dire plus "blancs" sur l'image.
Dans les scanners spiralés ou hélicoïdaux disponibles depuis les années 1990, l'émission des
rayons X est continue durant toute la séquence, la table d'examen progressant à vitesse constante et
fixée dans l'anneau. La réalisation de l'examen est beaucoup plus rapide, et plus confortable dans
beaucoup de cas et fournit une meilleure qualité d'images. La durée de révolution du tube émetteur
est passée de 1 seconde à 0,28 seconde sur les appareils de dernière génération. Les acquisitions
rapides ont permis le développement de l'angioscanner, technique non invasive d'exploration des
vaisseaux sanguins durant le court temps de transit vasculaire du produit de contraste après son
injection intraveineuse, supplantant l'angiographie invasive dans maintes indications à visée
diagnostique.
Le Scanner double tube est le premier scanner à double source mettant en œuvre une
technologie dans laquelle deux sources de rayons X disposées à angle droit l’une par rapport à
l’autre offre une vitesse d’acquisition (pitch 3,4) et une résolution temporelle (75ms) deux fois plus
élevée. Il est également possible d'utiliser les deux tubes simultanément à des énergies différentes
(double énergie), ce qui ouvre de nouveaux domaines d'utilisation, comme l'évaluation de la
composition des calculs rénaux, la réduction des artefacts métalliques ou bien encore la soustraction
automatique des os et du produit de contraste. Deux sources de RX placées à angle droit permettent
de diviser par deux la résolution temporelle. Cela entraîne une diminution du flou cinétique présent
sur les CT-scan à 64 barrettes de détecteurs et permet soit une acquisition deux fois plus rapide, soit
une acquisition avec une double dose de rayons X (patients obèses), soit une acquisition avec deux
M1 Physique-Imagerie 2011/2012 34
énergies différentes.
L'examen standard peut être fait dans toute circonstance, à condition que le patient puisse être
immobile sur la table une dizaine de secondes. Il n' y a pas de nécessité d'être à jeun sauf rares
explorations particulières. En cas de grossesse, la justification de l'examen et son rapport bénéfice
sur risque doivent être soigneusement évalués, du fait de la sensibilité particulière du fœtus à
l'irradiation, particulièrement en tout début de grossesse.
L'examen peut nécessiter une injection intraveineuse d'un produit de contraste iodé. On s'assure
que le patient a une fonction rénale correcte et qu'il n'existe pas d'antécédent personnel d'allergie à
un produit de contraste iodé.
Une voie veineuse est mise en place avant l'examen et le produit de contraste est injecté peu
avant l'acquisition. Au moment de l'injection du produit de contraste iodé , la majorité des patients
ressentent une sensation de chaleur au niveau de la gorge et du pelvis, qui dure environ 10 à 30
secondes et qui est liée à la vasodilatation provoquée par l'hyper-osmolarité du produit.
Durant l'acquisition, les images sont visualisées sur une console informatique par le médecin
radiologue. Simultanément, il reçoit sur sa console de visualisation et de traitement l'ensemble des
données acquises (de 150 à plus de 2000 images).
Ces images se présentent sous la forme de "coupes" ou tranches d'épaisseur millimétrique (de
0,4 mm à 10 mm) que le radiologue peut étudier et traiter dans tous les plans de l'espace
(augmentation de l'épaisseur des coupes visualisées, mise en valeur de certaines densités,
reconstructions volumiques en 3D, extraction des vaisseaux ou des structures osseuses, navigation
virtuelle endoscopique, etc.).
M1 Physique-Imagerie 2011/2012 35
Figure 3 :Images obtenues après traitement des données
Les images sont transmises au correspondant soit sous forme de films radiologiques ou
imprimées sur papier, soit sous format numérique, c'est-à-dire sous forme de fichiers informatiques
gravés sur un support CDROM; le format d'image couramment utilisé est le format "médical"
DICOM nécessitant un logiciel de visualisation, mais parfois les images sont converties au format
JPEG pour permettre la visualisation sommaire sur tout ordinateur.
RISQUES, PRÉCAUTIONS ET SOLUTIONS
L'irradiation de la population par les rayons X utilisés en imagerie médicale a été multipliée par
six aux États-Unis en moins de 25 ans, la moitié des doses administrées étant imputée aux
tomodensitomètres. En France, elle a augmenté de 50 % entre 2002 et 2007 .
La tomodensitométrie est un examen en théorie anodin. Il existe néanmoins quelques rares contre-
indications liés à l'injection éventuelle de produit de contraste iodé : insuffisance rénale, contre-
indication médicamenteuse (notamment les médicaments anti-diabetique de type II comme la
metformine), allergie avérée à un ou plusieurs produits de contraste iodés, l'allaitement et bien
évidemment en cas de grossesse .
→ Risques
Comme pour toute radiographie, l'exposition répétée aux rayons X peut être nocive pour
l'organisme, mais le rapport bénéfice/risque lié à l'irradiation penche largement en faveur de la
M1 Physique-Imagerie 2011/2012 36
tomodensitométrie, lorsque la demande d'examen est justifiée, ce qui en fait une technique
d'imagerie médicale de plus en plus pratiquée.
Le risque est celui d'une allergie au produit de contraste allant de la simple réaction cutanée
(urticaire) au choc anaphylactique engageant le pronostic vital.
Les produits de contraste iodés étant néphro-toxiques, il existe également une possible
aggravation d'une insuffisance rénale préexistante. Les risques sont majorés en cas de diabète et de
défaut d'hydratation.
→ Précautions et solutions
De plus, pour éviter une possible insuffisance rénale, le patient diabétique traité par des
médicaments à base de metformine ou biguanides doit interrompre ce traitement anti-diabétique
oral durant les 48 heures suivant l'administration de produit de contraste iodé, et le reprendre après
vérification de l'absence d'apparition d'une insuffisance rénale. Il est recommandé pour tout patient,
sauf contre-indication particulière, de bien s'hydrater par voie orale les heures précédant et la
journée suivant l'examen.
Les jeunes enfants, avant quatre ans, ont souvent du mal à conserver l'immobilité et nécessitent
une prémédication sédative ou une contention dans un matelas adapté.
Chez les patients anxieux, très agités ou non coopératifs, une prémédication anxiolytique ou
sédative voire une brève anesthésie, permettent la réalisation de l'examen.
Durant la grossesse, il faut éviter de principe l'exploration du pelvis ou l'utilisation de produit de
contraste iodé mais le rapport bénéfice/risque doit être apprécié au cas par cas.
L'imagerie par résonance magnétique(IRM), technique non irradiante utilisant les champs
magnétiques, représente une solution de remplacement ou un complément pour certaines
applications ; mais notons bien que cette technique ne pourrait en aucun cas remplacer l'imagerie
scanographique.
La tomographie peut être utilisée pour examiner des objets anciens, le contenu à risque de
contenants fermés, ou encore l'intérieur de morceaux d'arbres8 pour y observer les structures
internes et épicormiques.
M1 Physique-Imagerie 2011/2012 37
B) Formation d'une image tomodensitométrique
Dans cette partie, nous essaierons de comprendre comment créer une coupe en tomodensitométrie.
Cela fera appel à des théories mathématiques assez complexes : Radon, Fourier, itérations....
Théorie de Radon :
En 1917, le mathématicien autrichien Johann Radon développa une théorie sur laquelle repose les
fondements de la tomodensitométrie.
Cette théorie établit la possibilité de reconstituer un objet au moyen de ses projections. On ne peut
pas disposer de toutes les projections, c'est pourquoi pour palier ce déficit, on va prendre par
exemple une projection par degré.
-En 1963, après avoir remplacé les films radiologiques par des cristaux sensibles et en s'appuyant
sur la théorie de Radon, le physicien Cormack mesure grâce aux progrès de l'informatique, de
faibles différences de densités et propose une théorie de reconstruction par ordinateur.
-Parallèlement en 1968, l'anglais Hounsfield va orienter ses recherches sur la reconnaissance des
formes géométriques par ordinateur. Il va ainsi permettre de diviser un volume en un grand nombre
de petits cubes. Il obtient une valeur moyenne d'absorption des rayons X pour chacun de ces petits
cubes. En 1971, on obtient ainsi le premier prototype (EMI-scanner) qui permet en 1972 les
premières images en coupe du cerveau.
-En 1979, pour leurs travaux effectués, Cormack et Hounsfield ont reçu le prix Nobel de médecine.
En effet la théorie de Radon permet de reconstituer un objet au moyen d'un nombre élevé de
projections.
Nous avons en réalité une « matrice image » vide de toutes valeurs numériques. Il va donc falloir
M1 Physique-Imagerie 2011/2012 38
trouver un moyen de la remplir numériquement à partir des différentes projections.
Il existe à l'heure actuelle deux type de méthode : méthode algébrique dite d'itérations et méthode
analytique dite rétroprojection par transformée de Fourier.
-simple : reconstruction d'une coupe en passant par le domaine fréquentiel, car en effet tout
signal peut se décomposer en une infinité de fonctions trigonométriques (Fourier).
On utilise le profil d'atténuation du faisceau de rayons X à la sortie du patient pour
M1 Physique-Imagerie 2011/2012 39
récupérer cette décomposition dans le domaine fréquentiel. Or, en TDM les profils
d'atténuation acquis sur 360° doivent être classés degré par degré dans un même
domaine fréquentiel. Ainsi, une fois le plan de Fourier « rempli », on applique la
transformée de Fourier inverse pour retourner dans le domaine spatial. On obtient
ainsi une image grâce à cette méthode qui se trouve être bien plus rapide que la
méthode itérative.
-filtrée : seulement une rétroprojection simple ne suffit pas pour obtenir une image d'une qualité
optimale. Il faut établir un filtrage dans le domaine de Fourier. Le problème majeur
avec la rétroprojection simple vient du fait que nous n'obtenons pas le niveau de
netteté de l'objet de référence, les contours par exemple apparaissent voilés. En effet,
cela vient du fait que l'ensemble des projections se superposent et on obtient un voile
en forme d'étoile autour de l'objet qui se trouve être beaucoup plus marqué lorsque le
nombre de projection est faible. Or, on sait que les basses fréquences correspondant
au contraste de l'image se trouvent dans la partie centrale du plan tandis que les
hautes fréquences responsables des détails se situent en périphérie. Il suffit donc
d'amplifier à l'aide d'un filtre les fréquences périphériques. C'est une méthode
relativement simple car informatiquement dans le domaine de Fourier il s'agit juste
d'une simple opération de multiplication. Ces filtres appliqués en TDM sont dits de
« rampe atténuée » (produit d'un filtre de rampe ; une droite, par un filtre lissant ;
passe-bas).
-adaptation du filtrage aux différents tissus : grâce à la technique précédente, on obtient des
images scanographiques non « voilées ». Cependant, en TDM certaines structures
demandent une résolution spatiale encore plus marquée (tissus osseux) alors que les
autres tissus (tissus mous) demandent une augmentation de la résolution en contraste.
C'est pourquoi il faut trouver un juste compromis afin d'adapter le filtrage du tissu
étudié. Pour privilégier la résolution spatiale, on utilise des filtres « durs » pour
l'étude des structures fines qui amplifient légèrement les hautes fréquences. A
l'inverse, pour privilégier la résolution en contraste, on utilise des filtres « mous »
pour l'étude des parties molles qui augmentent la proportion des basses fréquences
dans l'image finale.
M1 Physique-Imagerie 2011/2012 40
C) Artefacts en TDM
Les artefacts peuvent être définis comme étant des effets artificiels qui viennent nuire à la qualité et
à la fidélité de l'image. En TDM, les artefacts sont nombreux et peuvent masquer certaines
pathologies ou même créer de fausses images. Il faut donc les reconnaître et connaître les moyens
de diminuer leur apparition.
Artefacts de mouvement :
-Ils sont dus aux mouvements du patient : agitation, respiration, battements cardiaques,
tremblements.
-Ils s'expriment sur l'image par un dédoublement des contours des structures.
-Pour réduire les artefacts il faut :
→ coopération du patient
→ confort du patient
→ apnée
→ utilisation de pitchs élevés (distance parcourue par le lit en rotation/collimation)
→ synchronisation cardiaque et/ou respiratoire
M1 Physique-Imagerie 2011/2012 41
Flou géométrique :
-Il s'agit d'une « pénombre » due à la taille du foyer. Ainsi, plus le foyer est petit et plus le flou
géométrique baisse.
-Cependant, il est difficile de créer des foyer de petite taille pouvant générer des intensités élevés
pendant une longue durée.
-Il faut une collimation secondaire pour réduire ce flou géométrique.
-En pratique, lorsque l'on étudie les structures osseuses en haute résolution, on utilise des foyers
fins.
Artefacts de cibles :
-Ils vont se manifester sous forme de cercles d'intensité variable centrés sur l'axe de rotation.
-On permet énormément d'information au niveau des projections.
-Cela provient :
→ d'un capteur défectueux
→ d'un mauvais centrage du faisceau X sur les détecteurs
-Ils apparaissent lorsque les rayons X rencontrent des transitions trop brusques d'épaisseur et de
densité.
-Ils se distinguent par des zones de densité inférieure à la normale (zone hypodense ou « barre de
Hounsfield ») au niveau de ces transitions.
-Les zones les plus touchées sont en général : la ceinture scapulaire (pectorale) et la base du crâne.
-Pour atténuer ces artefacts, on peut : utiliser un filtre papillon (pour compenser les différences de
densité), augmenter l'énergie des rayons X au niveau des zones denses.
M1 Physique-Imagerie 2011/2012 42
Artefacts métalliques :
-Il rejoigne les artefacts de durcissement de faisceau, sauf que cette fois-ci cela se traduit par la
présence d'un élément métallique dans le volume que l'on explore.
-Il faut ainsi veiller en pratique à ôter toutes les structures métalliques qui peuvent être présentes
dans le volume étudié (appareils dentaires, bijoux, piercing, bouton-pression, câbles/connecteurs...)
-Cela se produit lorsque des structures de densité différente se situent dans l'épaisseur d'un même
voxel (pixel en 3D). L'intensité du pixel va correspondre à une moyenne de la densité des structures
du voxel.
-On peut diminuer cet artefact en utilisant des coupes fines et des incréments faibles.
-En effet, le mode d'action spiralé a permis de réduire très nettement ces artefacts.
-Pour comprendre l'origine de l'effet de volume partiel, il faut parfaitement maîtriser l'anatomie.
-On remarque des zones hyperdenses en bordure de coupe qui apparaissent lorsque le corps du
patient sort du champ de mesure.
-Afin de les éviter, il faut adapter le champ de mesure à la corpulence du patient.
-On rencontre parfois des difficultés pour les patient de forte corpulence mais les nouveaux
appareils possèdent des algorithmes informatiques permettant de corriger ces hyperintensités.
-Le problème de l'utilisation du mode spiralé peut parfois provoquer des artefacts spécifiques.
-Ils apparaissent sous la forme de variations d'intensités aux alentours de structures denses.
-Cela peut se produite lorsque :
→ le pitch est élevé
→ l'interpolation n'est pas optimale
M1 Physique-Imagerie 2011/2012 43
Artefacts pour les nouveaux appareils multicoupes volumiques :
-La conicité du faisceau X utilisée pour les scanners multicoupes provoque un artefact dit en
« moulin à vent ».
-Il est lié donc à cette conicité (multibarrettes) et à la muse en place d'un pitch élevé.
-Il se forme sous forme de « pales » qui, lorqu'on fait défiler les coupes, donnent l'impression de
tourner autour d'un axe matérialisé par une structure de densité élevée.
-On peut réduire ces artefacts en diminuant le nombre de pitch.
D) Doses en scanographie
Depuis l'arrêté du 24 mars 2003, la traçabilité des doses délivrées lors des examens scanographiques
est obligatoire.
Le médecin qui réalise l'acte indique sur un compte-rendu les informations au vu desquelles il a
estimé l'acte justifié, les procédures, les opérations réalisées et enfin toutes les informations relative
à l'estimation de la dose reçue par le patient.
Le couple radiologue-manipulateur doit chercher à optimiser les différents protocoles afin de rendre
la dose la plus faible que possible surtout pour les jeunes patients et les femmes enceintes.
Un indicateur de dose délivré est présent sur les consoles d'acquisition.
→ Index de dose scanographique pondéré (IDSP) : grandeur qui exprime la dose reçue par
le patient nécessaire à l'obtention de chaque coupe. Cela prend en compte la partie
utile du rayonnement et la pénombre de part et d'autre de la coupe qui ne participe
pas à l'image mais qui fait partie de la dose reçue par le patient. L'IDSP s'exprime en
milligrays (mGy). Il existe aussi une variante de l'IDSP : l'IDSP volumique (IDSV).
Cette valeur tient compte du pitch. Ainsi, IDSV=IDSP/pitch ; cela correspond à la
dose moyenne multicoupes.
→ Produit dose longueur (PDL) : le PDL rend compte de la dose délivrée au patient au
cours d'un examen tomodensitométrique. Ceci est égal au produit de l'IDSV par la
longueur de volume irradiée : PDL(mGy.cm)= IDSV(mGy) * L(cm).
On peut aussi estimer la dose efficace en tenant compte des organe présents dans le
volume étudié. On parle alors de PDL régional :
PDL(régional)=PDL (mGy.cm) * E(PDL)
M1 Physique-Imagerie 2011/2012 44
quelque soit le pitch utilisé.
-tension : augmenter la tension (kV) augmente le débit de photons et la pénétration des rayons
X (énergie). Cela va donc impacter sur la dose délivrée au patient et donc sur le SNR.
Il faut donc avoir des protocoles d'exploration à tension réduite pour les enfants et les
personnes de faible corpulence. Actuellement il est tout de même plus facile de jouer
sur une régulation de la tension que de jouer sur la charge.
-épaisseur de reconstruction utile : il faut faire la différence entre l'épaisseur des coupes
d'acquisition et l'épaisseur des coupes reconstruites. Sachant que le bruit est
inversement proportionnel à l'épaisseur de coupe de reconstruction, celle-ci sera
choisie en fonction du tissu à étudier et du rapport SNR nécessaire à l'analyse de
l'image. Pour un volume donné, plus on « dépose » de dose, et plus il est possible de
reconstruire des coupes fines de bonne qualité (débruitées). Tout ceci réside donc
dans le choix de l'épaisseur de coupe à reconstruire.
-pitch : il faut savoir que le pitch n'influence que la rapidité à laquelle on souhaite délivrer la
dose au volume. Pitch grand : dose délivrée rapidement avec une bonne résolution
temporelle. Pitch petit : dose délivrée de manière plus lente avec des profils de coupe
de meilleure qualité.
M1 Physique-Imagerie 2011/2012 45
→ éléments technologiques de réduction de dose
-filtre papillon : ce dernier est disposé à la sortie du tube. Plus mince au centre que sur les
bords, il permet d'adapter le rayonnement à l'anatomie en laissant passer plus de
rayons au centre du corps qu'en périphérie. Ainsi, on homogénéise le dépôt de dose
dans le corps du patient.
-collimateurs de champs : ils limitent l'irradiation dans le plan déterminé par les axes x et y au
plan choisi au lieu d'irradier tout le volume. Ils réduisent l'excès de pénombre (flou
géométrique) inutile à la formation de l'image aussi bien dans le plan de coupe que
dans l'axe z.
M1 Physique-Imagerie 2011/2012 46
-modulation sur l'axe z : il y a également une possibilité de modulation de l'intensité en
fonction de la position du tube sur l'axe z. Toutes ces options logiciels ont des noms
différents en fonction des constructeurs et permettent de réduire la dose de 20 à 40%.
Il faut souligner que ces outils ne permettent pas à l'opérateur de réduire
manuellement la charge car celle-ci est optimisée par l'appareil.
l'utilisateur, ce qui n'est pas le cas de la charge. Etant donné le développement des
options logiciels, le pitch n'est quasiment plus accessible par l'opérateur. A savoir que
ce dernier n'a pas une incidence directe sur l'irradiation volumique. Ainsi la
collimation et l'épaisseur de reconstruction utile ne sont pas donc pas accessibles.
M1 Physique-Imagerie 2011/2012 47
de références diagnostiques à ne pas dépasser. Ces normes sont réactualisées
régulièrement par la Société Française de radiologie en France par exemple.
L'ensemble de ces pratiques doivent respecter le consensus ALARA (as low as
reasonably achievable) pour pouvoir agir de manière responsable, consensuelle et
équitable dans un contexte d'incertitude face au risque radiologique. Le but de cette
démarche est de promouvoir aux professionnels de santé et aux patients une réelle
culture de qualité et de radioprotection.
M1 Physique-Imagerie 2011/2012 48
III/ Le traitement d'image
1) La numérisation en imagerie médicale
En 1895, le physicien allemand Wilhelm Röntgen alors âgé de 50 ans étudie le rayonnement
cathodique avec des tubes de Crookes.
L’usage des rayons X pour réaliser des images médicales se répand dans le monde entier dès 1896.
En 1897, la France se dote du premier laboratoire de radiologie grâce au docteur Béclère qui met en
place, à ses frais, une installation radioscopique dans son service de médecine générale à l’hôpital
Tenon.
-1980-: Image 2D --> modèle 3D, analyse du mouvement, application: Robotique et guidage de véhicule, vision
active, respectives: -Acquisition, -Analyse et interprétation de l'information image.
M1 Physique-Imagerie 2011/2012 49
l'amélioration continue de ses performances techniques. Elle représente l'une des applications les
plus réussies et les plus fécondes de l'application de l'informatique à la médecine et à l'imagerie
médicale.
I = I0 ⋅ e− µ x
On obtient : µ = ln ( Ix I 0 )
Hounsfield a choisi une échelle qui affecte aux quatre densités fondamentales les valeurs suivantes :
Air = -1000
Graisse = - 60 à - 120
Eau= 0
Os = + 1000.
M1 Physique-Imagerie 2011/2012 50
L'image de la coupe d'un objet irradié par un faisceau fin de RX, est reconstituée à partir d'un grand
nombre de mesures du coefficient d'atténuation, effectuées selon diverses incidences. On recueille
ainsi toutes les données, qui proviennent des volumes élémentaires de matière, grâce aux détecteurs.
A l'aide d'un calculateur, on attribue aux surfaces élémentaires de l'image reconstruite à partir des
données projetées sur une matrice de reconstruction, une tonalité plus ou moins importante en
fonction des coefficients d'atténuation. Le scanner X, étudie l'atténuation d'un faisceau de rayons X,
au cours de la traversée d'un segment du corps. Toutefois, plusieurs éléments le différencient de la
radiologie classique :
- L'étude de l'atténuation se fait sur un faisceau de rayons X étroit, défini par une collimation portant
à la fois sur le faisceau et le détecteur de rayons X.
Actuellement, les détecteurs à semi-conducteurs ont pris le dessus dans la technologie des
détecteurs des scanners hélicoïdaux, donnant une bien meilleure réponse :
- Plus de 90% de l'information est restituée pour des détecteurs à semi-conducteurs
- Et un rendement de 50 à 90 % pour les détecteurs à gaz (chambre d'ionisation au Xe).
Quelque soit le détecteur, la sensibilité est considérablement plus grande que celle des films
radiologiques. L'ensemble générateur et détecteurs de rayons X est solidarisé par un montage
mécanique rigide qui définit un plan de détection. L'objet à étudier est placé dans le faisceau, le
dispositif fournit une mesure de l'atténuation du rayonnement dans ce plan. A l'aide des détecteurs,
on obtient une série de mesures de l'atténuation résultant de la traversée d'une tranche du corps. Une
seule de ces projections ne suffit pas à reconstituer la structure de la coupe. Un mouvement de
rotation de l'ensemble autour du grand axe de l'objet examiné, permet alors d'enregistrer des profils
résultants de la traversée de la même coupe suivant différentes directions. L'utilisation de méthodes
mathématiques complexes nécessitant l'emploi d'ordinateurs conduit, par « rétro projection » des
différents profils, à construire l'image de la distribution des coefficients d'atténuation au niveau de
la section examinée.
La matrice des scanographes récents varie entre 320*320 et 512*512, ce qui représente un grand
nombre de mesures et une bonne définition de l'image scanographique (le pixel est la surface de la
base du voxel, qui est très inférieur à 1 mm², ses côtés mesurent 0.2 mm avec les matrices
512*512). Quant à l'épaisseur de coupe, hauteur du voxel, elle varie actuellement entre 1 et 10 mm
selon les appareils et les régions à explorer.
M1 Physique-Imagerie 2011/2012 51
En fonction des chiffres périphériques d'absorption (Figure 1.3. a), l'ordinateur calcule les
différentes densités rencontrées par le rayonnement dans chaque unité de volume (Voxel), la
projection étant le pixel, (Figure 1.3. b).
Plusieurs variétés de géométrie de scanner ont été produites, pour acquérir les données de
transmission des rayons X nécessaires à la reconstruction de l'image en CT. Certaines géométries
ont été nommées « génération » de CT scanner et ce label est très pratique dans la différentiation
des modèles de scanner. Il existe 4 générations de modèles de scanner :
M1 Physique-Imagerie 2011/2012 52
- 1ère et 2ème Génération : Translation, rotation du tube et des détecteurs autour de l'objet étudié
(La première génération ne comportait que 2 détecteurs séparés permettant d'obtenir 2 coupes
simultanément avec un temps d'acquisition de plusieurs minutes). C'était la technique initialement
utilisée, où le tube de rayons X était solidaire avec les détecteurs (Figure 1.4).
Le mouvement des scanners de géométrie de deuxième génération est décrit sur la figure 1.4. Une
rotation d'angle q de l'ensemble est égale à l'angle d'ouverture du mince faisceau de rayons X, suivie
d'une translation linéaire de la source et de la barrette de détecteurs en travers de l'objet étudié. Le
nombre de translations-rotations est égal à 180°/q. Le filtre compensateur tourne mais ne translate
pas avec la source et les détecteurs. Par exemple, si l'angle d'ouverture du faisceau est de 10° et
combiné à un nombre suffisant de détecteur pour absorber les rayons X émergents, seules 18
translations-rotations sont nécessaires pour obtenir des données adéquates pour la reconstruction de
l'image. Les derniers scanners de 2ieme génération ont des temps d'acquisition de 10 à 20 secondes.
Le handicap de la 2ieme génération est du au fait qu'il a un temps d'acquisition très long et est plus
utilisé pour l'imagerie des parties du corps que pour celle de la tête.
M1 Physique-Imagerie 2011/2012 53
C'est un système à rotation unique (géométrie à Rotation-Rotation), la figure 1.5 montre ce modèle
de scanner avec un faisceau de rayons X ouvert, englobant entièrement le corps du patient pendant
l'intervalle d'acquisition, pour limiter les artefacts. Le faisceau de rayons X est absorbé par la rangée
de détecteurs en arc de cercle et en rotation avec lui. Les anciennes machines de 3ieme génération
avaient à peu près 300 détecteurs mais actuellement on dépasse les 1000 détecteurs avec une
ouverture angulaire de l'ordre de 50° sur les scanners Philips.
Dans cette configuration, les détecteurs voient la source de rayons X toujours sous la même
incidence à travers l'objet. Une grille concentre le faisceau de RX en sortie du patient pour réduire
le rayonnement diffusé dans les détecteurs, qui ne peuvent pas être calibrés pendant l'examen et
doivent avoir une grande sensibilité, ce qui explique le lent développement des machines de 3ieme
génération.
- 4ème Génération : La couronne de détecteurs est fixe et seul le tube tourne autour de l'objet.
(Figure 1.6)
Le mouvement des scanners de la quatrième génération est représenté en figure 1.6. Seul le tube de
rayons X tourne autour de l'objet examiné et il est plus près de l'objet que les détecteurs lors sa
rotation. Cette génération est aussi appelée, scanner à géométrie courte car l'ouverture du faisceau
est beaucoup plus importante pour couvrir tout l'objet examiné. Le nombre de profils obtenu est
limité par le nombre de détecteurs entourant le patient. Dans ce système de détection, une partie du
faisceau est utilisée pour calibrer les détecteurs, l'autre pour la formation de l'image. Du fait que le
tube est plus près de l'objet, la résolution spatiale est relativement dégradée. 2000 à 4800 détecteurs
M1 Physique-Imagerie 2011/2012 54
sont nécessaires pour disposer d'un appareil possédant de bonnes performances.
L'acquisition des données se fait grâce à un tube à rayons X couplé à un ensemble de détecteurs,
disposés en arc de cercle ou en éventail (fan Beam). L'ensemble tube/détecteurs est solidaire et
animé d'un mouvement synchrone, circulaire, dans le même sens, selon un plan perpendiculaire à
l'objet examiné. Pendant l'acquisition, les séquences suivantes s'opèrent :
M1 Physique-Imagerie 2011/2012 55
Traitement du signal :
Le rayonnement X reçu par les détecteurs, est transformé en courant électrique. Cette conversion
aboutit à un signal qui va être amplifié et numérisé. La numérisation consiste à transformer le signal
de type analogique en données chiffrées qu'un ordinateur peut classer, stocker dans une matrice de
reconstruction et traiter ensuite. Le traitement proprement dit du signal, comporte en fait une
reconstruction de l'image à partir des données recueillies par le système d'acquisition. On sait,
depuis les travaux des mathématiciens, reconstituer un objet à partir de ses projections sur un plan
de référence. On effectue pour cela deux opérations :
Io est l'intensité du faisceau sans l'objet, y' est la distance sur l'axe du faisceau.
En linéarisant l'équation 1 ci-dessus, on obtient les données suivantes :
I0
Equation 2 P (t ,θ ) = ln
I (t , θ )
= ∫ µ ( x, y)dy '
Pour un objet µ(x,y) vu sous un angle q, par un faisceau étroit de RX, selon la direction x' à la
distance t de l'axe Ox', direction de propagation du faisceau, t est exprimé par : t = x cosq + y sinq .
La deuxième équation est résolue pour déterminer la fonction µ(x,y), sa résolution se fait
analytiquement en utilisant sur les machines CT la rétro projection filtrée. La transformée de Radon
a permis en 1917 de résoudre ce genre d'équation. Actuellement, on utilise des méthodes de
convolution pour retrouver µ(x,y). La reconstruction s'effectue en deux temps :
Une rétro projection pour obtenir l'image. On a donc l'équation de convolution de g par P(t, q) :
+∞
Equation 3 P (t ,θ ) = ∫ g (t − t ) P(t ,θ )dt
−∞
M1 Physique-Imagerie 2011/2012 56
est rétro-projeté pour obtenir la distribution spatiale des coefficients linéaires d'atténuations µ(x,y).
Avec t=xcosθ+ysinθ
L'idée est une reconstruction 2D de la transformée de Fourrier de l'image sous forme de projection,
suivie d'un filtrage et de la transformée inverse pour obtenir l'image finale. Une méthode utilisant la
transformée de Fourier 1D, a été mise en place. Elle consiste en une transformation de chaque
projection, suivie d'une reconstruction ou rétro-projection dans le domaine fréquentiel, puis d'un
filtrage et de la transformée inverse pour obtenir l'image voulue.
Visualisation
Les images sont présentées sur l'écran vidéo de la console. La matrice de présentation peut être
équivalente à la matrice de reconstruction ou présenter un plus grand nombre d'éléments image (
jusqu'à 1024 X 1024 pixels).
Les images comportent des niveaux de gris qui traduisent les coefficients Hounsfield. Compte tenu
de la dynamique propre des appareils vidéo et des performances de l'oeil humain, il est nécessaire
de se limiter à l'étude d'une fraction des densités qui peuvent s'étaler sur une large échelle de -1000
à +1000.
Le scanner permet de projeter une fraction de l'échelle de densité sur toute l'échelle de gris de
l'écran vidéo grâce à la fonction de fenêtrage (redistribution des niveaux de gris).
On appelle fenêtre la plage de densité étudiée. On la caractérise par sa largeur d'ouverture (L) et son
niveau (N).
M1 Physique-Imagerie 2011/2012 57
Dans l'exemple, on fait glisser la fenêtre de largeur 30 (20-50) sur l'ensemble des valeurs de
Hounsfield pour pouvoir analyser ou voir des zones de densité différentes proches.
D'autres traitements d'image sont possibles tels que : la reproduction des images, la filtration, la
reconstruction, l'agrandissement simple, les fonctions de mesure de longueur, de volume, de surface
et surtout de densité.
La filtration est très importante lors de la reconstruction de l'image en TDM, on utilise des filtres de
convolution, qui sont des programmes de calcul, pour améliorer l'aspect final de l'image. Il existe
des filtres de densité, un filtre spatial, un filtre standard servants à atténuer les hautes fréquences de
l'image.
Pixels :
Le signal vidéo envoyé par la caméra comprend des informations de luminosité qui changent au fur
et à mesure que le temps s’écoule. Toutefois, le temps (position sur l’écran) ne peut pas être
déterminé avec ce signal. Si on divise une ligne de balayage sur la base d’une impulsion d’horloge
possédant une fréquence spécifique (cf. illustration ci-dessus), on est alors en mesure de déterminer
la position horizontale sur l’écran. La position verticale étant à l’origine déterminée par le numéro
de la ligne de balayage, cela permet donc d’obtenir un quadrillage de l’écran. Chaque élément de ce
quadrillage est appelé pixel. L’image d’une cible est reconnue comme étant la combinaison de
pixels blancs et noirs. Tous les traitements d’image s’effectuent sur la base des pixels.
M1 Physique-Imagerie 2011/2012 58
Conversion binaire numérique :
Le signal vidéo envoyé par la caméra est un signal analogique. Afin de pouvoir utiliser le signal
vidéo pour différentes mesures et différenciations, ce signal analogique doit être converti en signal
numérique. On définit pour cela un niveau seuil pour le signal vidéo. Les zones qui sont plus claires
que le niveau seuil sont définies comme étant “blanches”, tandis que celles qui sont plus sombres
sont définies comme étant “noires”. Le signal numérique correspondant à un pixel blanc est égal à
“1”(= HI), le signal numérique correspondant à un pixel noir est égal à “0” (= LO).
M1 Physique-Imagerie 2011/2012 59
Traitement par les niveaux de gris :
Les processus de traitement d’images utilisent soit la conversion binaire, soit une échelle de gris.
Les appareils de la série CV-110 recourent à la seconde méthode, laquelle est basée sur les
variations de luminosité de l’image obtenue par la caméra. La conversion binaire ne permet de
reconnaître l’image qu’en deux couleurs, le noir et le blanc, autrement dit des “1” et des “0”. Le
traitement sur l’échelle des gris permet par contre d’obtenir une plus grande différenciation,
l’échelle de luminosité étant divisée en 8 bits (soit 256 niveaux). Cette seconde méthode permet
donc de garantir une bien meilleure précision dans la détection.
Le signal vidéo couleur provenant de la caméra est converti en données numériques RVB par la
conversion A/N de l’image. Ces données sont utilisées pour l’opération de différence afin d’obtenir
les données de R- (moins) V, B-V et R-B à partir des données RVB reçues. Ces six paramètres
d’information couleur sont utilisés pour contrôler le degré de correspondance par rapport à la
couleur spécifiée. Ceci s’effectue en définissant la plage sur l’écran puis en extrayant la couleur qui
M1 Physique-Imagerie 2011/2012 60
correspond à celle précédemment définie. Ensuite, chaque pixel subit une conversion binaire en
pixel extrait ou non extrait. Ce processus d’opération de différence assure une extraction stable
même pour les couleurs sombres et des vitesses de traitement rapides.
En fonction de la couleur extraite, les couleurs sont divisées en 256 niveaux. La couleur extraite est
spécifiée comme étant le niveau 255 et les autres couleurs qui possèdent une plus grande différence
de données de teinte couleur sont spécifiées comme étant plus proche du niveau 0. À la différence
de la conversion binaire couleur, le traitement par échelonnement des nuances couleur utilise des
données de nuances à 256 niveaux et de ce fait ce traitement assure une détection stable même
lorsque la couleur d’une cible varie à cause de différences individuelles. Comme pour la conversion
binaire couleur, les six paramètres sont utilisés pour l’opération interne.
Fonction filtre :
La fonction filtre supprime ou met en évidence le bruit et la distorsion des données de l’image
capturée si bien que l’image est facile à contrôler ou à différencier. Le filtre permet de convertir les
données de l’image d’origine sous une forme plus simple.
M1 Physique-Imagerie 2011/2012 61
EXPAND
Le pixel cible est remplacé par le pixel le plus brillant parmi le pixel cible et les huit pixels
l’entourant. Ce filtre restaure toute partie de lettre manquante. L’image blanche s’agrandit d’une
taille. EXPAND répète deux fois le même processus pour augmenter l’effet.
SHRINK
Le pixel cible est remplacé par le pixel le plus sombre parmi le pixel cible et les huit pixels
l’entourant. Ce filtre supprime les composantes de bruit faibles. L’image blanche se rétrécit d’une
taille.
La qualité d’image est difficile à apprécier objectivement .Néanmoins certaines mesures physiques
permettent de l’évaluer :
5. Le rapport signal sur bruit (S/B) ;
6. Le contraste ;
7. La résolution spatiale
Ces critères objectifs de qualités sont interdépendants et liés au temps d’acquisition de l’image.
Le rapport signal sur bruit (S/B) est certainement le facteur qui conditionne le plus la qualité de
l’image de résonnance magnétique. Il influencera le contraste et la résolution spatiale :
Le problème posé à l’opérateur est celui de la recherche du meilleure S/B avec la meilleure
résolution spatiale, c'est-à-dire le plus petit voxel (le pixel en trois dimensions). Ces deux facteurs
sont antinomiques et , de, plus prolonge le temps d’acquisition.
M1 Physique-Imagerie 2011/2012 62
Que signifie le rapport signal sur bruit ? Le S/B s’obtient en comparant le signal d’entrée avec le
signal de sortie afin de mesurer le niveau du bruit (signal parasite). Le rapport signal sur bruit
dépend de :
Le signal de la coupe sélectionnée est émis par les protons excités. La différence de
population entre spins parallèles et antiparallèles est d’autant plus grand que l’intensité du
champ magnétique est élevée. Ainsi, on peut considérer approximativement que le signal
augmente proportionnellement à l’intensité du champ employé.
• Antenne
Plus le volume de réception de l’antenne est restreint autour de l’intérêt, moins il y aura de
bruit enregistré en provenant des structures environnantes, et meilleur est le rapport
signal/bruit que l’antenne corps entier.
• Nombre d’excitations
• Si l’on réalise plusieurs mesures pour une même coupe, à chaque mesure :
• Le signal sera identique à chaque fois
• Le bruit sera différent (car il est aléatoire).
Une fois la taille et l’intensité du champs définis , le nombre de protons excités à l’origine
du signal est pratiquement inchangé :la qualité de signal enregistré sera constante quelle soit
la durée de lecture du signal .
Le temps nécessaire à l’acquisition du signal dépend de l’intensité du gradient de lecture du
bande passante de réception correspondante :
Une bande passante de réception correspondant à un gradient de lecture élevé et un temps
de lecture faible.
Une bande passante de réception étroite correspondant au contraire à un gradient de lecture
faible et des temps allongés.
• Le bruit est l’ensemble des signaux indésirables qui dégradent la formation de l’image. le
bruit a un niveau constant quelles que soient les fréquences (bruit “blanc“) : plus
l’enregistrement du signal comprend une gamme de fréquence large (bande passante de
réception large), plus la proportion de bruit élevée, et le rapport signal/bruit faible ( et l’
artefact de déplacement chimique peu épais).
Il est aléatoire, cohérent et provient :
M1 Physique-Imagerie 2011/2012 63
• du système électronique de traitement du signal (en particulier des fluctuations
électroniques dans l’antenne) ;
• des mouvements moléculaires ;
• des artéfacts (la présence des artéfacts peut considérablement réduire la qualité de l’image.
L’influence des artéfacts peut également être considérée comme un critère de qualité
Pour un contraste donné, le rapport S/B peut alors s’exprimer en fonction des autres paramètres :
S/B # Vvox. √Np. √Nex .1 /√ (BP)
M1 Physique-Imagerie 2011/2012 64
Le contraste :
Autre critère de qualité de l’image, le contraste (C) est un caractère distinctif de la répartition
lumineuse d’image. IL est la variation de l’intensité de signal entre deux structures adjacentes. Le
contraste est un caractère distinctif de la répartition lumineuse d’une image ou entre deux points
d’une image. il est relié à la résolution par la fonction de transfert de modulation (FTM). Il peut
être exprimé en fonction du signal par la relation suivante :
C = Cobj exp – (d/D)² dans laquelle C représente le contraste image, Cobj : le contraste objet , d :
la largeur à mi hauteur de la fonction de transfert de modulation qu’on supposera de type gaussien
et D le diamètre de la lésion ou de la structure qui se détache du contexte.
La relation entre contraste objet et contraste image fera l’objet de développements étendus dans les
chapitres suivants. En fait une troisième variable vient s’imposer à nous dans l’expression du
pouvoir de résolution : c’est d’acquisition et le temps d’examen.
La résolution spatiale :
La résolution spatiale (RS) permet de déterminer la dimension du plus petit volume observable.
Cette résolution spatiale dépend directement du volume du voxel qui est égal à la taille du pixel
multipliée par l’épaisseur de coupe (volume du = dx.dy.Ec c’est-à-dire dimension en x , dimension
en y , épaisseur de coupe). La taille du pixel est contrôlée par la taille du champ d’exploration (fov)
et par la matrice : la résolution spatiale augmente également lorsque l’épaisseur de coupe diminue.
Mais , l’augmentation de la résolution spatiale entraîneune baisse immédiate du rapport S/B, celui-
ci étant proportionnel au volume du voxel .
Le contrôle de la résolution spatiale par la taille du voxel est effectif si le contraste et le rapport S/B
sont suffisants. En effet, le gain en résolution peut être inefficace si l’image est trop bruitée du fait
d’un voxel petit . ce qui nous amène à établir une relation simple :
+ le voxel est petit, meilleure est de la résolution . Mais attention plus vous diminuez le voxel , plus
vous augmentez la résolution spatiale mais plus vous diminuez le rapport S/B !! c’est une histoire
de compromis.
Appareils photo numérique, scanners, images météo …les images ont naturellement envahi notre
vie quotidienne. Leur traitement est devenu commun dans beaucoup de domaines . les logiciels de
traitement numérique de l’image sont maintenant capable de restaurer une image dégradée,
modifier les contrastes, compresser une image, détecter automatiquement des contours,reconnaître
M1 Physique-Imagerie 2011/2012 65
des formes dans une image…toutes les techniques et traitements numérique de l’images sont des
algorithmes basés sur des descriptions et des modélisations mathématiques d’images.
La compression numérique des images est indispensable pour les stocker,les transférer ou encore
les traiter rapidement. Mais comment est-il possible de réduire considerablement la taille mémoire
des images tout en gardant une grande qualité d’affichage ? les techniques de compression d’images
suppriment les informations redondantes et/ou inutiles .
Les techniques d’<<ondelettes>> (comme JPEG2000) utilisent une desciption statique particulière
de l’image qui permet d’éliminer une grande quantité d’information inutile pour la qualité visuelle
de l’image.
M1 Physique-Imagerie 2011/2012 66
notons aussi les techniques de « bandelettes » très récentes, développées par des mathématiciens
français permettent des taux de compression encore plus spectaculaire pour stocker des photos
d’identité sur seulement 500 octet !!
Les bases de bandelettes sont des bases indicées par une géométrie : leurs vecteurs de bases sont
allongés le long de courbes qui sont choisies pour épouser au mieux les contours. Plus précisément,
l’image est segmentée en carrés dyadique et chacun de ces carrés est muni d’une base adaptée. Ces
bases locales sont construites à partir d’une base d’ondelettes anisotropes (obtenues par un simple
produit tensoriel de deux bases monodimensionnelles) déformée pour suivre le contour principal
dans chaque carré. La figure 4 illustre l’apport de cette représentation.
Le choix de la segmentation et de sa géométrie, et donc de la base utilisée, dépend alors de l’image
à comprimer et du taux de compression. Le surcoût de la spécification de cette base via la géométrie
est pris en compte dans un algorithme rapide de recherche de meilleure bas qui permet d’obtenir
automatiquement le meilleure compromis entre l’adaptation de la base à l’image (le bon suivi des
contours) et son coût de codage.
Cette méthode permet de démontrer des résultats théoriques d’optimalité pour les fonctions
régulières en dehors de contours réguliers puisque on obtient la décroissance optimale en M−α
pour l’erreur d’approximation. Elle donne également des résultats pour les images réelles.
M1 Physique-Imagerie 2011/2012 67
Quelques applications en imagerie médicale :
Les algorithmes de restauration des vidéos et des images médicales ont pour but d’amélorer la
résolution des données et d’atténuer le niveau de bruit. Ces deux problématiques sont cruciales en
imagerie médicales puisque la qualités des images est limitée par le fait que le patient doit recevoir
la plus dose possible de radiation pendant l’examen.
Les algorithmes d’amélioration d’images sont aussi utilisés pour réaliser une amélioration du
contraste local ou global sur les éléments de l’image. les professionnelles de l’imagerie médicale
l’utilisent pour déterminer l’information pertinente pour le diagnostic. On a notamment les
techniques de détection de contours servent à aider à la reconnaissance automatique de structures
anatomiques analyser des images d’échographie, comme le montre les figures ci-dessous.
M1 Physique-Imagerie 2011/2012 68