Cours Tds Fip2a PDF

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 92

Traitement Numérique

du Signal Déterministe
(2008-2009) - FIP 2A

Christophe DOIGNON

Maı̂tre de Conférences HdR

Université Louis Pasteur de Strasbourg


Bureau C418 - ENSPS, Pôle API
Boulevard Brant, 67412 Illkirch, France

 03 90 24 43 41
courriel : [email protected]
Table des matières

Bibliographie 5

1 Rappels de Première Année 7


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Représentation des Signaux Déterministes . . . . . . . . . . . . . 11
1.2.1 Fonction signe . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.2 Fonction échelon (unité) . . . . . . . . . . . . . . . . . . . 11
1.2.3 Fonction rectangle . . . . . . . . . . . . . . . . . . . . . . 12
1.2.4 Fonction triangle . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.5 Fonction sinus cardinal . . . . . . . . . . . . . . . . . . . 13
1.2.6 Impulsion unité (distribution de Dirac) . . . . . . . . . . 13
1.2.7 Fonction ”peigne de Dirac” (fonction d’échantillonnage) . 14
1.3 Energie et Puissance . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.1 Energie d’un signal . . . . . . . . . . . . . . . . . . . . . . 15
1.3.2 Puissance moyenne d’un signal . . . . . . . . . . . . . . . 15
1.4 Classification des signaux . . . . . . . . . . . . . . . . . . . . . . 15
1.4.1 Signaux à énergie finie . . . . . . . . . . . . . . . . . . . . 15
1.4.2 Signaux à puissance moyenne finie . . . . . . . . . . . . . 16
1.4.3 Causalité . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.4 Parité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Produit de convolution . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6 Transformations fréquentielles . . . . . . . . . . . . . . . . . . . . 18
1.6.1 Transformée de Fourier . . . . . . . . . . . . . . . . . . . 18
1.6.2 Théorème de Plancherel . . . . . . . . . . . . . . . . . . . 20
1.6.3 Transformée de Laplace . . . . . . . . . . . . . . . . . . . 20
1.7 Série de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.8 Corrélation et densités spectrales . . . . . . . . . . . . . . . . . . 23
1.8.1 Signaux à énergie finie . . . . . . . . . . . . . . . . . . . . 23
1.8.2 Signaux à puissance moyenne finie . . . . . . . . . . . . . 23
1.8.3 Densités spectrales . . . . . . . . . . . . . . . . . . . . . . 24
1.8.4 Théorème de Parseval . . . . . . . . . . . . . . . . . . . . 24
1.9 Filtrage analogique . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.9.2 Filtres stables physiquement réalisables . . . . . . . . . . 26
1.9.3 Fréquence de coupure et bande passante . . . . . . . . . . 26
1.9.4 Transformations de fréquences . . . . . . . . . . . . . . . 27
1.9.5 Synthèse des filtres analogiques . . . . . . . . . . . . . . . 27
1.10 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

3
2 Echantillonnage/Quantification 47
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2 Echantillonnage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.3 Transformées d’un signal échantillonné . . . . . . . . . . . . . . . 52
2.3.1 Transformée de Laplace . . . . . . . . . . . . . . . . . . . 52
2.3.2 Transformée en z . . . . . . . . . . . . . . . . . . . . . . . 52
2.3.3 Transformée en z inverse . . . . . . . . . . . . . . . . . . 54
2.3.4 Equations aux différences . . . . . . . . . . . . . . . . . . 55
2.3.5 Transformée de Fourier discrète (TFD) . . . . . . . . . . 55
2.3.6 Convolution discrète . . . . . . . . . . . . . . . . . . . . . 56
2.4 Energie et puissance d’un signal numérique . . . . . . . . . . . . 58
2.5 Quantification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.5.1 Principe et caractéristiques de la conversion . . . . . . . . 58
2.5.2 Structures d’un CNA . . . . . . . . . . . . . . . . . . . . 62
2.5.3 Structures d’un CAN . . . . . . . . . . . . . . . . . . . . 64
2.6 Corrélation numérique . . . . . . . . . . . . . . . . . . . . . . . . 66
2.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

3 Filtrage numérique 71
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.2 Filtres à réponse impulsionnelle finie (RIF) . . . . . . . . . . . . 78
3.2.1 Synthèse par la méthode des fenêtres . . . . . . . . . . . . 80
3.2.2 Méthode de l’échantillonnage fréquentiel . . . . . . . . . . 85
3.3 Filtres à réponse impulsionnelle infinie (RII) . . . . . . . . . . . . 86
3.3.1 Méthode de l’Invariance Impulsionnelle . . . . . . . . . . 86
3.3.2 Synthèse par la Transformation bilinéaire . . . . . . . . . 87
3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

4
Bibliographie

[1] B. Picinbono, Théorie des signaux et des systèmes, 1989, 260 pages, Dunod
Université. ISBN 2-04-018837-1.

[2] F. de Coulon, Théorie et traitement des signaux, Dunod, Paris, 1985.

[3] J. Max et J.-L. Lacoume, Méthodes et techniques de traitement du signal et


application aux mesures physiques, Masson, Paris, 1996.

[4] J.-P. Delmas, Eléments de théorie du signal : les signaux déterministes, El-
lipses, Paris, 1991.

[5] M. Labarrère, J.-P. Krief et B. Gimonet, Le filtrage analogique, Cépaduès


éditions, Toulouse, 1982.

[6] P. Duvaut, Traitement du signal : concepts et applications, Hermès, Paris,


1991.

[7] J. Wade, Codage et traitement du signal, Masson, Paris, 1991.

[8] S. Wilson, Digital modulation and coding, Prentice-Hall, Upper Saddle River,
1996.

[9] M. Kunt, Traitement numériques des signaux, Dunod, Paris, 1991.

[10] M. Bellanger, Traitement numériques des signaux, Masson, Paris, 1991.

[11] R. Boite et H. Leich, Les filtres numériques, Masson, Paris, 1990.

[12] T. Parks et C. Burros, Digital filter Design, John Wiley & Sons, 1987.

[13] K. Castleman, Digital Image Processing, Prentice Hall, 1996.

[14] A. Bovik, Handbook of Image and Video Processing, Academic Press, 2000.

5
6
Chapitre 1

Rappels de Première Année

Joseph Fourier (21 mars 1768 à Auxerre - 16 mai 1830 à Paris) est un
mathématicien et physicien français connu pour ses travaux sur la décomposition
de fonctions périodiques en séries trigonométriques convergentes appelées séries
de Fourier. Il a été instruit par les Bénédictins à l’Ecole militaire d’Auxerre.
Il était destiné à l’état monastique, mais il préféra s’adonner aux sciences. Il
a participé à la Révolution, manquant de peu de se faire guillotiner durant la
Terreur, il a été sauvé de justesse par la chute de Robespierre. Il intègre l’Ecole
Normale Supérieure, où il aura comme professeur entre autres Joseph-Louis
Lagrange. Fourier est connu pour sa théorie analytique de la chaleur (1822).
C’est à Grenoble qu’il conduit ses expériences sur la propagation de la chaleur
qui lui permettront de modéliser l’évolution de la température au travers de
séries trigonométriques. Ces travaux qui apportent une grande amélioration à
la modélisation mathématique de phénomènes ont contribué aux fondements de
la thermodynamique.

7
1.1 Introduction
L e Traitement du Signal (TdS) est une discipline indispensable que tout
ingénieur doit connaı̂tre. L’amélioration des performances des systèmes au cours
des trente dernières années est due, pour une grande part, à l’application des
techniques de traitement du signal. C’est le cas notamment en imagerie médicale,
en téléphonie et télécommunication. Un système d’imagerie échographique par
ultra-sons, l’IRM ou encore les RADAR actuels sont des inventions dont les
performances (en termes de précision et de rapidité) sont sans commune mesure
avec les premiers prototypes apparus. Les structures matérielles sont sensible-
ment les mêmes, mais les techniques de traitement de signal faisant appel à des
traitements numériques sophistiqués ont été intégrées pour permettre d’extraire
de l’echo sonore ou de l’image reconstituée une quantité plus grande d’informa-
tions. Les implications en ce qui concerne un diagnostic médical, la surveillance
d’une zone aérienne ou sous-marine ou encore la localisation de pannes sont
immédiates. L’objectif du traitement du signal apparaı̂t alors comme un ou-
til mathématique employé pour extraire un maximum d’informations utiles sur
un signal perturbé par du bruit. Les signaux utiles sont souvent perturbés par
des signaux parasites (le bruit) qui les masquent parfois complètement. Pour
atténuer, sinon supprimer ce bruit il faut en connaı̂tre les caractéristiques ainsi
que celles du signal utile. C’est pourquoi le traitement du signal est une disci-
pline très mathématique. Les techniques utilisées peuvent être appliquées à un
signal analogique (continu) mais compte tenu de leur complexité, un traitement
numérique s’impose presque toujours. Il est rendu possible grâce à la puissance
des circuits de calculs et des ordinateurs modernes.

En ce qui concerne ce cours, nous allons tout d’abord fournir quelques rap-
pels par le biais d’exercices se rapportant aux notions vues en première année.
La plupart des notions sont fournies dans ce document, mais toutes ne pourront
pas être traitées de nouveau. Il s’agit essentiellement de revoir brièvement la
représentation des signaux déterministes, les théorèmes fondamentaux en trai-
tement du signal et du filtrage analogique linéaire. Le chapitre I est donc
plus un document de rappel qu’un support de cours en présence des
étudiants. Nous aborderons alors le traitement numérique du signal, en com-
mençant par les processus d’acquisition (Chapitre 2) puis en présentant les outils
employés dans ce cas pour terminer sur l’étude du comportement des signaux
numériques et du filtrage numérique de ces signaux (Chapitre 3).

Signal : Support de l’information transmise de sa source à sa destimation. En


fonction de la nature du support, on parle par exemple de :

– signal électrique (téléphonie),


– onde électromagnétique (télécommunication),
– onde acoustique (sonar),
– onde lumineuse (fibre optique),
– signal binaire (ordinateur).

On parle également de signal de mesure, de commande, de signaux vidéo, audio,

8
etc...en fonction de la nature de l’information transmise.

Théorie du signal : C’est la description mathématique des signaux quelque


soit leur nature et quelque soit le support physique. L’objectif est d’établir une
représentation d’un signal en fonction du temps ou de l’espace contenant une
information à stocker, à transformer, à transmettre ou à recevoir. La théorie du
signal ne préjuge pas de la nature physique du signal.

Bruit : Toute perturbation superposée à un signal et génant la perception de


ce signal.

Traitement du signal : A l’aide d’une formulation mathématique adéquate,


le traitement du signal à pour principales fonctions de (voir Fig. 1.1) :

– Filtrer : éliminer d’un signal des composantes indésirables,

– Détecter : Extraire une composante utile d’un signal et/ou du bruit de


fond qui lui est superposé,

– Analyser : Isoler les composantes et les caractéristiques essentielles d’un


signal pour mieux en comprendre la nature,

– Mesurer : Estimer la valeur d’une grandeur caractéristique associée au


signal.

– Régénérer Redonner à un signal qui a été distordu sa forme initiale.

– Identifier : Classer un signal observé.

– Synthétiser : Créer un signal de forme appropriée.

– Moduler : Modifier les caractéristiques d’un signal pour l’adapter à une


voie de transmission ou un support d’enregistrement.

– Codage : Traduire le signal en langage numérique, réduire les redondances


d’informations et lutter contre l’influence du bruit.

Domaine d’application

– Télécommunications,
– Téléphonie,
– Radar,
– Sonar,
– Traitement d’images,
– Astronomie,
– Géophysique,
– Automatique,
– ....

9
Dans les télécommunications : que ce soit dans le domaine de la téléphonie ou
dans le transfert de données numériques terrestre ou via satellite, la compres-
sion des données est primordiale pour exploiter au mieux la bande passante
disponible, et minimiser les pertes. La suppression d’échos est un autre domaine
d’application.

En audio : on cherche à améliorer les techniques d’enregistrement et de com-


pression pour obtenir la plus grande qualité sonore possible. Les techniques de
correction d’écho permettent de réduire les effets de réflexions acoustiques dans
la pièce. Le traitement du son s’est largement amélioré grâce aux ordinateurs.
La synthèse sonore permet en outre de créer des sons artificiels ou de recréer les
sons d’instruments naturels. Elle a été à l’origine de nombreux bouleversements
en musique.

L’analyse des échos permet d’obtenir des informations sur le milieu sur lequel
les ondes se sont réfléchies. Cette technique est exploitée dans le domaine de
l’imagerie radar ou sonar. En géophysique, en analysant les réflexions d’ondes
acoustiques, on peut déterminer l’épaisseur et la nature des strates du sous-sol.
Cette technique est utilisée dans le domaine de la prospection minière et dans
la prédiction des tremblements de terre.

En imagerie : on trouve des applications dans le domaine médical (reconstruc-


tion tomographique, imagerie par résonance magnétique - IRM), dans le spatial
(traitement de photos satellites ou d’images radar). Ce domaine inclut aussi les
techniques de reconnaissance de formes et de compressions.

Le traitement de séquences vidéo concerne la compression, la restauration,


la réalisation d’effets spéciaux, l’extraction de descripteurs (reconnaissance de
formes et textures, suivi de mouvements, caractérisation etc.) afin de produire
des annotations automatiques dans une perspective de bases de données (re-
cherche par le contenu).

Information
Système utile +
Capteur Canal de Récepteur Traitement
physique transmission bruit
Bruit Bruit Bruit résiduel

Figure 1.1 – Synoptique d’une chaı̂ne classique de traitements d’un signal.

10
1.2 Représentation des Signaux Déterministes
Les signaux déterministes renferment une information dont l’évolution en
fonction du temps peut être parfaitement prédite par un modèle mathématique
(au contraire des signaux aléatoires/stochastiques).
Nous présentons dans cette section quelques fonctions mathématiques ainsi que
leurs propriétés, supports de signaux élémentaires et utilisées tout au long du
cours de traitement du signal.

1.2.1 Fonction signe



 −1 si t<0
sgn(t) = a si t=0 (1.1)

1 si t>0
avec a quelconque (par convention a = 0). On a alors :
t
sgn(t) = ∀ t 6= 0 . (1.2)
|t|

sgn(t)

0
t
−1

1.2.2 Fonction échelon (unité)



 1 si t>0
Γ(t) = 0 si t<0 (1.3)

a si t=0
avec a quelconque (par convention a = 1/2). On a alors :
1 1
Γ(t) = + sgn(t) ∀ t . (1.4)
2 2

Γ( t)

0
t

11
1.2.3 Fonction rectangle

 0 si |t| > 1/2
rect(t) = 1 si |t| < 1/2 (1.5)

a si |t| = 1/2
avec a quelconque (par convention a = 1/2). On a alors :

rect(t) = Γ(t + 1/2) − Γ(t − 1/2) (1.6)

rect(t)
1

0
−1/2 1/2 t

Propriété : la fonction rect(t) est normalisée, car la surface (sous la courbe)


est unitaire.

Question 1 : Tracer la fonction (porte) A rect( t−τ


T ) .
R +∞
Question 2 : Calculer −∞
rect(t) dt .

1.2.4 Fonction triangle


½
1 − |t| si |t| ≤ 1
tri(t) = (1.7)
0 si |t| > 1

tri(t)
1

0
−1 1 t

R +∞
La fonction triangle est elle aussi normalisée : −∞
tri(t) dt = 1 .

12
1.2.5 Fonction sinus cardinal

sin(π t)
sinc(t) = (1.8)
πt
1 1

0.8
0.8
0.6

0.6
0.4

0.2
0.4

0
0.2
−0.2

−0.4 0
−4 −2 0 2 4 −4 −2 0 2 4

(a) (b)

Figure 1.2 – (a) fonction sinc(t). (b) fonction sinc(t)2 .


R +∞
La fonction sinus cardinal est elle aussi normalisée : −∞
sinc(t) dt = 1 .
R +∞
D’autre part, on a : −∞ sinc2 (t) dt = 1.

1.2.6 Impulsion unité (distribution de Dirac)


Mathématiquement, c’est une fonction (distribution) définie par
Z +∞
f (t) δ(t) dt = f (0) , (1.9)
−∞

quelle que soit la fonction f (t).

δ( t )

0
t

Remarque : sur la figure ci-dessus, 1 correspond à l’aire sous la courbe, pas à la


hauteur qui est ∞. La fonction de Dirac est normalisée :
Z +∞
δ(t) dt = 1 . (1.10)
−∞
D’autre part, on a :
Z t ½
0 si t<0
δ(τ ) dτ = = Γ(t) (1.11)
−∞ 1 si t>0

On dit que Γ(t) est la primitive de δ(t) ou bien que δ(t) est la dérivée de Γ(t)
(au sens des distributions). L’impulsion de Dirac est un signal non réalisable.
Physiquement, on a coutume de modéliser une impulsion de Dirac par un si-
gnal rectangle (porte) dont la largeur tend vers 0 et l’amplitude tend vers l’infini.

13
L’impulsion de Dirac est égale à la limite de nombreuses familles de fonctions,
ainsi :
limT →+∞ T1 rect( Tt )

1
δ(t) = limT →+∞ T tri( Tt ) (1.12)

1
limT →+∞ T sinc( Tt )

Proprétés de la fonction de Dirac

1. δ(t) = 0 si t 6= 0,

2. f (t) δ(t) = f (0) δ(t) et f (t) δ(t − T ) = f (T ) δ(t − T ),

1
3. δ(k t) = |k| δ(t) .

Réponse impulsionnelle

La réponse impulsionnelle est simplement définie comme étant la réponse d’un


système physique dont l’entrée est une impulsion de Dirac. Elle permet de ca-
ractériser les systèmes linéaires dans le domaine temporel.

1.2.7 Fonction ”peigne de Dirac” (fonction d’échantillonnage)


La fonction δT (t) est définie par :
k=+∞
X
δT (t) = δ(t − kT ). (1.13)
k=−∞

Cette fonction est appelée ”fonction d’échantillonnage” car selon la propriété 2


(voir ci-dessus) on a, pour tout signal f (t) :
k=+∞
X
f (t) δT (t) = f (kT ) δ(t − kT ). (1.14)
k=−∞

δT ( t ) f(t) δ ( t )
T
f(3T)
1 f(−3T) f(−2T) f(−T)
1 f(2T)
f(T)
0 t 0 t
−3T −2T −T T 2T 3T −3T −2T −T T 2T 3T

(a) (b)

Cela revient à ne retenir que les valeurs de la fonction continue f (t) aux instants
d’échantillonnage, à savoir T , 2T , 3T ...

14
1.3 Energie et Puissance
1.3.1 Energie d’un signal
Soit x(t) un signal quelconque (fonction complexe),

– L’énergie sur [t1 , t2 ] est définie par :


Z t2
Wx (t1 , t2 ) = |x(t)|2 dt . (1.15)
t1

où la notation |x(t)|2 signifie x(t) x? (t) .

1.3.2 Puissance moyenne d’un signal


Soit x(t) un signal quelconque (fonction complexe),

– La puissance moyenne sur [t1 , t2 ] est définie par :


Z t2
1
Px (t1 , t2 ) = |x(t)|2 dt . (1.16)
t2 − t1 t1

Cas particulier des signaux périodiques de période T0


k=+∞
X
x(t) = xp (t − kT0 ) , (1.17)
k=−∞

où xp (t) est le signal sur une période T0 , alors la puissance moyenne sur une
période est égale à :
Z +T0 /2 Z +∞
1 1
Px = |x(t)|2 dt = |xp (t)|2 dt . (1.18)
T0 −T0 /2 T0 −∞

1.4 Classification des signaux


1.4.1 Signaux à énergie finie
Un signal x(t) est dit à énergie finie s’il est de carré sommable, c’est-à-dire si
Z +∞
Wx = |x(t)|2 dt < ∞. (1.19)
−∞

Ce qui implique que Px = 0 .

15
1.4.2 Signaux à puissance moyenne finie
Un signal x(t) est dit à puissance moyenne finie si
Z +T /2
1
Px = limT →+∞ |x(t)|2 dt < ∞. (1.20)
T −T /2

Cas des signaux périodiques de période T :


Z t0 +T /2
1
Px = |x(t)|2 dt < ∞ . (1.21)
T t0 −T /2

Si Px 6= 0, alors Wx = ∞ (signal à énergie totale infinie).

Exemple : Calculer la puissance moyenne du signal réel et sinusoı̈dal représenté


par la fonction x(t) = A cos(ωt + φ).

1.4.3 Causalité
Un signal x(t) est dit causal ssi x(t) = 0 , ∀ t < 0 .
Un signal x(t) est dit anti-causal ssi x(t) = 0 , ∀ t > 0 .

Remarque : Dans le cas d’un filtre que l’on veut réaliser en temps réel, il va de
soit que sa réponse ne peut être que postérieure à l’excitation. C’est pourquoi,
on imposera que sa réponse impulsionnelle soit causale.

1.4.4 Parité
Un signal x(t) est pair si x(t) = x(−t) ou impair si x(t) = −x(−t).

Tout signal réel x(t) est la somme d’un signal pair xp (t) et d’un signal im-
pair xi (t) : x(t) = xp (t) + xi (t) où xp (t) = x(t)+x(−t)
2 et xi (t) = x(t)−x(−t)
2 .

Exemples :
- Quelle est la parité des signaux x(t) = e−αt sin(ωt + φ) (sinusoı̈de atténuée)
2
(gauche) et x(t) = e−αt sin(ωt + φ) (droite) représentés ci-dessous pour les
valeurs α = 0.25, φ = π/6 et ω = 3 rad/s :

15 1

10
0.5

5
0
0

−0.5
−5

−10 −1
−10 −5 0 5 10 −10 −5 0 5 10

16
1.5 Produit de convolution
On appelle produit de convolution entre deux fonctions x(t) et h(t), l’opération
? (notée également ⊗) définie par :
Z +∞
(x ? h)(t) = x(τ ) h(t − τ ) dτ (1.22)
−∞

Si la réponse impulsionnelle d’un système linéaire (comme un filtre, par exemple)


est représentée par la fonction h(t), la sortie du signal y(t) s’obtient comme le
produit de convolution de l’entrée x(t) avec la réponse impulsionnelle h(t).

x(t) Système linéaire y(t)

h(t) : réponse impulsionnelle

y(t) = x(t) * h(t)

La convolution est l’effet que produit un instrument de mesure qui donne d’un
phénomène physique non pas une réponse nette, mais un peu floue. L’image
d’un point dans un instrument d’optique n’est jamais réellement un point mais
une tâche. Dans le domaine électronique, on retrouve le même phénomène : une
impulsion infiniment brève appliquée à l’entrée d’un amplificateur ne donne ja-
mais en sortie une impulsion brève, mais un signal de durée non nulle (d’autant
plus étroite que la bande-passante de l’appareil est plus élevée).

Le produit de convolution représente l’évolution de la valeur de l’aire contenue


sous le produit des deux fonctions en fonction du temps. Il exprime la quantité
de recouvrement de la fonction x(t) lorsqu’on la déplace sur la fonction h(t).

Figure 1.3 – Interprétation du produit de convolution entre f (t) et g(t).

17
Propriétés

– Le produit de convolution est une opération commutative et distributive


par rapport à l’addition.

– La fonction de Dirac est l’élément neutre du produit de convolution :

δ(t − τ ) ? f (t) = f (t − τ ) (1.23)


– Le produit de convolution de deux signaux représentés par leurs fonctions
temporelles correspond dans le domaine fréquentiel au produit de leurs
transformées de Fourier respectives (Théorème de Plancherel).

– Si x(t) et y(t) sont des signaux causaux, en écrivant les inégalités qu’ils
vérifient ½
x(τ ) = 0 ∀τ <0
y(t − τ ) = 0 ∀ τ > t
on obtient une expression simplifiée et très utile de la convolution :

Z t
(x ? y)(t) = x(τ ) y(t − τ ) dτ (1.24)
0

1.6 Transformations fréquentielles


1.6.1 Transformée de Fourier
La représentation temporelle peut être suffisante dans tous les cas où la
forme du signal et la nature du traitement restent simples. Dans la réalité, les
signaux n’ont pas toujours une forme simple soit en raison de la nature de
l’information qu’ils portent, soit en raison du traitement qu’ils doivent subir.
L’unique représentation du signal en fonction du temps s’avère insuffisante :
elle ne permet plus d’interpréter correctement l’information. Dans de tels cas,
la représentation du signal en fonction de la fréquence est très utile.
La transformée de Fourier est un outil mathématique qui permet d’établir une
dualité entre deux représentations différentes d’un signal mais complémentaires
au niveau de l’interprétation des résultats. Elle effectue le passage du domaine
temporel au domaine spectral (fréquentiel). Son résultat est appelé spectre d’un
signal.
La transformée de Fourier du signal x(t) , notée F[x(t)] = X(ω), est définie
par :
Z +∞
F[x(t)] = X(ω) = x(t) e−2jπf t dt , (ω = 2πf ) (1.25)
−∞

R +∞
Elle existe si x(t) est de classe L1 ( −∞ |x(t)|dt < +∞) et si le signal présente
un nombre fini de discontinuités.

18
La transformée de Fourier inverse de X(ω) est le signal x(t) = F −1 [X(ω)] défini
par : Z +∞
−1 1
x(t) = F [X(ω)] = X(ω) ejωt dω (1.26)
2π −∞
X(ω) est une fonction qui est indépendante du temps. C’est une fonction com-
plexe que l’on peut écrire sous la forme module et phase : X(ω) = |X(ω)| exp(φ(ω))
ou sous la forme de partie réelle et de partie imaginaire :
X(ω) = Re(X(ω)) + j Im(X(ω)) avec
Z +∞ Z +∞
Re(X(ω)) = x(t) cos(ωt) dt et Im(X(ω)) = x(t) sin(ωt) dt .
−∞ −∞
(1.27)
On énonce ci-dessous quelques propriétés importantes concernant la transformée
de Fourier :
1. La transformée de Fourier est inversible si x(t) est un signal à énergie finie.

2. Linéarité : F[a x(t) + b y(t)] = a X(ω) + b Y (ω)

1
3. Changement d’échelle : F[x(at)] = |a| X( ωa )

4. Translation en temps : F[x(t − a)] = X(ω) e−jωa (retard, si a > 0),

5. Translation en fréquence : F[x(t) ejω0 t ] = X(ω − ω0 ) ,


n
6. Dérivation : F[ d dtx(t)
n ] = (jω)
n
X(ω),

7. Intégration : X(ω) = 1
jω F[ dx(t)
dt ] + 2π x̄ δ(ω) où x̄ est la valeur moyenne
1
R T0 /2
de x(t) (x̄ = limT0 →+∞ T0 −T0 /2
x(t) dt),

8. Conjugaison : F[x? (t)] = X ? (−ω),

9. Dualité : F[x(t)] = Y (ω) → F[y(t)] = 2πX(−ω),

10. Parité : x(t) = xp (t) + xi (t) → X(ω) = F[xp (t)] + F[xi (t)],

11. Si x(t) est réel, alors Re(X(ω)) = F[xp (t)] est une fonction réelle et
j Im(X(ω)) = F[xi (t)] est une fonction imaginaire.

12. Si x(t) est réel pair, alors X(ω) est réel pair.
Si x(t) est réel impair, alors X(ω) est imaginaire impair.

13. F[δ(t)] = 1,

14. F[1] = 2π δ(ω),

19
15. F[δ(t − τ )] = e−jωτ ,

16. F[ejω0 t ] = 2π δ(ω − ω0 ),

17. F[cos(ω0 t)] = π δ(ω − ω0 ) + π δ(ω + ω0 ),

Ainsi, la translation temporelle (propriété 4) ne change pas le module de la


transformée de Fourier, mais introduit un déphasage sur le spectre complexe.
On appelle également cette propriété ”propriété de modulation”.

1.6.2 Théorème de Plancherel


Ce théorème met en exergue la dualité entre temps et fréquence. Il s’énonce
ainsi :

La transformée de Fourier d’un produit de convolution de leurs fonctions tem-


porelles est le produit des transformées de Fourier :
(
TF
x(t) ? y(t) −−→ X(f ) Y (f )
TF (1.28)
1
x(t) y(t) −−→ 2π X(f ) ? Y (f )

1.6.3 Transformée de Laplace


A l’origine de la transformation de Laplace, on trouve l’idée que, si une fonction
x(t) n’est pas sommable en valeur absolue, il est néanmoins intéressant de définir
la transformée de Fourier du produit x(t) e−αt , du moins si il existe un nombre
réel α tel que le produit ci-dessus soit sommable en valeur absolue. Considérons
donc une fonction x(t) et un intervalle Σ, tels que pour le réel σ ∈ Σ, l’intégrale
Z +∞
|x(t) e−αt | dt (1.29)
−∞

converge. On définit alors la transformée de Laplace bilatérale X(s) de x(t) :


Z +∞
L[x(t)] = X(s) = x(t) e−st dt (1.30)
−∞

où s est une variable complexe s = σ + jω.

20
1.7 Série de Fourier
Un signal x(t) peut se décomposer en une somme infinie de fonctions sinusoı̈dales
dépendant du temps qui peut être exprimée par une combinaison linéaire de
fonctions exponentielles complexes sur l’intervalle temporel [0, T0 = 1/f0 ] :
+∞
X
x(t) = cn ej2πnf0 t , ∀ t ∈ [0, T0 ] , (1.31)
−∞
n étant une valeur entière. Les coefficients de la série de Fourier, cn , sont
indépendants du temps et s’expriment de la manière suivante :
Z T0
1
cn = x(t) e−j2πnf0 t dt , (1.32)
T0 0
Si x(t) est périodique de période T0 = f10 , f0 représente la fréquence du fonda-
mental et nf0 (n > 1) représente la fréquence des différents harmoniques.

Dans un contexte d’étude réduit aux signaux à énergie finie, on introduit ici une
bijection entre deux représentations de ces signaux : l’une temporelle et l’autre
fréquentielle. Si ces signaux sont périodiques et donc à énergie infinie sur R, il
n’existe plus de transformée de Fourier au sens des fonctions, mais ces signaux,
pourvu qu’ils soient continus, admettent une décomposition en série de Fourier,
ce qui nous permet de conserver une représentation fréquentielle aux moyens
des coefficients descriptifs de la série.
L’ensemble des valeurs cn (en général complexes) constitue le spectre du signal ;
qui est alors discret. Ces valeurs désignent l’amplitude et la phase des harmo-
niques (multiples du fondamental). L’exemple type est la fonction sinus qui
n’a pas de transformée de Fourier au sens des fonctions, mais qui se décompose
aisément (et pour cause) en série (trigonométrique) de Fourier pour obtenir deux
coefficients (b1 et b−1 ) qui correspondent à deux impulsions Dirac fréquentielles.

Remarques :

1
R T0
– c0 = T0 0
x(t) dt = valeur moyenne de x(t) sur [0, T0 ] .

– Si x(t) est un signal réel, alors c−n = c?n .

– Si x(t) est périodique de période T0 , alors x(t) = x(t + T0 ) et


+∞
X
x(t) = cn ej2πnf0 t , ∀ t . (1.33)
−∞

– On peut décomposer x(t) sous la forme équivalente à (1.31) :


+∞
X
x(t) = a0 + (an cos(2πnf0 t) + bn sin(2πnf0 t)) (1.34)
1
avec

21
2
R T0 2
R T0 /2
– an = T0 0
x(t) cos(nω0 t) dt = T0 −T0 /2
x(t) cos(nω0 t) dt
2
R T0 2
R T0 /2
– bn = T0 0
x(t) sin(nω0 t) dt = T0 −T0 /2
x(t) sin(nω0 t) dt avec
ω0 = 2πf0 .
an −jbn an +jbn
et cn = 2 pour n > 0, cn = 2 pour n < 0 et c0 = a0 .

– Si le signal x(t) est pair, alors les coefficients bn sont tous nuls. Si le signal
x(t) est impair, alors les coefficients an sont tous nuls.

– Interprétation : la forme complexe de la décomposition en série de Fourier


est la formulation la plus usuelle. Elle fait apparaı̂tre des harmoniques
de fréquences positives et négatives qui servent mathématiquement à re-
constituer l’ensemble du signal. Néanmoins, cette décomposition n’a pas
de réalité physique en ce qui concerne la partie associée aux fréquences
négatives. Elle est utilisée en traitement du signal car elle permet bien
souvent une simplification des calculs.

– On peut montrer que si x(t) de période T0 est une fonction continue et


que sa dérivée première temporelle x0 (t) est continue par morceaux, alors
la série de Fourier de x(t) converge uniformémement vers x(t).
– La notion de spectre d’un signal périodique est bien connue des musiciens :
deux instruments jouant la même note fournissent deux signaux de même
fréquence ; ils sont identifiables parce que les amplitudes des harmoniques
sont différentes. C’est la répartition des amplitudes sur les divers harmo-
niques qui est caractéristique d’un instrument : c’est son timbre.

22
1.8 Corrélation et densités spectrales
1.8.1 Signaux à énergie finie
La corrélation est une mesure énergétique de la similitude de forme et de posi-
tion entre deux signaux décalés. Pour des signaux réels à énergie finie, on définit
l’autocorrélation et l’intercorrélation de la manière suivante :

Autocorrélation : corrélation entre le signal x(t) et lui-même :


Z +∞
γxx (τ ) = x(t) x? (t − τ ) dt . (1.35)
−∞

Intercorrélation : corrélation entre le signal x(t) et le signal y(t) :


Z +∞
γxy (τ ) = x(t) y ? (t − τ ) dt . (1.36)
−∞

1.8.2 Signaux à puissance moyenne finie


Pour des signaux x(t) et y(t) à puissance moyenne finie, on définit l’auto-
corrélation par la relation :
Z +T /2
1
γxx (τ ) = lim x(t) x? (t − τ ) dt . (1.37)
T →+∞ T −T /2

et de même, on définit la fonction d’intercorrélation par :


Z +T /2
1
γxy (τ ) = lim x(t) y ? (t − τ ) dt . (1.38)
T →+∞ T −T /2

Propriétés :

– γxx (τ ) et γxy (τ ) sont homogènes à une énergie (énergie croisée entre un


signal et un autre retardé) ou à une puissance (deuxième définition).

– γxy (τ ) = 0 , signifie que les signaux sont totalement décorrelés (signaux


orthogonaux),

– |γxy (τ )|2 ≤ γxx (τ ) γyy (τ ) (inégalité de Schwartz),

– |γxx (τ )| ≤ γxx (0) , ∀ τ : la fonction d’autocorrélation admet une valeur


maximale en τ = 0. Comme la fonction d’autocorrélation sert à mesurer le
degré de ressemblance entre un signal et sa version décalée dans le temps,
intuitivement, on conçoit que la ressemblance est maximale lorsqu’on com-
pare le signal avec lui-même, i.e., lorsque l’on compare le signal avec sa
version non décalée dans le temps.

23
1.8.3 Densités spectrales
En un mot, il s’agit des transformées de Fourier des fonctions de corrélation que
l’on vient d’aborder (appelés aussi relations de Wiener-Khintchine). On définit
alors :

Densité interspectrale de puissance :

D.S.P.{x(t)} = F[γxx (τ )] = Γxx (f ) . (1.39)

Densité spectrale de puissance :

D.S.P.{x(t), y(t)} = F[γxy (τ )] = Γxy (f ) . (1.40)

1.8.4 Théorème de Parseval


L’identité de Parseval traduit la conservation de l’énergie lors du passage à la
transformée de Fourier. On a donc :

Z +∞ Z +∞
E= |x(t)|2 dt = |X(f )|2 df (1.41)
−∞ −∞
| {z } | {z }
Domaine temporel Domaine fréquentiel

Pour les signaux périodiques qui sont à énergie infinie, on calcule dans ce cas la
puissance sur une période T0 . En utilisant le développement en série de Fourier
qui existe en vertu de la périodicité, on trouve :
Z T0 +∞
X
1
P = x(t) x? (t) dt = cn c?n . (1.42)
T0 0 −∞

On en déduit le théorème de Parseval pour des signaux périodiques et qui traduit


cette fois-ci la conservation de la puissance :
Z +∞ +∞
X
P = Γ(f ) df = |cn |2 (1.43)
−∞ −∞

24
1.9 Filtrage analogique
1.9.1 Introduction
Nous allons aborder dans ce chapitre le filtrage des systèmes linéaires conti-
nus et invariants dans le temps (stationnaires). Le filtrage consiste à atténuer
certains signaux et à en laisser ”passer” d’autres. Cette sélection s’opère bien
évidemment en fonction des caractéristiques du signal recherchées en sortie.
Un filtre modifie (ou filtre) certaines parties d’un signal d’entrée dans le do-
maine temporel et dans le domaine fréquentiel. D’après la théorie de Fourier,
tout signal réel peut être considéré comme composé d’une somme de signaux
sinusoı̈daux (en nombre infini si nécessaire) à des fréquences différentes ; le rôle
du filtrage est alors de modifier la phase et l’amplitude de ces composantes. Par
exemple, agir sur la représentation fréquentielle pour la modifier : le filtre ajoute
ou enlève des graves ou des aigus en traitement de la parole, il corrige la réponse
en fréquence d’un appareil (microphone, téléphone,...).

Un moyen de caractériser un filtre est sa réponse impulsionnelle h(t), c’est-à-


dire le signal en sortie du filtre lorsque le signal d’entrée est une impulsion
de Dirac, c’est-à-dire lorsque toutes les fréquences sont présentes à son entrée
(F[δ(t)] = 1). Un autre moyen de caractériser un filtre est de fournir sa fonction
de transfert H(ω), qui peut être obtenue en divisant le spectre fréquentiel du
signal de sortie avec celui du signal de l’entrée du filtre

y(t) = h(t) ? x(t) → Y (ω) = H(ω) X(ω) (1.44)

Tout filtre linéaire est entièrement décrit par sa réponse fréquentielle en ampli-
tude |H(ω)| (le gain) et sa réponse de phase arg H(ω)

|Y (ω)| = |H(ω)| |X(ω)| et arg Y (ω) = arg H(ω) + arg X(ω) (1.45)

liée à sa réponse impulsionnelle. Du point de vue mathématique, un filtre continu


à réponse impulsionnelle infinie peut être décrit en terme d’équations différen-
tielles linéaires. Il est également possible d’exprimer la fonction de transfert du
filtre à l’aide de la transformée de Laplace de leur réponse impulsionnelle ; cette
méthode permet d’analyser simplement le filtre en considérant les pôles et les
zéros de la transformée de Laplace.

Exemple
Soit x(t) = ejω0 t un signal à l’entrée d’un filtre linéaire continu caractérisé par sa
réponse fréquentielle {|H(ω)| , arg H(ω)}. Quelle est l’expression de la réponse
temporelle y(t) en sortie du filtre ?

Rep : y(t) = |H(ω0 )| e(jω0 t + j arg H(ω0 ))


.

25
1.9.2 Filtres stables physiquement réalisables
Un filtre est physiquement réalisable si sa réponse en fréquence H(ω) correspond
à sa transformée de Laplace pour un signal d’entrée sinusoı̈dal :

H(ω) = L[h(t)](s=jω) . (1.46)

Il existe plusieurs types de filtres linéaires réalisables :

– Les filtres passe-bas laissent passer les basses fréquences et coupent les
hautes,
– Les filtres passe-haut laissent passeer les hautes fréquences et coupent les
basses,
– Les filtres passe-bande ne laissent passer qu’une bande limitée de fréquences,
– Les filtres coupe-bande, à l’inverse, laissent passer toutes les fréquences,
sauf une bande spécifique.

Certains filtres ne sont pas conçus pour arrêter une fréquence, mais pour modi-
fier légèrement le gain à différentes fréquences, comme les égaliseurs. Différentes
méthodes de conception de filtres analogiques ont été mises au point, chacune
optimisant un point spécifique, comme par exemple des filtres exhibant des ca-
ractéristiques particulières :

– Les filtres de Butterworth,


– Les filtres de Tchebyshev,
– Les filtres elliptiques (filtres de Cauer).

La conception des filtres linéaires fait appel à un gabarit, qui rassemble les ca-
ractéristiques du gain fréquentiel désiré.

1.9.3 Fréquence de coupure et bande passante


La définition générale de la fréquence de coupure d’un filtre de fonction de trans-
fert H(f ) (sortie sur l’entrée) est la fréquence fc telle que :

|H(fc )| 1
=√ . (1.47)
max {|H(f )|} 2

Dans le cas d’un filtre passe-bas, la fonction de transfert est maximale à l’origine,
donc :
1
|H(fc )| = √ |H(0)| ⇔ 20 log10 |H(fc )| − 20 log10 |H(0)| = −3dB . (1.48)
2
La bande passante (BP) d’un filtre analogique est l’intervalle [finf , fsup ] de
fréquences dans lequel le gain 20 log10 |H(ω)| (ici exprimé en décibels) reste
supérieur ou égal à une valeur de référence (par exemple −3 dB, correspondant

26

à une atténuation du gain de 2). Ainsi, pour les filtres les plus courants, on a :

– Le filtre passe-bas : BP = [0, fsup ],


– Le filtre passe-haut : BP = [fsup , +∞],
– Le filtre passe-bande : BP = [finf , fsup ],
– Le filtre coupe-bande : BP = [0, finf ] ∪ [fsup , +∞] (appelé aussi filtre
réjecteur de bande).

1.9.4 Transformations de fréquences


A partir de la connaissance de la fonction de transfert d’un filtre passe-bas
normalisé (de fréquence de coupure unité à -3 dB), on peut construire par trans-
formation du plan complexe et à partir de ce filtre de nouveaux filtres.

– Le filtre passe-haut de pulsation de coupure ωc sera donné par la trans-


formation : ³ω ´
c
H(ω) −→ H ,
ω
– Le filtre passe-bande de pulsation de coupures basse ωl et haute ωu sera
obtenu par : µ 2 ¶
ω + ωl ωu
H(ω) −→ H ,
ω (ωu − ωl )
– Le filtre coupe-bande de pulsation de coupures basse ωl et haute ωu sera
obtenu par : µ ¶
ω (ωu − ωl )
H(ω) −→ H ,
ω 2 + ωl ωu

1.9.5 Synthèse des filtres analogiques


Les spécifications qui définissent un gabarit sont les caractéristiques du filtre.
On doit préciser :

– le gain du filtre dans la bande passante (≈ 0 dB),


– l’atténuation du filtre en bande occupée (typiquement 30 dB → 90 dB),
– la fréquence de coupure (une dans le cas d’un passe-bas ou d’un passe-haut
et deux dans le cas d’un passe-bande ou d’un coupe-bande),
– la largeur de bande de transition souhaitée qui généralement doit être la
plus petite possible,
– les éventuelles oscillations en bande passante et/ou atténuée (typiquement
1 dB → 0.01 dB).

27
Les filtres idéaux
Filtre passe-bas idéal
½
K e−jωT si |ω| < ωc = 2 πfc
H(ω) = (1.49)
0 ailleurs

|H( ω )|
K

−ω c ωc ω

Figure 1.4 – Réponse fréquentielle (gain) du filtre passe-bas.

Filtre passe-haut idéal


½
K e−jωT si |ω| > ωc = 2 πfc
H(ω) = (1.50)
0 ailleurs

|H( ω )|
K

−ω c ωc ω

Figure 1.5 – Réponse fréquentielle (gain) du filtre passe-haut.

28
Filtre passe-bande idéal
½
K e−jωT si ωl < |ω| < ωu
H(ω) = (1.51)
0 ailleurs

|H( ω )|
K

−ω u −ω l ωl ωu ω

Figure 1.6 – Réponse fréquentielle (gain) du filtre passe-bande.

Filtre coupe-bande idéal


½
K e−jωT si |ω| < ωl ou |ω| > ωu
H(ω) = (1.52)
0 ailleurs

|H( ω )|
K

−ω u −ω l ωl ωu ω

Figure 1.7 – Réponse fréquentielle (gain) du filtre coupe-bande.

Les filtres idéaux présentent un déphasage linéaire et ne sont pas physiquement


réalisables, car les réponses fréquentielles idéales (ci-dessus) correspondent à une
réponse temporelle non-causale. Par exemple, en considérant le filtre passe-bas
où H(ω) = K e−jωT rect( 2ω ω
c
), on a : h(t) = K ωπc sinc( ωπc (t − T )) représentée
ci-dessous :

h(t)

K
ωc

T t

T− π
ωc

Figure 1.8 – Réponse temporelle du filtre passe-bas idéal : une partie du signal
n’est pas nulle pour t < 0.

29
Il s’ensuit que les filtres qui vont pouvoir être réellement synthétisés n’ont pas
de réponse fréquentielle correspondant à la fonction porte, mais pourront s’en
rapprocher. Des caractéristiques qui exhibent ces différences plus ou moins fortes
vis-à-vis de la fonction porte sont principalement les ondulations dans la bande
passante et dans la bande atténuée ainsi que la largeur de la transition. Les filtres
que l’on réalise sur les signaux continus (c’est-à-dire non échantillonnés) sont
composés de résistances, de capacités, de self-inductances et d’amplificateurs
opérationnels. De tels filtres réalisent entre les représentations temporelles e(t)
(l’entrée) et s(t) (la sortie du filtre) une relation intégro-différentielle linéaire à
coefficients constants. Par transformation de Fourier, cette relation conduit à
un gain complexe qui est une fraction rationnelle, quotient de deux polynômes
en ω :
N (ω)
H(ω) = . (1.53)
D(ω)
Il ne faut pas perdre de vue que la classe des filtres réalisables sur des signaux
continus sont ceux qui sont définis par l’équation fractionnelle (1.53).N’importe
quelle fonction de transfert de ce type peut être réalisée par une association de
quatre fonctions de transfert élémentaires : les filtres passe-bas du premier et
du second ordre, les filtres passe-haut du premier et du second ordre.

|H( ω )|
ondulations (ripple) dans la bande passante
K
K
2

ondulations dans ondulations dans


la bande atténuée la bande atténuée
AK
ω
ωl bande passante ωu
bande atténuée bande atténuée

bande de transition bande de transition

Figure 1.9 – Définitions et exemple de réponse fréquentielle d’un filtre réel.

30
Les filtres réalisables classiques
Plusieurs paramètres vont caractériser les gabarits des filtres réels classiques. Il
s’agit de la sélectivité k qui représente un rapport de fréquences (ou de pulsa-
tions) caractérisant la bande passante, la pulsation centrale qui est la moyenne
géométrique ω0 des pulsations de coupures ou la largeur de bande relative B0 .

Filtre passe-bas réel


1 ωl
H(ω) = (ordre 1) ; Sélectivité : k = (0 < k < 1) (1.54)
1 + jωT ωu

G(dB)= 20 log |H( ω )|


10

bande atténuée
ωl ωu ω

Figure 1.10 – Réponse fréquentielle (gain en dB) d’un filtre passe-bas réel
caractérisé par la sélectivité k.

Filtre passe-haut réel


jωT ωl
H(ω) = (ordre 1) ; Sélectivité : k = (0 < k < 1) (1.55)
1 + jωT ωu

G(dB)= 20 log |H( ω )|


10

bande atténuée
ωl ωu ω

Figure 1.11 – Réponse fréquentielle (gain en dB) d’un filtre passe-haut réel
caractérisé par la sélectivité k.

31
Filtre passe-bande réel
ωl+ − ωu−
Sélectivité : k= (0 < k < 1) (1.56)
ωu+ − ωl−

Pulsation centrale : ω0 = ωl+ ωu− (1.57)
ωl+ − ωu−
Largeur de bande relative : B0 = (1.58)
ω0

G(dB)= 20 log |H( ω )|


10

bande atténuée
ω ω ω ω u+ ω
l− u− l+

Figure 1.12 – Réponse fréquentielle (gain en dB) d’un filtre passe-bande réel
caractérisé par k, ω0 et B0 .

Filtre coupe-bande réel


ωl+ − ωu−
Sélectivité : k= (0 < k < 1) (1.59)
ωu+ − ωl−

Pulsation centrale : ω0 = ωl− ωu+ (1.60)
ωu+ − ωl−
Largeur de bande relative : B0 = (1.61)
ω0

G(dB)= 20 log |H( ω )|


10

ω ω bande atténuée ω ω u+ ω
l− u− l+

Figure 1.13 – Réponse fréquentielle (gain en dB) d’un filtre coupe-bande réel
caractérisé par k, ω0 et B0 .

32
Méthode
D’une manière générale, la synthèse d’un filtre analogique requiert la connais-
sance des caractéristiques fréquentielles que l’on vient de voir dans la section
précédente ou la représentation graphique du gain de sa fonction de transfert
par le gabarit.

De plus, comme tout filtre linéaire continu vérifie l’équation (1.53), la combi-
naison de filtres élémentaires peut permettre la réalisation de filtres en cascade,
donc de filtres d’ordres supérieurs. La synthèse de tels filtres ne peut pas se
faire aisément si on considère l’ensemble des filtres élémentaires un à un. D’une
manière générale, on préfère décomposer l’équation (1.53) en deux catégories :

– les filtres polynômiaux, dont le gain de la fonction de transfert est de la


forme :
K0
|H(ω)|2 =
p(ω)
où p(ω) est un polynôme.

– les filtres elliptiques.

Figure 1.14 – Comparaison des principaux filtres analogiques.

33
Filtres polynômiaux
Filtres de Butterworth La famille des filtres de Butterworth présente les
caractéristiques communes suivantes :

– Pas d’ondulation, ni dans la bande passante, ni dans la bande atténuée,


– Atténuation la plus constante possible dans la bande passante (réponse la
plus ”plate”).

|H( ω)|
00000000
11111111
11111111
00000000
00000000
11111111
1 00000000
11111111
1
00000000
11111111
00000000
11111111
1+ ε 2 11111111
00000000

000000000
111111111
1 111111111
000000000
000000000
111111111
A
ω

Figure 1.15 – Gabarit d’un filtre de Butterworth.

Figure 1.16 – Filtres de Butterworth d’ordre 1 à 5.

La forme générale du gain (au carré) d’un filtre de Butterworth d’ordre n est la
suivante :
1
|H(ω)|2 = ; n>0 (1.62)
1 + (² ω/ωc )2n
En général, on considère ² = 1, ce qui conduit à 20 log10 (1 + ²2 )1/2 = 3 dB.

34
Pour qu’à la fréquence normalisée ωc = 1/k, on ait une atténuation du gain de
1/A, on peut montrer qu’il faut vérifier l’inégalité suivante :

ln η
n ≥ (1.63)
ln k

où η est la constante d’atténuation η = ²/ A2 − 1. Ceci permet d’obtenir une
méthode de détermination de l’ordre (minimum) du filtre.

Génériquement, la transformée de Laplace H(s) d’un filtre de Butterworth est


de la forme :
K0
H(s) = Qn , (1.64)
i=1 (s − pi )

c’est-à-dire constituée de n pôles pi situés (dans le plan complexe) sur un 1/2


arc de cercle de rayon ²−1/n , c’est-à-dire tels que :
−1
( 12 + 2i−1
pi = ² n ejπ 2n )

Q
et K0 = (−pi ) = 1/².

Figure 1.17 – Poles d’un filtre passe-bas de Butterworth d’ordre 4.

Ci-après sont représentés les gains en fréquence des filtres de Butterworth res-
pectivement d’ordre 8 et d’ordre 20 synthétisés avec Matlab, avec un taux d’on-
dulations de 3 dB dans la bande passante et de 50 dB dans la bande atténuée.
La courbe d’affaiblissement des filtres de Butterworth varie d’une façon mono-
tone, ce qui implique que l’écart entre les spécifications et la courbe de gain dans
la bande passante sera toujours minimal à la fréquence de coupure et maximal
à l’origine.

35
Order 8 Butterworth IIR Filter Order 20 Butterworth IIR Filter

0 0

−10 −10

−20 −20
Magnitude (dB)

Magnitude (dB)
−30 −30

−40 −40

−50 −50

−60 −60

−70 −70

0 200 400 600 800 1000 0 200 400 600 800 1000
Frequency (Hz) Frequency (Hz)

(a) (b)

Figure 1.18 – Filtres de Butterworth. (a) ordre 8. (b) ordre 20.

Filtres de Bessel Une fonction de transfert ayant une phase rigoureusement


linéaire aurait comme fonction de transfert A e−jωτ où τ est le retard infligé au
signal d’entrée. Mais ce n’est pas une fonction rationnelle, un tel filtre n’est donc
pas réalisable. Les filtres de Bessel sont des filtres dont la fonction de transfert
pour un degré donné est la meilleure approximation possible de l’exponentielle
précédente. En se limitant au troisième ordre dans le développement de Taylor
de l’exponentielle, on a l’approximation suivante de l’exponentielle
1
e−jω ≈ (1.65)
(jω)3 + 6 (jω)2 + 15 jω + 15
La fonction de transfert doit avoir un gain unité pour le continu (ω = 0), d’où
la fonction de transfert du filtre de Bessel du troisième ordre :
15
H(ω) = (1.66)
(jω)3 + 6 (jω)2 + 15 jω + 15
On voit que pour une fréquence élevée, le gain tend vers 15/(jω)3 est 15 fois
supérieur à celui du filtre de Butterworth de même degré. Les filtres de Bessel
ont une atténuation qui varie au-delà de la fréquence de coupure beaucoup plus
lentement que ceux de Butterworth. Pour cette raison, ils sont rarement utilisés
sauf lorsque la linéarité de la phase est essentielle.
La famille des filtres de Bessel présente les caractéristiques communes suivantes :

– Pas d’ondulation, ni dans la bande passante, ni dans la bande atténuée,


– Atténuation faible,
– Approxime le mieux possible un retard pur.

La transformée de Laplace H(s) d’un filtre de Bessel est de la forme :


K0
H(s) = ; n>0, (1.67)
Bn (s)
où Bn (s) est un polynôme de Bessel d’ordre n. C’est-à-dire, défini de manière

36
récurrente par :

Bn (s) = (2n − 1) Bn−1 (s) + s2 Bn−2 (s)


B0 (s) = 1, (1.68)
B1 (s) = s + 1 .
2n!
et K0 =
2n n!
Les filtres de Bessel (appelés aussi de Thomson) ne présentent que des pôles et
correspondent au cas d’un filtrage à déphasage linéaire. Comme les filtres de
Butterworth, les filtres de Bessel demandent des ordres importants pour vérifier
des spécifications sur l’affaiblissement, ce qui les rend difficiles à réaliser avec
des composants analogiques. La pulsation de coupure ωc varie avec l’ordre du
filtre, et on montre que :
1/n
lim ωc = K0 . (1.69)
n→∞

Figure 1.19 – Filtre de Bessel, de Butterworth et de Tchebycheff.

Figure 1.20 – Poles d’un filtre passe-bas de Bessel d’ordre 4.

37
Filtres de Tchebycheff (ou Chebyshev) Les filtres de Chebychev conduisent
à une diminution de l’ordre pour les mêmes spécifications que pour les filtres
que nous venons de voir. Il en résulte une réalisation plus aisée. Cette famille
de filtres est décomposée en deux sous-familles : les filtres de type I qui cor-
respondent à des ondulations uniquement dans la bande passsante et les filtres
de type II qui, à l’opposé, présentent des ondulations seulement dans la bande
atténuée.

Filtres de type I
La famille des filtres de Chebyshev de type I présente les caractéristiques com-
munes suivantes :

– Ondulations dans la bande passante mais pas dans la bande atténuée,

– Fitres optimaux au sens où il n’existe pas d’autres filtres polynômiaux du


même ordre avec des performances supérieures ou égales dans la bande
passante ET dans la bande atténuée.

|H( ω)|
11111111
00000000
00000000
11111111
00000000
11111111
1 00000000
11111111
1
00000000
11111111
00000000
11111111
1+ ε 2 11111111
00000000

111111111
000000000
000000000
111111111
1 000000000
111111111
A
ω
(a)
|H( ω)|
11111111
00000000
00000000
11111111
00000000
11111111
1 00000000
11111111
1
00000000
11111111
11111111
00000000
1+ ε 2 11111111
00000000

111111111
000000000
1 000000000
111111111
000000000
111111111
A
ω
(b)

Figure 1.21 – Gabarit et filtres de Tchebycheff de type I. (a) ordre impair. (b)
ordre pair. La forme des ondulations dans la bande passante dépend de la parité
de l’ordre du filtre.

La forme générale du gain fréquentiel (au carré) d’un filtre de Chebyshev de


type I est la suivante :
1
|H(ω)|2 = ; n >0 (1.70)
1 + ²2 Tn2 (ω/ωc )

38
n est l’ordre du filtre. ² est le taux d’ondulations ripple factor) et caractérise
l’amplitude des oscillations dans la bande passante. Tn (ω) est un polynôme de
Chebyshev d’ordre n, qui est défini par

 cos(n arccos(ω)) si |ω| ≤ 1
Tn (ω) = (1.71)

cosh(n arccosh(ω)) si |ω| ≥ 1
Contrairement à ce qu’il parait de prime abord, ce sont bien des polynômes. On
peut en effet montrer à l’aide de formules trigonométriques classiques que l’on
a:
Tn+1 (x) = 2 x Tn (x) − Tn−1 (x) (1.72)
avec T0 (x) = 1 et T1 (x) = x . Les polynômes de Chebyshev passent par les points
caractéristiques suivant Tn (1) = ±1 et Tn (0) = ±1 si n est pair, Tn (0) = 0 si n
est impair. Pour |x| ≤ 1, Tn (x) oscille n fois entre 1 et −1 (ou, ce qui revient
au même, Tn2 (x) présente n extrema entre 0 et 1) tandis que pour |x| ≥ 1, ces
polynômes sont monotones croissants.

Figure 1.22 – Réponse fréquentielle (gain) d’un filtre de Tchebycheff de type I


d’ordre 4 pour ² = 1.

On peut montrer que l’ordre n du filtre doit être choisi tel que :
q
ln ( η1 + η12 − 1)
n≥ q (1.73)
ln ( k1 + k12 − 1)

où k est la sélectivité du filtre (et correspond à la


√ largeur de la bande de tran-
sition) et η est la constante d’atténuation η = ²/ A2 − 1.

Génériquement, la transformée de Laplace H(s) d’un filtre de Chebyshev I est


de la forme :
K0
H(s) = Qn , (1.74)
i=1 (s − pi )

39
c’est-à-dire constituée de n pôles pi situés (dans le plan complexe) sur une 1/2
ellipse, c’est-à-dire tels que :

γ −1 − γ (2i − 1)π γ −1 + γ (2i − 1)π


pi = sin +j cos
2 2n 2 2n
et

 Qn
√  i=1 (−pi ) si n est pair
2 1
γ= ( 1+ ²1+² ) n et K0 = Qn
 √ 1
1+²2 i=1 (−pi ) si n est impair
(1.75)

Figure 1.23 – Poles d’un filtre passe-bas de Tchebycheff (tupe I) d’ordre 4.

Order 8 Chebyshev Type I IIR Filter Order 16 Chebyshev Type I IIR Filter

0 0

−10 −10

−20 −20
Magnitude (dB)

Magnitude (dB)

−30 −30

−40 −40

−50 −50

−60 −60

−70 −70

0 200 400 600 800 1000 0 200 400 600 800 1000
Frequency (Hz) Frequency (Hz)

(a) (b)

Figure 1.24 – Filtres de Tchebycheff de type I. (a) ordre 8. (b) ordre 20.

40
Filtres de type II (Tchebycheff inverse)
La famille des filtres de Chebyshev de type II présente les caractéristiques com-
munes suivantes :

– Même optimalité que le filtre de Chebyshev de type I,

– Ondulations dans la bande atténuée mais pas dans la bande passante.

|H( ω)| |H( ω)|


11111111
00000000
00000000
11111111 11111111
00000000
00000000
11111111
00000000
11111111 00000000
11111111
1 00000000
11111111 1 00000000
11111111

11111111
00000000 11111111
00000000
00000000
11111111
00000000
11111111 00000000
11111111
00000000
11111111

111111111
000000000
000000000
111111111 1 111111111
000000000
000000000
111111111
000000000
111111111 000000000
111111111
1+ ε 2

ω ω
(a) (b)

Figure 1.25 – Gabarit et filtres de Tchebycheff de type II. (a) ordre impair.
(b) ordre pair. La forme des ondulations dans la bande passante dépend de la
parité de l’ordre du filtre.

La forme générale du gain fréquentiel (au carré) d’un filtre de Chebyshev de


type II d’ordre n est la suivante :

1
|H(ω)|2 = 1 (1.76)
1+ ²2 Tn2 (ωc /ω)

où Tn (ω) est un polynôme de Chebyshev d’ordre n. Dans la bande atténuée, le


polynôme de Chebyshev oscillera entre 0 et 1, et donc le gain oscillera entre 0
et q 1 1 .
1+ ²2

Figure 1.26 – Réponse fréquentielle (gain) d’un filtre de Tchebycheff de type


II d’ordre 5 pour ² = 0.01.

41
Génériquement, la transformée de Laplace H(s) d’un filtre de Chebyshev II est
de la forme :
Qn
K0 i=1,i6=(n+1)/2 (s − zi )
H(s) = Qn , (1.77)
k=1 (s − pk )

c’est-à-dire constituée de zéros situés (dans le plan complexe) sur l’axe imagi-
naire et de n pôles pi situés sur un 1/2 cercle de rayon ωc .

Order 8 Chebyshev Type II IIR Filter Order 16 Chebyshev Type II IIR Filter

0 0

−10 −10

−20 −20
Magnitude (dB)

Magnitude (dB)

−30 −30

−40 −40

−50 −50

−60 −60

−70 −70

0 200 400 600 800 1000 0 200 400 600 800 1000
Frequency (Hz) Frequency (Hz)

(a) (b)

Figure 1.27 – Filtres de Tchebycheff de type II. (a) ordre 8. (b) ordre 20.

42
1.10 Exercices
1. Que représente la composante continue d’un signal ? Calculer la moyenne
du signal x(t) = A + B sin(2πνt + φ) illustré ci-dessous

Composante continue

Quel est le lien entre le premier terme de la décomposition en série de


Fourier d’un signal x(t) et la valeur moyenne de ce signal ?

Rep : R
1 2π
– 2π 0
(A + B sin(2πνt + φ) dt = A .

1
RT
– a0 /2 = T 0
x(t) dt .

2. Quelle est la transformée de Fourier de la fonction porte illustrée ci-dessous


t
(et correspondant à la fonction A rect( 2T )) ?

x(t)
A

0 t
−T T

Rep : X(f ) = 2 A T sin2πf


(2πf T )
T .

3. Décomposer en série de Fourier le signal x(t) illustré ci-dessous :

x(t)

0 t
−τ/2 τ/2 T

2²τ
¡ kτ ¢
Rep : ak = T sinc T ; bk = 0 .

2
4. Montrer que la transformée de Fourier de sign(t) est jω .

43
5. Montrer que la transformée de Fourier du signal x(t) = exp(−at) Γ(t) est
1
X(f ) = a+j2πf où a est un réel strictement positif.

a
6. Quelle est la transformée de Fourier de la fonction t2 (a est une réel).

7. Quelle la transformée de Fourier du produit d’un signal périodique par un


signal à énergie finie : z(t) = x(t) y(t) avec x(t) = x(t + T0 ) ?

P+∞
Rep : Z(ω) = n=−∞ cn Y (ω − 2πn T0 ) où les coefficients cn représentent le
spectre du signal x(t) sur une période.

8. Montrer que la fonction de transfert du filtre passe-bas réalisable est une


approximation du filtre passe-bas idéal.

9. Quel est le type de filtre qui correspond le mieux au diagramme en gain


et en phase (Bode) représenté ci-dessous ? Quelle est la bande passante ?

1
10

0
10
Magnitude

−1
10

−2
10
0 1 2 3
10 10 10 10
Frequency (radians)

50

0
Phase (degrees)

−50

−100

−150

−200
0 1 2 3
10 10 10 10
Frequency (radians)

Figure 1.28 – Diagramme en gain et phase d’un filtre inconnu.

10. Synthétiser un filtre de Butterworth afin que l’atténuation (A) soit de 40


dB à 2 fois la fréquence de coupure (normalisée) et de 3 dB dans la bande
passante (ripple).

11. Déterminer la fonction de transfert H(ω) d’un filtre dont le gain fréquentiel
est illustré ci-dessous. Quelle est la valeur de |H(+∞)| ? Quelle est l’allure
de la phase ? Quelle est la valeur de la phase en 0 ? Quelle est la valeur
maximale de la phase ? A quelle fréquence est-elle atteinte (correspondant
à la pulsation centrale) ?

44
|H(ω )|
dB

20 dB/décade 7 dB

3 dB

0 ωc ωd ω

Figure 1.29 – Gains fréquentiels (en dB) asymptotiques et réels d’un filtre pour
ωc = 6 rad/s.
1
10
Magnitude

0
10
0 1 2 3
10 10 10 10
Frequency (radians)

14

12
Phase (degrees)

10

0
0 1 2 3
10 10 10 10
Frequency (radians)

Figure 1.30 – Filtre à avance de phase.

12. Déterminer le filtre de Butterworth tel que 20 log10 |H(ω)| s’inscrive dans
le gabarit normalisé suivant (b = −30 dB et x1 = 2) :

|H(ω )|
dB

0 1 x1 x

Figure 1.31 – Gabarit normalisé x = ω/ωc .

45
1. Soit le signal non-causal y représenté par y(x) = e−|x|/a où a ∈ R+∗ .
Déterminer la transformée de Fourier de y.

2. Soit le signal radar suivant : Il s’agit d’un motif répété avec la période T
représenté par un ensemble (salve) de sinusoı̈des de fréquences f0 et de
durée τ . Le motif est codé par le signal x(t) = cos(2πf0 t) rect(t/T ).
En s’aidant du produit de convolution, déterminer la transformée de Fou-
rier de ce motif.

3. (a) Développer en série de Fourier, à l’ordre n, la fonction 2π-périodique


définie sur l’intervalle ]−π, +π[ par x(t) = |t| .

(b) Représenter graphiquement le spectre fréquentiel approximatif de


x(t), pour n ≤ 3 .

46
Chapitre 2

Echantillonnage/Quantification

Le mathématicien Claude Elwood Shannon, né à Gaylord dans le Michigan


en 1916, est considéré comme le père de la transmission numérique des informa-
tions. Dans son ouvrage le plus célèbre, ”Théorie mathématique de la communi-
cation”, coécrit avec Warren Weaver et publié en 1948, il a défini le bit (acronyme
de binary digit) comme unité fondamentale du traitement de l’information. Il
s’est particulièrement attaché aux télécommunications numériques et à théoriser
la correction d’erreur. Son théorème, connu sous le nom de Shannon-Hartley,
établit que la bande passante d’un canal dépend essentiellement de son niveau
de bruit et non de sa largeur spectrale. Claude Shannon fut mathématicien aux
Bell Labs de 1941 à 1972. Il a également enseigné au Massachusetts Institute of
Technology (MIT) de 1956 à 1978. Il contribua par ses travaux au domaine des
telecoms, de la théorie des jeux et de l’informatique (entre autres..). Il est avec
Turing et Von Neumann un des chercheurs qui contribua le plus à la théorie de
l’information au milieu du siècle dernier. Claude Shannon est décédé au mois
d’août 2001 à l’age de 84 ans de la maladie d’Alzheimer.

47
2.1 Introduction
L’analyse d’un signal continu à l’aide d’un calculateur nécessite sa dicrétisation.
Les calculateurs ne pouvant traiter que des valeurs numériques, une chaı̂ne de
conditionnement aura pour fonction de transformer le signal continu en un signal
numérique (et inversement). Cela consiste à réaliser les opérations successives
suivantes :
• le filtrage analogique en amont pour adapter la bande passante du si-
gnal au dispositif d’échantillonnage (filtre anti-repliement),

• l’échantillonnage, qui correspond à la discrétisation temporelle générale-


ment à intervalle régulier : les échantillons,

• la quantification qui discrétise les valeurs prises par les échantillons.


Nous allons par la suite développer les deux derniers points, le premier ayant déjà
été traité au chapitre 3 du cours de première année. Nous étudierons également
les transformations temps discret-fréquence ainsi que les propriétés spécifiques
des signaux numériques.

2.2 Echantillonnage
2.2.1 Principe
L’échantillonnage (sampling) consiste à transformer un signal analogique (continu)
x(t) en un signal discret, x? (t), en capturant des valeurs à intervalle de temps
régulier (ici le temps est une variable réelle quelconque). C’est une étape nécessaire
pour pouvoir enregistrer, analyser et traiter un signal par ordinateur, car celui-ci
ne peut traiter que des nombres. Il faut distinguer l’échantillonnage de la quan-
tification, mais ce sont toutes deux des étapes nécessaires à la numérisation d’un
signal.

Le signal échantillonné est obtenu par multiplication Pde ce signal analogique


+∞
par un train d’impulsions (peigne de Dirac) δTe (t) = n=−∞ δ(t − nTe ) d’aire
unité et équi-espacées de la période d’échantillonnage Te :
+∞
X
x? (t) = x(t) δ(t − kTe ) (2.1)
k=−∞

En vertu de la propriété qui veut que f (t) δ(t) = f (0) δ(t), on a encore :
+∞
X
x? (t) = x(kTe ) δ(t − kTe ) (2.2)
k=−∞

L’échantillonnage a aussi des conséquences sur le spectre du signal initial x(t).


Elles peuvent être mises en évidence de la manière suivante : le signal δTe (t) est
périodique et peut donc être développé en série de Fourier. Le résultat en est :

48
f(t) δΤ(t)

t t
Signal continu Train d’implusions
d’amplitude unité
f ∗ (t)

t
Signal échantillonné

Figure 2.1 – Obtention d’un signal échantillonné : multiplication par un train


d’impulsions.

+∞
X
1
δTe (t) = e2πjkt/Te . (2.3)
Te
k=−∞

Le spectre de δTe (t) est donné par


+∞
X

P (ω) = δ(ω − 2πk/Te ) . (2.4)
T
k=−∞

On voit donc qu’à un train d’impulsions de période Te dans le domaine temporel


correspond un train d’impulsions de période 1/Te dans le domaine fréquentiel.
A la multiplication de 2 signaux dans le domaine temporel correspond (à un
facteur 2π près) dans le domaine fréquentiel la convolution des spectres de ces 2
signaux. Dès lors, la transformée de Fourier X ? (ω) du signal échantillonné x? (t)
est donnée par
1
X ? (ω) = X(ω) ⊗ P (ω) (2.5)

Le spectre du signal δTe (t) est lui-même un train d’impulsions espacées de 1/Te
sur l’axe des fréquences. La convolution d’un signal avec un train d’impulsions
se fait en reproduisant le signal au droit de chacune des impulsions (voir figure
2.1). Le spectre du signal échantillonné est donc donné par
+∞
X
1
X ? (ω) = X(ω − 2πk/Te ) (2.6)
Te
k=−∞

On voit que l’effet de l’échantillonnage est de périodiser le spectre du signal


analogique initial, au rythme 1/Te , comme cela est illustré sur la figure 2.2. On
a donc, pour toute fréquence f :

X ? (f + fe ) = X ? (f ) (2.7)

49
|X(f)|

f max f

|X ∗(f)|

f e /2 fe f
Spectre de base

Figure 2.2 – Spectre d’un signal échantillonné (cas où fmax < fe /2) : on notera
la périodicité fréquentielle.

Du fait que le spectre de x? (t) est périodique, on a besoin de le connaı̂tre uni-


quement sur une période. On choisit l’intervalle de fréquences [−fe /2, +fe /2],
qu’on appelle période principale ou spectre de base.
Dans le cas où la fréquence maximale contenue dans le signal à échantillonner
fmax est inférieure à la moitié de la fréquence d’échantillonnage fe , il n’y a pas
de recouvrement entre les périodicités spectrales (voir Fig. 2.2). En revanche s’il
existe des composantes du signal dont les fréquences sont supérieures à fe /2,
on note un recouvrement spectral (aliasing) (voir Fig. 2.3). Le spectre du signal
obtenu ne correspond plus à celui du signal initial. Il ne sera alors pas possible
de reconstruire le signal après traitement numérique.

Théorème de Shannon
Pour pouvoir reconstituer, sans perte d’information, un signal continu à partir
d’un train d’échantillons de période Te , il faut que la fréquence d’échantillonnage
soit au moins égale au double de la fréquence maximale contenue dans le signal.

Exemple : le téléphone. Le spectre audio est limité à l’intervalle de fréquences


[0 − 2500] Hz afin que le signal puisse être reconstitué correctement après être
échantillonné à la fréquence fe = 6 KHz.

Le filtre analogique évoqué au début de ce chapitre sert à limiter la fréquence


maximale contenue dans le signal continu, avant que celui-ci soit échantillonné,
en appliquant un filtre passe-bas appelé filtre anti-repliement (anti-aliasing fil-
ter).

50
|X(f)|

f max f

|X ∗(f)|

f e /2 fe f

Figure 2.3 – Spectre d’un signal échantillonné (cas où fmax > fe /2) : le spectre
du signal obtenu ne correspond plus au spectre du signal initial.

Bloquage
La reconstitution (approchée du signal) doit d’autre part ne laisser passer que le
spectre de base. C’est dans ce spectre uniquement qu’est contenu l’information
utile et d’autre part, il n’est physiquement pas réalisable de reconstituer un
signal de spectre périodique infini. Le circuit bloqueur a ce rôle. Le bloqueur
d’ordre 0 (car de valeur temporelle constante) maintient la valeur du signal
échantillonné durant toute la période d’échantillonnage. C’est un interpolateur
d’ordre 0. C’est donc un filtre passe-bas (qu’on supposera idéal) de fonction de
transfert de Laplace Bo (s) :

1 − e−Te s
Bo (s) = (2.8)
s

f ∗ (t) f ∗ (t)

t t
Signal échantillonné Signal échantillonné bloqué

Figure 2.4 – Obtention d’un signal échantillonné bloqué : la valeur acquise au


moment de la capture de l’échantillon est maintenue durant toute la période
d’échantillonnage.

51
2.3 Transformées d’un signal échantillonné
2.3.1 Transformée de Laplace
La transformée de Laplace X ? (s) d’un signal échantillonné x? (t) est définie par
+∞
X
X ? (s) = L[x? (t)] = x(n Te ) L[δ(t − n Te )] (2.9)
k=−∞

Or,
Z +∞
L[δ(t − n Te )] = e−st δ(t − n Te ) dt , (2.10)
0
on en déduit directement que :
+∞
X
X ? (s) = x(nTe ) e−nTe s (2.11)
k=−∞

2.3.2 Transformée en z
La transformée en z est un outil mathématique de traitement du signal, qui est
l’équivalent discret de la transformée de Laplace. Elle est utilisée entre autres
pour le calcul de filtres numériques à réponse impulsionnelle infinie (RII) ainsi
que pour l’étude de la stabilité des filtres numériques. Sa définition mathématique
est la suivante : la transformation en z est une application qui transforme une
suite {x(n)} (définie sur les entiers) en une fonction X(z) d’une variable com-
plexe nommée z, telle que
+∞
X
X(z) = Z{x(n)} = x(nTe ) z −n , z∈C. (2.12)
n=−∞

La variable n représente en général le temps discrétisé, la variable complexe


z ne représente rien de particulier, il s’agit d’une création purement abstraite.
Lorsqu’on analyse le signal x(n), on dit que l’on est dans le domaine temporel,
lorsqu’on étudie X(z), le domaine est appelé fréquentiel par analogie avec la
transformée de Fourier. Lorsque l’on compare les définitions 2.12 et 2.11, on en
déduit que z = eTe s , z ∈ C.
Le domaine de convergence définit l’existence de la transformée en z. C’est
le sous-ensemble de C dans lequel la série précédente converge. On l’appelle
également couronne de convergence. La plupart du temps, les expressions des
transformées en z utilisées en traitement du signal sont des fractions rationnelles
de la variable z. On appelle ”pôles” les racines du dénominateur de la trans-
formée et ”zéros” les racines de son numérateur. Dans de nombreux calculs, les
pôles sont simples. Il est alors possible d’écrire les transformées sous la forme
d’une décomposition en éléments simples de cette fraction rationnelle. La trans-
formée s’écrit alors sous la forme d’une somme de fractions dont le dénominateur
est de degré un dans le cas des fonctions à coefficients complexes et de degré
deux dans le cas des fonction à coefficients réels. Ce qui permet de retrouver la
plupart des transformées simples.

52
Exemple : la sinusoı̈de amortie x(t) = at cos(ω0 t + ϕ) Γ(t) pour t ≥ 0, a étant
un réel positif inférieur à un. Dans ce cas, X(z) est définie à l’extérieur du disque
cos(ϕ)−az −1 cos(ω0 −ϕ)
de rayon |a| et vaut X(z) = 1−2a cos(ω0 )z −1 +a2 z −2 .

Figure 2.5 – Sinusoı̈de amortie.

La plupart du temps le domaine de convergence de la transformée en z est


une couronne qui contient le cercle de rayon 1, les fonctions étudiées tendant
souvent vers zéro comme une fonction exponentielle lorsque t → ±∞. Le choix
de la variable z −1 et non z, est cohérent avec la définition de la transformée de
Fourier. Cet opérateur représente le retard d’un échantillon. Il incite souvent à
écrire les transformées des signaux causaux (nuls pour les valeurs négatives de
t) en fonction de z −1 et non de z. Lorsque le signal est non causal (lorsqu’il a
des composantes pour t < 0, on écrit souvent ces composantes en fonction de
la variable z. Cependant, la notion de causalité est contenue dans le domaine
de convergence et non dans la formule donnant la transformée en z qui peut
s’écrire aussi bien en fonction de la variable z que de la variable z −1 .

Propriétés de la transformée en z
• linéarité : Z{a1 f1 (t)+a2 f2 (t)} = a1 F1 (z) + a2 F2 (z) , ∀(a1 , a2 ) ∈ R2 ,

• Théorème du retard : Z{x(n−k)} = Z{x(t−kTe )Γ(t−kTe )} = z −k X(z),

• Théorème de l’avance :

Z{x(n + k)} = Z{x(t + kTe )Γ(t)} = z k X(z) − z k x(0) − z k−1 x(1) −


· · · − z x(k − 1),

• Muliplication par n : Z{n x(n)} = −z d X(z),


dz

• Modulation : Z{an x(n)} = X( az ).


Cette propriété permet, en multipliant le signal par un signal exponen-
tiel an , de modifier la position des pôles et des zéros de sa transformée
en z. La valeur du paramètre a découle de la modification particulière

53
choisie.

• Théorème de la convolution discrète (Théorème de Borel) :


+∞
X
Z{ x1 (n) x2 (n)} = X1 (z) X2 (z),
n=−∞

• Théorème de la valeur initiale (signaux causaux)

lim x? (t) = lim x(n) = lim X(z),


t→0 n→0 z→+∞

• Théorème de la valeur finale (signaux causaux)


¡ ¢
lim x? (t) = lim x(n) = lim 1 − z −1 X(z),
t→+∞ n→+∞ z→1

Quelques exemples de transformées en z (signaux causaux)

P+∞
• Z{δ(n)} = k=0 δ(k) z −k = 1,
P+∞
• Z{δ(n − l)} = k=0 δ(k − l) z −k = z −l ,

On constate que si la séquence δ(n) est retardée de l échantillons, sa


transformée en z est multipliée par z −l ,
P+∞ z
• Z{Γ(n)} = k=0 z −k = z−1 (suite géométrique de raison z −1 ),
P+∞ z
• Z{n Γ(n)} = k=0 k z −k = (z−1)2 ,

1
• Z{an Γ(n)} = 1−a z −1 ,

1
• Z{ejnωTe Γ(n)} = 1−ejωTe z −1
,

• Etant donné que ejnωTe = cos nωTe +j sin nωTe , on en déduit immédiatement
que :
1 − cos ωTe z −1
Z{cos nωTe Γ(n)} = ,
1 − 2 cos ωTe z −1 + z −2
sin ωTe z −1
Z{sin nωTe Γ(n)} = .
1 − 2 cos ωTe z −1 + z −2

2.3.3 Transformée en z inverse


Il s’agit de retrouver les valeurs aux instants d’échantillonnage x(nTe ) à par-
tir de la transformée en z, X(z). La transformée en z inverse est donnée par
l’expression : I
−1 1
x(n) = Z {X(z)} = X(z)z n−1 dz (2.13)
2πj C

54
où C est un chemin fermé parcouru dans le sens inverse des aiguilles d’une montre
et appartenant entièrement au domaine de convergence (chemin entourant tous
les pôles de F(z). En pratique, ce calcul s’effectue souvent à l’aide du théorème
des résidus et la formule devient dans le cas d’un signal causal :
X
x(n) = Res{z n−1 X(z)}z=zi (2.14)
zi =pôles de X(z)

Exemple : Déterminer la séquence f (n) à partir de la transformée en z de f (t)


suivante

z (1 − e−αTe )
F (z) =
(z − 1) (z − e−αTe )

2.3.4 Equations aux différences


L’application de la transformée en z à la résolution d’équations linéaires aux
différences à coefficients constants est directe à partir du théorème de l’avance.
Une équation aux différences (appelée aussi équation aux récurrences) d’ordre
n, linéaire à coefficients constants s’exprime sous la forme

x(k+n)+an−1 x(k+n−1) +· · ·+a1 x(k+1) + a0 x(k) = u(k) , k = 0, 1, 2, · · ·


(2.15)
Si la suite {x(k)} a pour transformée en z, X(z), la suite avancée d’un échantillon
{x(k + 1)} a pour transformée en z, z X(z) − z x(0), et par conséquent on a
aussi Z{x(k + 2)} = z 2 X(z) − z 2 x(0) − z x(1), etc ....
Finalement, on obtient une forme polynomiale qui permet d’exprimer X(z) en
fonction de U (z), la transformée en z de {u(n)}. Ceci a été rendu possible par
le fait que le théorème de l’avance introduit les conditions initiales x(0), x(1), ....

Exemple : x(k) − x(k − 1) = k , k = 0, 1, ... et x(0) = x0 .


Solution : (prendre l’avance)
z
z X(z) − z x0 − X(z) = Z{k + 1} = z Z{k} = z (z−1) 2.

2.3.5 Transformée de Fourier discrète (TFD)


La transformée de Fourier discrète d’un processus à temps discret {x(n)} de
période N est :
N
X −1
nk
X(k) = x(nTe ) e−2jπ N . (2.16)
n=0

Cette transformée est elle-même de période N et de puissance moyenne finie. Elle


permet de calculer la transformée de Fourier d’une séquence de longueur finie à
l’aide d’un calculateur, la TF au sens usuel étant dédiée à des signaux continus
supposés de support infini. C’est pourquoi dans sa définition apparaı̂t un pas
d’échantillonnage en fréquence Nk . L’intérêt pratique de la TFD vient de ce qu’il
existe des algorithmes qui permettent de calculer cette transformée avec beau-
coup moins de multiplications qu’il n’en faudrait pour calculer la transformée de
Fourier usuelle. Le calcul de la TFD nécessite alors N log2 (N ) multiplications
alors que le calcul classique en demanderait N 2 . L’utilisation de ces algorithmes

55
permet donc des calculs rapides de la TFD, d’où son nom de FFT (Fast Fourier
Transform). On peut donner également la relation exprimant la transformée de
Fourier discrète inverse :
N −1
1 X nk
x(n) = X(k) e2jπ N . (2.17)
N
k=0

La TFD est une fonction discrète de la fréquence et les fréquences réduites


k
sont les valeurs νk = N , ∀k ∈ {0, · · · , N − 1}. Si l’observation du signal
échantillonné x(n) est limité à N échantillons (temps d’observation égal à fNe ),
le signal observé est représenté par la séquence finie (x0 , x1 , x2 , · · · , xN −1 ) . La
TFD de celle-ci coı̈ncide avec la transformée du signal original x(t) uniquement
aux fréquences multiples de ∆ν = fNe . La valeur ∆ν s’appelle la résolution
spectrale de l’analyse du signal.
De plus, la transformée de Fourier discrète permet d’introduire la notion de
convolution circulaire (convolution discrète). Etant données deux séquences nu-
mériques {x(n)} et {y(n)} de transformées de Fourier discrètes X(k) et Y (k)
respectivement, on recherche la séquence numérique H(k) qui admet pour TFD :
H(k) = X(k) Y (k) , ∀k ∈ {0, · · · , N − 1} , calcul qui aboutit à
X
H(k) = x(n) y(k − n) . (2.18)
n∈[N ]

que l’on appellera convolution circulaire de x(n) et y(n) où [N ] est un intervalle
quelconque de taille N .

échantillonnage échantillonnage
f(t) f*(t) f(t) f*(t)
T T
Tf Laplace

Tf Laplace

Tf Fourier

Tf Fourier

T T
F(s) F(z) F( ω ) TFD
échantillonnage échantillonnage

Figure 2.6 – Résumé de l’ensemble des transformations.

2.3.6 Convolution discrète


La définition de la convolution circulaire fournie ci-dessus et issue de la TFD cor-
respond bien évidemment au cas où l’intervalle est de taille finie. D’une manière
générale et par analogie à la définition (2.19) de la convolution pour des signaux
continu, le produit de convolution de deux séquences finies ou infinies x(n) et
y(n) est défini par :

56
+∞
X
(x ? y)(k) = x(n) y(k − n) . (2.19)
n=−∞

Remarques Il est important de bien voir la différence qui existe entre la TF


définie par l’intégrale de Fourier, et la transformée de Fourier discrète introduite
dans cette section. L’intégrale de Fourier qui fournit la transformée de Fourier
requiert la connaissance de la totalité du signal considéré ; de plus, pratiquement,
ce n’est pas directement sur le signal x(t) que porte le calcul, mais sur son
équivalent numérisé. Le calcul de la TFD introduit donc des erreurs sur le spectre
du signal :
• Erreur de repliement de spectre.
Il faut respecter la fréquence d’échantillonnage de Shannon. Pour pou-
voir choisir la fréquence d’échantillonnage de manière à respecter le
critère de Shannon, il faut connaı̂tre préalablement, ne serait-ce que
de manière approximative, la fréquence maximale du spectre du signal.
Cette connaissance n’est pas toujours acquise dans les différentes situa-
tions où l’on est amené à utiliser les techniques du traitement du signal.
Pour répondre à cette difficulté, on peut procéder de deux manières :
1. On filtre le signal au moyen d’un filtre anti-repliement dont la
fréquence de coupure est suffisamment élevée pour qu’on puisse
espérer que le signal ne possède aucune composante spectrale au-
delà de cette fréquence. Puis, on échantillonne le signal suivant le
critère de Shannon.
2. Sans filtrer le signal, on l’échantillonne à une fréquence arbitraire-
ment élevée (autant que possible - sur-échantillonnage), en espérant
ainsi respecter le critère de Shannon. Bien entendu, ceci engendre
un plus grand nombre d’échantillons à traiter.

• Erreur de troncature temporelle.


Le calcul de la TFD s’effectue sur un horizon fini (taille de [N ]) du fait
de la troncature temporelle à l’iade d’une fenêtre qui se traduit par un
étalement du spectre du signal vers les fréquences élevées.

• Erreur due à l’échantillonnage de la transformée de Fourier. Il est néces-


saire d’examiner si l’échantillonnage de la transformée de Fourier est
correct. Si on a des doutes, il faut diminuer le pas d’échantillonnage soit
en échantillonnant le signal moins vite, soit en rajoutant des zéros aux
échantillons du signal (technique appelée zero padding) : si on ajoute
N zéros au calcul de la TFD d’un signal de taille N , la résolution
fréquentielle est doublée. De même, si on échantillonne la transformée de
Fourier, on périodise le signal temporel. Donc, au lieu d’avoir un signal
continu, non périodique, doté d’une TF continue non périodique, on a
un signal périodique échantillonné, doté d’une transformée de Fourier
périodique et échantillonnée.

57
2.4 Energie et puissance d’un signal numérique
Par analogie au cas des signaux continu, nous abordons ici les définitions sur
l’énergie et la puissance d’un signal numérique.

• Energie : L’énergie moyenne d’un signal numérique représenté par la


séquence {x(n)} est définie par :
+∞
X
Wx = |x(k)|2 . (2.20)
k=−∞

• La puissance moyenne du signal numérique représenté par la séquence


{x(n)} sur un intervalle de dimension N est définie par :
M +N
X−1
1
Px (M, M + N − 1) = |x(k)|2 . (2.21)
N
k=M

• La puissance moyenne totale du signal numérique représenté par la séquence


{x(n)} est définie par :
µ ¶
N −1 N
Px = lim Px (− , ). (2.22)
N →∞ 2 2

2.5 Quantification
2.5.1 Principe et caractéristiques de la conversion
La quantification (quantization) d’un signal analogique consiste à rempla-
cer l’infinité de valeurs différentes qu’il peut prendre (comme une tension ou
une intensité électrique par exemple qui sont des grandeurs macroscopiquement
continues) par un nombre fini N q de valeurs. Si ces dernières sont équidistantes,
on parle de quantification linéaire, et la distance qui sépare 2 valeurs consécutives
possibles est appelée pas de quantification q.
Codage
sur 3 bits

111
q
110
101
100
011
010
Tension d’entrée
001 en Volts
000
2,50 5,0 7,5 10,0
0 1,25 3,75 6,25 8,75

Figure 2.7 – Fonction de transfert d’un convertisseur linéaire (CAN).

A chaque instant d’échantillonnage n Te (n nombre entier), le signal x(t) est


remplacé par la valeur la plus proche parmi les valeurs possibles du signal

58
quantifié. On peut adopter une notation permettant de distinguer d’une part,
x(n) = xn = x(nTe ) = x? (t), signal échantillonné de x(t), et sa version quan-
tifiée d’autre part, notée souvent xn .

La quantification des échantillons est effectuée par un Convertisseur Analogique


Numérique (CAN ou ADC). Pour mener à bien cette opération, il convient de
respecter un certains nombres de règles théoriques et de choisir correctement
le CAN (résolution, amplitude, temps de conversion,...). Les transformations
doivent être réalisées sans perte d’informations et sans accroı̂tre inutilement le
nombre de données numériques. Le CAN est précédé d’un bloqueur, qui main-
tien le signal à une même valeur obtenue au moment de l’échantillonnage. La
période d’échantillonnage doit bien sûr être supérieure au temps de conversion,
c’est pourquoi celui-ci est une caractéristique essentielle du CAN. Inversement,
lorsque le traitement est effectué, on a souvent besoin de revenir au monde ana-
logique pour transmettre des signaux tels que la parole ou les images. C’est
la fonction des convertisseurs numérique-analogique qui effectuent l’opération
inverse des CAN. Un CAN est caractérisé essentiellement par :
• la résolution (le pas de quantification q), lié à l’intervalle de mesure V
(intervalle de valeurs autorisées pour le signal à l’entrée, par exemple
V = 10 V pour un signal pouvant évoluer entre −5 V et +5 V) et au
nombre N q de pas utilisés : q = V /N q.
La résolution d’un CNA est la plus petite variation qui se répercute sur
la sortie analogique à la suite d’un changement de l’entrée numérique
(égale au poids du bit de poids faible). La résolution peut également
être exprimée en pourcentage de la pleine échelle (PE ou full scale) :

Résolution (%PE). = pas de progression / pleine échelle . (2.23)

En augmentant le nombre de bits, on augmente la résolution. Dans la


spécification des fabricants de CNA, la résolution est exprimée par le
nombre de bits (typiquement 8, 12 ou 16 bits). Afin de ne perdre au-
cune information contenue dans les échantillons du signal, il faut choisir
correctement le pas de quantification (cf. Théorème de Shannon) sous
peine de repliement spectral.

• le temps de conversion (temps d’étalissement ou settling time) : c’est


la durée nécessaire aux composants électroniques pour convertir le si-
gnal et délivrer dans un registre (ou de manière équivalente, une case
mémoire) un nombre entier correspondant à la valeur quantifiée. Pour
les CNA, c’est l’intervalle de temps séparant l’instant où l’on présente
la données numériques et l’instant où le signal analogique est disponible
avec la précision voulue (de l’ordre de qq µs).

• l’erreur de quantification : le processus de quantification entraı̂ne de par


sa nature même une erreur. Si l’on appelle ² la différence entre la valeur
analogique Vana et la valeur numérique Vnum = m Ds , (Ds est la valeur
pour un échantillon), on a :

m Ds < Vana < (m+1)Ds , ou encore Vnum = Vana + ² , (0 < ² < Ds ) .


(2.24)

59
Comme les valeurs de ² ont toutes la même probabilité, cette erreur
vaut 0.5 fois la valeur du bit de poinds faible (LSB - Lowest Significant
Bit) en moyenne. C’est-à-dire la moitié du pas de progression.

Cette erreur est de moyenne nulle et la puissance du bruit de quanti-


fication est alors défini comme la variance σq du signal ²(t). Sa valeur
est obtenue si on considère que le pas de quantification (ou quantum)
q est suffisamment faible pour considérer constant le signal entre deux
pas d’échantillonnage. On obtient alors facilement sa valeur qui est :

£ ¤ q2
σq2 = E ²2 (kTe ) = . (2.25)
12
• la fonction de transfert (CNA) : lorsque l’on présente à un convertisseur
un mot de n bits, le CNA délivre un signal Vana telle que :

Vana = {An /2 + An−1 /4 + · · · + A1 /(2n)} Vr (2.26)

An est le MSB (bit de poids fort ou Most Significant Bit) et A1 est le


LSB. Vr étant une tension de référence et An l’état (0 ou 1) du bit de
rang n. Le pas de quantification est tel que :

Ds = Vr /2n , et la valeur pleine échelle : Vf s = (2n − 1) Vr /2n .


(2.27)
• la tension de décalage (offset) : idéalement la tension de sortie d’un
convertisseur NA est 0 Volt quand l’entrée numérique est nulle. En pra-
tique, on mesure une petite tension de sortie due à l’erreur de décalage
de l’amplificateur opérationnel de sortie. Typiquement, cette erreur est
inférieure à 0,05 % PE. La majorité des CNA dont la sortie est une
tension possèdent un bouton de réglage qui permet de compenser cette
erreur.

• sa linéarité intégrale : c’est l’écart relatif maximum entre la réponse


réelle du convertisseur et la droite correspondant à une réponse idéale.
Elle est généralement exprimée en pourcentage de la pleine échelle ou
en fraction du LSB (voir Fig. 2.8).

Vfs

erreur
max

num

Figure 2.8 – Linéarité intégrale d’un convertisseur.

60
La plupart des CAN ont un fonctionnement basé sur des comparisons successives
entre un signal généré par le convertisseur et le signal à convertir. La précision
du codage peut être altérée si entre deux comparaisons successives le signal à
convertir varie sensiblement, ce qui est le cas lorsque la bande passante du signal
n’est pas négligeable par rapport à la fréquence d’échantillonnage.
Il existe plusieurs structures de fonctionnement des CAN comme la conversion
à rampe, la conversion par approximations successives, la conversion flash. Les
temps de conversion de ces méthodes sont très différents et dépendent du nombre
de composants électroniques. Les grandeurs physiques issues d’un processus in-
formatique sont transformées en tension électrique continue (analogique) pro-
portionnelle. C’est le rôle de la conversion numérique - analogique (CNA ou
DAC).

valeurs valeurs
numériques numériques
tension Calculateur tension
CAN (espace mémoire CNA
électrique d’un processus info.) électrique

Figure 2.9 – Implantation des CAN et CNA auprès d’un calculateur.

Le calculateur, après traitement des données numériques, fournit un signal


numérique qui est transformé en un signal analogique dans le temps et en am-
plitude :
• signal analogique en amplitude : rôle du CNA,
• signal analogique temporel : filtre de reconstruction.

L’instant de présentation des données numériques au convertisseur CNA doit


être parfaitement défini dans le temps à l’aide d’un ordre de validation des
données. La plupart des signaux de commande nécessaires à la régulation de
procédés doivent être analogiques, afin que l’on puisse par exemple contrôler
la vitesse d’un moteur à courant continu. Nous voyons donc sur la Fig. 2.9
que les CAN et les CNA jouent le rôle d’interfaces entre un système purement
numérique, comme un ordinateur, et le monde extérieur à prédominance analo-
gique.

données
traitées
données Filtre de données
Calculateur reconstruction CNA
acquises converties et
ordre de données reconstruites
conversion reconstruites

Figure 2.10 – Reconstruction des données numériques issues d’un calculateur.

Le filtre de reconstruction du signal peut être effectué par le calculateur (il l’est le
plus souvent) (voir Fig. 2.10) et donc avant la conversion numérique-analogique.
Il s’agit le plus souvent de ”lisser” les données :

Reconstruction = Interpolation + Filtrage passe-bas (2.28)

61
Exemple : Convertisseur numérique-analogique 4 bits - 8 Volts (unipolaire).
Les 24 = 16 nombres biaures différents que l’on peut représenter avec ces 4 bits
sont représentés sur la Fig. 2.11.

D C B A Tension

0 0 0 0 0
0 0 0 1 0.5
0 0 1 0 1
poids fort 0 0 1 1 1.5
0 1 0 0 2
D
C Convertisseur Tension de sortie 0 1 0 1 2.5
0 1 1 0 3
B 0 1 1 1 3.5
A NA (analogique)
1 0 0 0 4
poids faible 1 0 0 1 4.5
1 0 1 0 5
1 0 1 1 5.5
1 1 0 0 6
1 1 0 1 6.5
1 1 1 0 7
1 1 1 1 7.5

Figure 2.11 – Convertisseur NA 4 bits - 8 Volts (unipolaire).

2.5.2 Structures d’un CNA

n3 R R

n2 2R −
Vs
n1 4R +

n0 8R

Figure 2.12 – CNA à résistances pondérées.

CNA à résistances pondérées


Le CNA à résistances pondérées utilise un amplificateur opérationnel monté
en additionneur. Les entrées n0 à n3 sont connectées soit à la masse, soit à la
tension Vr . La sortie Vs sera donc égale à

Vs = −Vr (n3 + n2 /2 + n1 /4 + n0 /8) . (2.29)

L’inconvénient majeur pour ce type de convertisseur, c’est qu’il faut des résistances
dont les valeurs doublent à chaque fois, ce qui est difficile voire impossible, dès
que le nombre de bits devient important.

62
CNA R-2R (réseau en échelle)
Ici, la tension de sortie Vs sera égale à :

Vs = −Vr (n3 + n2 /2 + n1 /4 + n0 /8) Rf /2R . (2.30)

Rf

n3 2R −
Vs
+
R
n2 2R

R
n1 2R

R
n0 2R

2R

Figure 2.13 – CNA à réseau en échelle.

La résistance R peut simplement être obtenue par deux résistances 2R disposées


en parallèle. Il y a cependant des sources d’erreur :
• le passage du niveau bas (0 V) au niveau haut (Vr ) (commutation) des
différentes entrées est réalisé par un interrupteur. Chaque entrée ayant
son propre interrupteur, les temps de commutation ne sont jamais rigou-
reusement identiques (pour chaque interrupteur) et il peut apparaı̂tre
des transitoires sur le signal analogique Vs .
Si, par exemple, on passe d’une valeur 0111 à la valeur immédiatement
supérieure 1000 et si les interrupteurs commutent plus rapidement de
l’état 1 vers l’état 0 que dans le sens inverse, on aura pendant un temps
très court la valeur 0000 correspondant à un signal de sortie nulle. Le
seul moyen de supprimer correctement ces perturbations (glitches) est
de connecter un échantillonneur-bloqueur sur la sortie du convertisseur
afin de maintenir le niveau de l’échantillon précédent pendant la tran-
sition.
• la linéarité du convertisseur dépend de la précision des résistances du
réseau,
• la stabilité de la source de tension de référence Vr . En effet, le bruit
dans l’alimentation est un frein à la résolution des convertisseurs. Ainsi,
pour un convertisseur 16 bits - 5 V, le bruit de l’alimentation ne doit
pas excéder 1/2 LSB, soit 40 µ V (CNA ou CAN).

63
2.5.3 Structures d’un CAN
Une caractéristique importante d’un CAN est le temps de conversion. Il est lar-
gement supérieur à celui d’un CNA. Un CAN est plus difficile à réaliser qu’un
CNA, et il contient souvent un CNA.

CAN à rampe numérique


Un compteur est branché aux entrées d’un CNA et la sortie de celui-ci augmente
régulièrement à chaque coup d’horloge. La sortie du CNA est reliée à l’entrée
d’un comparateur de tension. Dès que celle-ci est supérieure à la tension d’entrée,
le comparateur force un état haut (1) à sa sortie, ce qui bloque le compteur et
indique que la conversion est terminée. La valeur du compteur correspond à la
valeur numérique attendue en sortie.

Vana −
horloge
+

Compteur
sortie
numérique
CNA

Figure 2.14 – Principe du CNA à rampe.

Le problème majeur de ce montage est que le temps de conversion est très long
et variable. D’autre part, il faut réinitialiser le compteur à 0 à chaque conversion
et la fréquence de l’horloge est limitée par le temps de conversion du CNA. Ainsi,
si on dispose d’un convertisseur 12 bits ayant comme tension nominale Vana = 5
V. Si l’entrée de celui-ci est mise à 5 V, le temps de conversion est de 4096 fois
le temps du cycle de l’horloge, cycle qui est d’autre part limité par la conversion
dans le CNA et le comparateur. La formule du temps de conversion peut donc
en être déduite :
tconv = traz + 2n/fhorloge . (2.31)

CAN à rampe numérique avec compteur-décompteur


Ici, le compteur ”suit” en permanence la tension d’entrée Vana : si la tension de
sortie du CNA est supérieure à la tension d’entrée le compteur décompte, sinon
il compte. Il n’est pas nécessaire de réinitialiser le compteur à chaque conver-
sion. Ce convertisseur à un temps de conversion moins grand que le montage
précédent (sauf pour la première conversion) mais ce temps de conversion est
encore variable.

64
Vana −

+
horloge

Compteur/
Décompteur
sortie
numérique
CNA

Figure 2.15 – Principe du CNA à rampe et compteur/décompteur.

CAN à approximations successives

horloge
Vana +


Logique de
commande

Registre

poids fort ..... poids faible

CNA

Figure 2.16 – Principe du CNA à approximations successives.

Ce type de CAN possède des circuits plus complexes que le CAN à rampe
numérique mais le temps de conversion est beaucoup plus court. Une logique de
commande modifie le contenu d’un registre bit par bit jusqu’à ce que la donnée
qui s’y trouve, soit l’équivalent numérique de la tension analogique Vana (à la
sensibilité près du comparateur, et à la précision près du CNA).

Pour un convertisseur n bits, la conversion se fait en n étapes (donc n cycles


d’horloge). Si, par exemple, pour un convertisseur 4 bits de résolution 1 V, on
souhaite convertir la tension d’entrée analogique Vana = 10, 4 V. On place tout
d’abord le bit de poids fort à 1 (1000). Comme la sortie du CNA est de 8 V
et donc inférieure à Vana , on garde le bit de poids fort à 1. On réitère cette
opération pour les autres bits du registre :
– 1000 = 8 V < Vana ⇒ bit 3 mis à 1 pour la suite,
– 1100 = 12 V > Vana ⇒ bit 2 mis à 0 pour la suite,
– 1010 = 10 V < Vana ⇒ bit 1 mis à 1 pour la suite,

65
– 1101 = 11 V > Vana ⇒ bit 0 mis à 0

– ⇒ résultat : 1100 = 10 V.
Sur cet exemple on voit que la conversion par approximations successives délivre
une valeur numérique toujours inférieure à l’entrée analogique.

CAN flash (ou parallèle)

5V

V +
ana


Logique de
n bits
...

décodage ...
.........

.........

2 ncomparateurs

Figure 2.17 – Principe du CNA flash.

On compare la tension Vana de l’échantillon aux niveaux de quantification Ds ,


2Ds ,..., kDs à l’aide de k comparateurs à qui l’on présente simultanément le
signal Vana . Sur l’ordre de conversion, tous les comparateurs dont les niveaux
de référence sont inférieurs à la valeur Vana basculent à l’état logique 1 et tous
les autres restent à l’état bas 0. Un décodeur transforme les signaux présents
à la sortie de l’ensemble des comparateurs en un signal numérique parallèle
codé en binaire pur. Pour une résolution de n bits, on a besoin de 2n compara-
teurs. L’avantage principal de ce montage de convertisseur est qu’il fonctionne
en parallèle ce qui lui confère une grande rapidité.

2.6 Corrélation numérique


On a vu au chapitre 2, les définitions de l’autocorrélation et de l’intercorrélation
pour des signaux continus. La corrélation est une mesure énergétique de la si-
militude de forme et de position entre deux signaux décalés. Pour des signaux
discrets à énergie finie, on définit l’autocorrélation et l’intercorrélation de de la
manière suivante :

66
Autocorrélation : corrélation entre le signal x(n) et lui-même :
+∞
X
γxx (k) = x(n) x? (n − k) . (2.32)
n=−∞

Intercorrélation : corrélation entre le signal discret x(n) et le signal discret


y(n) :
+∞
X
γxy (k) = x(k) y ? (n − k) . (2.33)
n=−∞

De manière similaire, pour des signaux discrets à puissance moyenne finie, on


définit l’autocorrélation et l’intercorrélation de la manière suivante :

Autocorrélation : corrélation entre le signal x(n) et lui-même :


+N
X
1
γxx (k) = lim x(n) x? (n − k) . (2.34)
N →+∞ 2N + 1
n=−N

Intercorrélation : corrélation entre le signal discret x(n) et le signal discret


y(n) :
+∞
X
1
γxy (k) = lim x(k) y ? (n − k) . (2.35)
N →+∞ 2N + 1
n=−∞

En pratique, les calculs sont limités à un voisinage fini (un horizon N fini).Il
s’agit alors d’une approximation lorsque les séquences x(n) et y(n) corres-
pondent à des réponses impulsionnelles infinies (RII).

67
2.7 Exercices
1. Calculer la transformée en z de la suite de nombres entiers {y(k)} pour
y(k) = 1, 2, 3, 0, 0, · · · , 0, · · · pour k = 0, 1, 2, 3, · · · .

2. Démontrer le théorème de l’avance de k périodes.

3. Calculer la transformée en z de f (t) = t Γ(t).

4. Calculer la transformée en z de la séquence numérique suivante :


g(n + 2) − 5g(n + 1) + 6g(n) = 1 pour n ≥ 0 et avec les conditions initiales
g(0) = 2 , g(1) = 3 .

5. Quelles sont les transformées en z de :


¡ ¢n
(a) x1 (n) = 13 Γ(n),
¡ 1 ¢n−2 ¡ 1 ¢n
(b) x2 (n) = 2 3 Γ(n),

z
¡ 1 ¢n 4z
Rep : X1 (z) = z−1/3 et x2 (n) = 4 6 Γ(n) → X2 (z) = z− 16
.

6. Quelle est l’énergie du signal x1 (n) défini à la question précédente ?

7. Etant donné la transformée en z suivante :


0, 792 z 2
F (z) =
(z − 1) (z 2 − 0.416z + 0.208)

Déterminer la valeur de la séquence f (kTe ) quand k → +∞.

8. Pour un convertisseur numérique-analogique 5 bits, quand l’entrée est


égale à 10100, la tension de sortie est de 100 mV, calculer la pleine échelle,
la résolution (pas de quantification) et la tension de sortie pour une entrée
numérique égale à 11101.

9. Soit les caractéristiques suivantes d’un CAN 5 Volts :


résolution 12 bits ; erreur de linéarité pleine échelle 0, 03 % PE.
(a) Indiquer l’erreur de quantification en volts,
(b) Donner l’erreur totale en volts.

10. Calculer la Transformée de Fourier Discrète de la suite comportant N = 16


termes tels que :
½
x(0) = x(1) = x(2) = x(14) = x(15) = 1
x(n) = 0 pour 3 ≤ n ≤ 13

68
69
70
Chapitre 3

Filtrage numérique

Rudolf Emil Kalman (né le 19 mai 1930) est un mathématicien et un automa-


ticien américain d’origine hongroise, ingénieur en électrotechnique de formation.
Il est surtout connu pour sa contribution à l’invention du filtre de Kalman, une
technique mathématique de filtrage très utilisée pour extraire un signal à partir
de mesures bruitées. Les idées de Kalman sur le filtrage rencontrèrent un certain
scepticisme, à tel point qu’il dut publier d’abord ses travaux dans un journal de
mécanique (au lieu d’électrotechnique). Il eut plus de succès, cependant, lors-
qu’il rencontra Stanley Schmidt au Ames Research Center de la NASA en 1967.
Cela mena à l’utilisation des filtres de Kalman pour le programme Apollo.

71
3.1 Introduction
Nous allons traiter dans ce chapitre du filtrage linéaire numérique. Un filtre
numérique est constitué d’un groupement d’entités logiques (circuits, processus
dédiés) astreints à un processus de calcul (ou algorithme) qui confère à ce filtre
une fonction déterminée (passe-bas, passe-haut, passe-bande, réjecteur de bande,
intégrateur, différentiateur,...). Le calcul porte sur une séquence (ou suite) de
nombres introduite à son entrée et qui fournit une séquence numérique mo-
difiée, c’est-à-dire filtrée ou traitée, à sa sortie. La plupart des modèles de filtres
analogiques (cf. Chapitre 3) peuvent ainsi être reproduits sous forme numérique.

Un filtre numérique est généralement constitué des éléments suivants :


• un ou plusieurs organes de retard (ce sont des registres à décalage jouant
le rôle de mémoires retardées) et pilotés par une horloge,

• des opérateurs arithmétiques (additionneurs et multiplieurs),

• des registres (programmables) fournissant les coefficients de pondération


du filtre.

La réalisation concrète d’un filtre numérique consistera en fait à matérialiser


l’algorithme de calcul pour la structure retenue. On aura pour cela la possibilité
de travailler :
• soit en logique câblée (assemblage d’organes logiques, tels que des portes,
mémoires, etc...),

• soit en logique programmée : organisation des opérations autour d’un


processeur de traitement du signal
(DSP - Digital Signal Processor), ou même, par l’utilisation d’un mi-
croprocesseur (micro-ordinateur) standard.

Le champ d’applications du filtrage numérique est très vaste puisqu’il va des


télécommunications au traitement de la parole, en passant par des systèmes
d’asservissement, les radars et sonars, la prospection sismique, la ”HI-FI”, etc...
C’est surtout, à l’origine, dans les télécommunications que leur usage s’est très
vite répandu car à la fois leur capacité de mémoire et la vitesse de traite-
ment se trouvaient adaptées à la plupart des fonctions remplies sous forme
numérique : codage-décodage et (dé-)compression d’images (JPEG - Joint Pho-
tographic Experts Group), de vidéos (MPEG - Moving Picture Experts Group)
et du sons (informatique, télévision numérique), modems, contrôleurs de disque
durs, accélérateurs graphique 3D, animation en réalité virtuelle, reconnaissance
d’images, suspensions actives d’automobiles, servo-moteurs à commande numé-
rique,....

Dans de nombreuses applications, sont utilisés des DSP dédiés, c’est-à-dire des
DSP qui sont directement ”programmés” avec un logiciel particulier à la concep-
tion (soit en ROM, soit câblé).

72
Les avantages du filtrage numérique par rapport au filtrage analogiques sont :

• la reproductivité : les caractéristiques de tous les filtres numériques


établis sur une même configuration sont rigoureusement identiques,

• la souplesse : la réponse en fréquence peut être très aisément modifiée


en changeant les
coefficients arithmétiques : le domaine des fréquences de travail est fa-
cilement déplacé par modification de la fréquence d’échantil-lonnage,

• la précision : les différentes manipulations étant effectuées sur des nombres,


la précision ne dépend, en grande partie, que de celle des CAN et CNA,

• l’association de filtres : la mise en série de filtres numériques ne pose au-


cun problème d’interaction, tel que celui que l’on rencontre pour l’adap-
tation des impédances des filtres analogiques,

• la stabilité des caractéristiques : pas de vieillissement des composants


dû à l’influence de la température sur les caractéristiques du filtre.

En revanche, les principaux inconvénients sont liés au problème de l’échantillon-


nage (spectre du signal toujours limité) nécessitant l’utilisation de processeurs
ayant une bonne rapiditié d’exécution pour pouvoir traiter des signaux ayant
une forte ”dynamique” (fréquences élevées) en temps réel.

D’une manière générale, les filtres numériques se caractérisent par le traite-


ment entièrement numérique du signal. Typiquement, les filtres numériques sont
représentés par :
• la réponse impulsionnelle,

• l’équation aux différences,

• la transformée en z (ou la fonction de transfert en z).

Comme pour le cas continu, le filtrage linéaire se traduit par l’emploi de la


convolution. Celle-ci s’exprime en discret par des additions et des multiplica-
tions. Quand un filtre numérique est représenté par une suite de nombres qui
constitue sa réponse impulsionnelle h(n), au signal à filtrer représenté par la
suite numérique x(n) = x(nTe ) correspond en sortie du filtre la suite filtrée y(n)
qui s’exprime par l’équation (2.19), c’est-à-dire par
+∞
X
y(n) = h(k) x(n − k) . (3.1)
k=−∞

Deux cas se présentent alors :

73
• Ou bien la sommation porte sur un nombre fini de termes, c’est-à-dire
que les h(k) sont nuls sauf pour un nombre fini de valeurs de la variable
entière k : c’est le filtre dit à réponse impulsionnelle finie (RIF) et en
faisant allusion à sa réalisation, on le désigne encore par non récursif
car il ne nécessite pas de boucle de réaction de la sortie sur l’entrée dans
sa mise en oeuvre. Il est à mémoire finie, puisqu’il ne garde le souvenir
que d’un signal élémentaire, une impulsion par exemple, que pendant
une durée déterminée. Les nombres h(k) sont appelés les coefficients du
filtre, qu’ils définissent complètement (Fig. 3.1).

• Ou bien la sommation porte sur un nombre infini de termes, les h(k)


ont une infinité de valeurs non nulles : le filtre est alors à réponse im-
pulsionnelle infinie (RII), ou encore de type récursif, car il faut réaliser
sa mémoire par une boucle de réaction de la sortie sur l’entrée. Son
fonctionnement est régi par une équation selon laquelle un élément de
la suite de sortie y(n) est calculée par la sommation pondérée d’un cer-
tain nombre d’éléments de la suite d’entrée x(n) et d’un certain nombre
d’éléments de la suite de sortie lors d’échantillons précédents et suivants
(Fig. 3.2).

x(n) z−1 z−1 z−1

a0 a1 a2 a L−1 aL

+ + + + + y(n)

Figure 3.1 – Structure directe (ou réalisation transverse) pour un filtre RIF
causal.

Par exemple, si L et K sont des entiers, le fonctionnement du filtre peut être


défini par l’équation suivante :
L
X K
X
y(n) = al x(n − l) − bk y(n − k) . (3.2)
l=0 k=1

Les al (l = 0, 1, · · · , L) et bk (k = 1, 2, · · · , K) sont les coefficients. Comme


pour les filtres analogiques, l’étude de ce type de filtre ne se fait pas en général
simplement de manière directe ; il est nécessaire le plus souvent de passer par
une transformation, la transformation en z.

Néanmoins, on peut exprimer le critère de stabilité suivant sur les coefficients


numériques : Un filtre est stable ssi sa réponse impulsionnelle est absolument
sommable :
+∞
X
| h(n) | < ∞ . (3.3)
n=−∞

74
a0
x(n) + + y(n)

z−1 z−1
a1 b1
+ −
z−1 z−1
a2 b2
+ −

a L−1 b K−1
+ −
z−1 z−1
aL bK
+ −

Partie non récursive : MA Partie récursive : AR

Figure 3.2 – Structure (ou réalisation) récursive pour un filtre RII causal : La
partie MA (Moving Average) est présente également sur les RIF. La partie AR
(Auto-Regressive) n’est présente que sur les RII.

A partir de la fonction de transfert en z

aL z −L + · · · + a1 z −1 + a0
H(z) = Y (z)/X(z) = (3.4)
bK z −K + · · · + b1 z −1 + 1
Un filtre numérique linéaire et causal est stable si et seulement si tous les pôles
de H(z) sont à l’intérieur du cercle unité (leur module doit être strictement
inférieur à 1).

Remarques :

• Un filtre linéaire non causal h(n) peut se décomposer en une partie cau-
sale h+ (n) et une partie anti-causale h− (n) : h(n) = h+ (n) + h− (n).
Deux fonctions de transfert H+ (z) et H− (z) caractérisent alors le filtre.
La partie anticausale est stable si tous les pôles de H− (z) sont à l’extérieur
du cercle unité.

• Filtre à minimum de phase : Si tous les zéros de H(z), fonction de trans-


fert en z d’un filtre numérique linéaire causal et stable, sont à l’intérieur
du cercle unité, alors le filtre est dit à minimum de phase.

• La présence des pôles est caractéristique des systèmes récursifs. Pour


ces systèmes, le domaine de convergence doit être précisé : en effet, de
même que pour l’équation aux différences récursives associée, la donnée
de la fonction de transfert en z ne définit pas un système unique. Ainsi,
si la fonction de transfert comporte P modules de pôles différents, il y a
P + 1 domaines de convergence possibles. Le système n’est stable qu’à
condition que le cercle |z| = 1 soit inclus dans le domaine de conver-

75
gence.

Par exemple, dans le cas de deux pôles (p1 et p2 ), il y a trois domaines


de convergence possibles (voir la figure 3.3) :
• choix du domaine 1 : |z| < |p1 | : système instable,
• choix du domaine 2 : |p1 | < |z| < |p2 | : système stable,
• choix du domaine 3 : |z| > |p2 | : système instable.

Im(z)
p2 x 3
2

2
1 Re(z)
−1 1
xp
1

Figure 3.3 – Domaines de stabilité et d’instabilité dans le plan en z.

Lorsqu’on doit synthétiser un filtre numérique à partir d’un gabarit analogique


donné, le choix se pose entre un filtre récursif ou un filtre non-récursif. Les raisons
avancées ci-dessous et les méthodes de synthèse que nous allons examiner pour
chacune des deux familles doivent permettre de trancher en faveur de l’une ou
de l’autre.
• Les filtres RII nécessitent un volume calculatoire moins important que
les filtres RIF,

• Les filtres RIF ont une phase linéaire (temps de propagation constant ,
quel que soit la fréquence) alors que les RII introduisent de la distorsion
de temps de propagation,

• Seuls les filtres RIF travaillent sur un horizon fini. Cela peut être impor-
tant si les données sont perturbées : un RII sera perturbé pendant une
durée importante alors qu’un RIF ne le sera que pendant N échantillons,

• Les RIF sont toujours stables : un RII peut être instable,

• Les RIF ont un bruit d’arrondi faible du fait de leur structure.

En conclusion, si on a besoin d’un filtre à phase linéaire, on utilisera un RIF ;


sinon on lui préfèrera un RII, plus efficace et donnant des ordres de filtres plus
faibles à zone de transition équivalente.

76
Figure 3.4 – Filtres idéaux usuels.

Figure 3.5 – Filtres idéaux usuels.

77
3.2 Filtres à réponse impulsionnelle finie (RIF)
Cette classe de filtres est à ”mémoire finie”, c’est-à-dire qu’un filtre RIF détermine
sa sortie en fonction d’informations d’entrée d’ancienneté limitée. En s’appuyant
sur l’équation aux différences (3.2), les filtres RIF correspondent alors à des
équations où les coefficients bk sont nuls. Les propriétés des filtres RIF vont
être mises en évidence sur l’exemple suivant. Soit un signal x(t) représenté par
ses échantillons x(nTe ), prélevés à la fréquence fe = 1/Te , et soit à déterminer
l’incidence sur le spectre de ce signal de l’opération qui consiste à remplacer la
suite x(nTe ) par la suite y(nTe ) définie par la relation :
1
y(nTe ) = [x(nTe ) + x((n − 1)Te )]
2
Cette suite est aussi celle qui est obtenue par échantillonnage du signal y(t) tel
que :
1
y(t) = [x(t) + x(t − Te )]
2
Si X(ω) et Y (ω) désignent les transformées de Fourier des signaux x(t) et y(t),
il vient :
1
Y (ω) = X(ω) (1 + e−jωTe )
2
L’opération étudiée correspond à la fonction de transfert H(ω) = Y (ω)/X(ω)
telle que :
H(ω) = e−jωTe /2 cos(ωTe /2)
C’est une opération de filtrage, appelée filtrage en cosinusoı̈de, qui conserve
la composante continue et élimine la composante à la fréquence fe /2. Dans
l’expression de H(ω), le terme complexe e−jωTe /2 caractérise un retard τ = Te /2
(phase linéaire) qui est le temps de propagation du signal à travers le filtre. La
réponse impulsionnelle h(t) qui correspond s’écrit :
· ¸
1 Te Te
h(t) = δ(t + ) + δ(t − )
2 2 2
La figure 3.6 représente les caractéristiques fréquentielles et temporelles de ce
filtre.
Cet exemple a permis de faire apparaı̂tre que l’entrée x(n) et la sortie y(n) sont
reliées par une équation aux différences avec un nombre finis de coefficients, que
la réponse impulsionnelle est symétrique par rapport à l’axe des temps, c’est-à-
dire que les coefficients du filtre doivent être symétriques. Deux configurations
se présentent alors :
• N = 2P + 1 : le filtre a un temps de propagation τ = P Te ,
• N = 2P : le filtre a comme temps de propagation τ = (P − 1/2) Te .
D’autre part, la fonction de transfert du filtre s’écrit sous la forme générique :
N
X −1
H(ω) = ak e−jωkTe , (3.5)
k=0

ou encore exprimée en fonction de la variable z :


N
X −1
H(z) = ak z −k (3.6)
k=0

78
Figure 3.6 – Le filtrage en cosinusoı̈de.

H(ω) est donc une fonction périodique de période fe = 1/Te . Les coefficients
ak (k = 0, 1, · · · , N − 1) constituent le développement en série de Fourier de
cette fonction. Si ces coefficients sont symétriques, la fonction de transfert H(ω)
peut se mettre sous la forme d’un produit de deux termes dont l’un est une
fonction réelle et l’autre un nombre complexe de module 1 représentant le
temps de propagation τ constant et égal à un multiple entier de la demi-période
d’échantillonnage. Un tel filtre est dit à phase linéaire.

La transformée en z d’un filtre RIF causal est donnée par


N
X −1
H(z) = h(n) z −n (filtre causal).
n=0

Pour un filtre RIF à phase linéaire (propriété de symétrie), il vient :

N
X −1
H(z) = h(n) z −n
n=0
N
X −1
= ±h(N − 1 − n) z −n
n=0
N
X −1
0
= ± h(n0 ) z −(N −1−n )
n=0
N
X −1
0
= ±z −(N −1) h(n0 ) z n
n=0

= ±z −(N −1) H(1/z) .

On voit donc que si le filtre possède un zéro en z = z0 , il en possèdera aussi un en


z = 1/z0 . Pour une paire de zéros complexes conjugués za = r ejθ et za? = r e−jθ ,
le filtre aura aussi pour zéros 1/za = (1/r) e−jθ et 1/za? = (1/r) ejθ . Cette pro-
priété permet par simple examen des zéros de la fonction de transfert de dire

79
si oui ou non le filtre est à phase linéaire. Par ailleurs, le théorème suivant est
également utile pour rendre le cas échéant un filtre à phase linéaire.

Théorème : Si un zéro réel z0 est remplacé par son inverse 1/z0 , ou si une paire
de zéros complexes conjugués (z1 , z1? ) est remplacée par la paire des inverses
(1/z1 , 1/z1? ), la réponse fréquentielle en amplitude est inchangée, à un facteur
constant près. La même propriété s’applique aux pôles (filtre RII).

De ce fait, les deux filtres de transmittances H1 (z) et H2 (z) données par

(z − z1 )(z − z1? )
H1 (z) =
z2
(z − 1/z1 )(z − 1/z1? )
H2 (z) =
z2

ont la même réponse en amplitude à une constante près. Aucun des deux
n’est cependant à phase linéaire. De même, les trois filtres de transmittances
H1 (z) H1 (z), H2 (z) H2 (z) et H1 (z) H2 (z) ont tous trois la même réponse en
amplitude à un facteur près, et seul le dernier est à phase linéaire.

3.2.1 Synthèse par la méthode des fenêtres


La problématique est la suivante : à partir d’un gabarit fréquentiel, effectuer la
synthèse d’un filtre RIF réalisable, c’est-à-dire déterminer la séquence numérique
finie h(n) (à N échantillons) correspondant à sa réponse impulsionnelle.

Figure 3.7 – Gabarit fréquentiel.

Le gabarit fréquentiel (cf. chapitre 3) est caractérisé par (par exemple) les gran-
deurs suivantes correspondant à l’illustration ci-dessus (Fig. 3.7). Ce gabarit ne
fournit pas d’informations précises sur la phase. On cherchera donc à conserver
une phase linéaire correspondant à un temps de propagation du signal dans le
filtre ce qui implique que la réponse impulsionnelle soit symétrique :
N −1
h(n) = h(N − 1 − n) , avec 0 ≤ n ≤ . (3.7)
2

80
D’autre part, le spectre d’un filtre numérique étant périodique, nous ne nous
intéressons qu’à la bande de base (une seule période). La démarche consiste
alors, pour des filtres dont la réponse en fréquence désirée à une forme analytique
simple (intégrable), d’appliquer la méthodologie suivante :
• Déterminer la longueur N de la séquence à partir du gabarit réel. Pour
cela, on emploie souvent la formule empirique suivante :
2 1 fe
N= log10 [ ]. (3.8)
3 10 δ1 δ2 ∆f
Cette estimation particulièrement simple est suffisante dans la plupart
des cas rencontrés en pratique. Elle met bien en évidence l’importance
relative des paramètres. La bande de transition ∆f = fs − fc est le
paramètre le plus sensible ; les ondulations en bande passante et affaiblie
ont une contribution secondaire.
• Calculer la réponse temporelle infinie du filtre à réponse en fréquence
voulue (gabarit idéal) en utilisant la transformée de Fourier inverse.
Cela permet d’obtenir les coefficients en limitant le calcul à N valeurs
réparties symétriquement autour de n = 0. Deux cas sont à distinguer :
• N impair :
1
R π/ωe
h(nTe ) = 2π −π/ωe
H(ω) ejωnTe dω

R 1
= Te 2Te
−1 H(f ) e2jnπf Te df,
2Te

• N pair :
1
R π/ωe
h(nTe ) = 2π −π/ωe
H(ω) e−jω/2 ejωnTe dω

R 1
= Te 2Te
−1 H(f ) e−jω/2 e2jnπf Te df .
2Te

• On tronque la réponse temporelle trouvée (pour obtenir un RIF) en la


multipliant par une fenêtre d’apodisation (de pondération) :

hN (n) = h(n) w(n) (exemple : fenêtre rectangulaire).


• Dans le cas d’un filtre causal, décaler la réponse impulsionnelle hN (n)
pour obtenir une solution causale.
• Vérifier les spécifications obtenues et au besoin modifier les paramètres
et recommencer.
Remarques :
• Méthode non optimale (N n’est pas minimale),
• La fenêtre est symétrique, le filtre obtenu est à phase linéaire,
• Les résultats sont approximatifs,
• L’apparition des ondulations est due au choix de la fenêtre de pondération,
pas à l’ordre du filtre (due aux lobes secondaires dans le spectre de la
fenêtre).

81
Fenêtre de Bartlett (triangulaire)
 2 n
 w(n) = N −1 si 0 ≤ n ≤ N 2−1
= 2 − N2 −1n
si N 2−1 ≤ n ≤ N − 1

= 0 ailleurs.
Fenêtre de Hanning
· ¸
1 2nπ
w(n) = 1 − cos( )
2 N −1
Fenêtre de Hamming
· ¸
2nπ
w(n) = 0.54 − 0.46 cos( )
N −1
Fenêtre de Blackman
· ¸
2nπ 4nπ
w(n) = 0.42 − 0.5 cos( ) + 0.08 cos( )
N −1 N −1
Fenêtre de Kaiser
q
I0 (β 1 − ( N2n 2
−1 − 1) )
w(n) =
I0 (β)
où I0 est une fonction de Bessel modifiée, de première espèce, d’ordre 0, s’ex-
primant par :
(x/2)2 (x/2)4
I0 (x) = 1 + 2
+ + ··· (3.9)
(1!) (2!)2

Figure 3.8 – Réponses temporelles des fenêtres usuelles de pondération.

82
Figure 3.9 – Réponses fréquentielles des fenêtres usuelles de pondération.

Table 3.1 – Propriétés des fenêtres de pondération

Type de Largeur de Ondulations Atténuations Atténuation


fenêtre transition en bande du 1er lobe en bande
∆f passante (dB) secondaire (dB) atténuée (dB)
Rectangle 1,8/N 0,7416 13 21
Hanning 6,2/N 0,0546 31 44
Hamming 6,6/N 0,0194 41 53
Blackman 11/N 0,0017 57 74
Kaiser 5,86/N 0,0274 50
(β = 4, 54)
8,64/N 0,00275 70
(β = 6, 76)
11,42/N 0,000275 90
(β = 8, 96)

83
Exemple : Soit à synthétiser par la méthode des fenêtres un filtre RIF d’ordre
5 dont le transfert se rapproche du gabarit donné à la figure 3.10. Par la trans-
formée de Fourier inverse, on obtient la réponse impulsionnelle idéale suivante
h(n) :


 h(0) = 1/2,
 h(2n + 1) = 0,
(−1)n nπ

 h(2n) = sin( 2 ) , ∀ n ≥ 1 ,
 kπ
h(−n) = h(n)

Figure 3.10 – Synthèse de filtre RIF par la méthode des fenêtres.

L’axe de symétrie que requiert la linéarité de la phase est placé au rang (N −1)/2.
Il suffit alors de translater h(n) de cette valeur et de tronquer la réponse infinie
pour obtenir le résultat (figure 3.10, en bas). On remarque clairement les défauts
de la méthode, liés à la troncature, se traduisant par des ondulatios dans les
bandes et un élargissement des zones de transition.

84
3.2.2 Méthode de l’échantillonnage fréquentiel
Lorqu’une réponse impulsionnelle h(n) est de durée finie N , on sait que l’on
peut échantillonner son spectre H(f ) (ou H(ω)) en au moins N points sans
provoquer de repli dans la bande de base. Dès lors, l’idée assez naturelle qui
surgit est de se dire que l’on peut échantillonner H(f ) selon le nombre de points
voulu. Cette méthode de synthèse emploie la Transformée de Fourier Discrète
inverse. Il faut cependant être conscient du fait qu’en toute généralité, la réponse
impulsionnelle idéale souhaitée n’est pas de durée limitée.
N N
H(k) = H(f )f =k/N , pour k = − ,··· , +1 (3.10)
2 2

La transformée de Fourier Discrète inverse fournit h(n) :

N/2+1
1 X k
h(n) = H(k) ej2π N n (3.11)
N
k=−N/2

= 0 ailleurs. (3.12)

Cette méthode de synthèse ne garantit que les points fréquentiels H(k). Entre
ces points, la valeur de H(f ) n’est pas maitrisée.

La structure de réalisation est alors obtenue par la transformée en z :


N
X −1
H(z) = h(n) z −n (signal causal) (3.13)
n=0

N/2−1
X
H(z) = h(n) z −n . (3.14)
n=−N/2

Figure 3.11 – Exemple d’échantillonnage de la réponse fréquentielle.

85
3.3 Filtres à réponse impulsionnelle infinie (RII)
3.3.1 Méthode de l’Invariance Impulsionnelle
Le principe est basé sur l’échantillonnage de la réponse impulsionnelle. A partir
de la fonction de transfert d’un filtre analogique H(s), on calcule la réponse im-
pulsionnelle h(t) (par la Transformée inverse de Laplace), puis on échantillonne
celle-ci, h? (t) : les échantillons obtenus h(n) = h? (t)t=nTe forment alors la
séquence numérique permettant la réalisation du filtre.

La transformation
z = esTe (3.15)
établit une correspondance entre la bande du plan de Laplace comprise entre
−fe /2 ≤ Im(s) ≤ fe /2 et Re(s) ≤ 0, et l’intérieur du cercle unité dans
le plan en z. La méthode se base sur l’invariance de la réponse impulsionnelle
dans la bande limitée considérée. La réponse impulsionnelle d’un filtre récursif
étant infinie, il est donc nécessaire de faire l’hypothèse que la Transformée de
Fourier de cette dernière est nulle en dehors de la bande [−fe /2, fe /2].
Cette hypothèse très restrictive est rarement satisfaite et induit un repliement
spectral destructif au niveau de la génération du filtre. On emploie donc généralement
cette méthode que pour des signaux à bande limitée et des filtres (uniquement
passe-bas et passe-bande) dont la fréquence de coupure reste très inférieure à la
fréquence de Shannon.

Exemple : Soit à synthétiser par la méthode de l’invariance impulsionnelle un


filtre passe-bas du premier ordre
½ 1
H(s) = 1+jω τ
1 −t/τ
h(t) = τ e Γ(t)

Si on échantillonne cette réponse impulsionnelle à la fréquence fe , il vient :


+∞
1 X −kTe /τ
h? (t) = e δ(t − kTe )
τ
k=0

dont la transformée de Laplace est :


+∞
? 1 X −kTe (s+ 1 ) 1 1
H (s) = e τ =
τ τ 1 − e−Te (s+ τ1 )
k=0

par la transformation de l’invariance imulsionnelle, on obtient la fonction de


transfert en z :
1 1
H(z) ≡
τ 1 − e−Te /τ z −1
Il faut que dans la bande passante, le gain de la fonction de transfert en z soit
égal au gain de la fonction de transfert en s, donc puisque pour s = 0 on a z = 1,
il faut multiplier la fonction de transfert en z par τ (1 − e−Te /τ ) et finalement :

(1 − e−Te /τ )
H(z) =
1 − e−Te /τ z −1

86
On a tracé sur la figure 3.12 les fonctions de transfert en s et en z du filtre
numérique.

Figure 3.12 – Synthèse d’un filtre passe-bas par l’invariance impulsionnelle.

3.3.2 Synthèse par la Transformation bilinéaire


C’est la méthode la plus employée pour synthétiser des filtres récursifs. La trans-
formation bilinéaire (ou TBL) permet d’établir une bijection entre la partie
gauche du plan complexe laplacien et l’intérieur du cercle dans le plan z

2 1 − z −1 2/Te + s
s= ou inversement : z= (3.16)
Te 1 + z −1 2/Te − s

On conserve ainsi la stabilité dans le passage du filtre analogique au filtre


numérique. Néanmoins, la transformation bilinéaire agit comme une relation
non-linéaire entre les fréquences fa du domaine analogique et les fréquences fd
du domaine numérique. Elle déforme le gabarit lors du changement de plan
complexe, et on est obligé d’effectuer une transposition du gabarit numérique
au gabarit analogique à l’aide des formules

1 1
πfa = tan(πfd Te ) ou inversement : fd = tan−1 (πfa Te ) (3.17)
Te πTe

87
La méthodologie pour la synthèse d’un filtre numérique est la suivante :
• Définir le gabarit du filtre numérique,

• Convertir ce gabarit en un gabarit correspondant au filtre analogique


par la relation 3.17,

• Faire la synthèse du filtre analogique (Butterworth, Tchebichev, ellip-


tique,...) pour obtenir la fonction de transfert H(s)

• Transformer H(s) en H(z) en utilisant la transformation bilinéaire 3.16.

Exemple : Soit à synthétiser un filtre numérique passe-bande (de centre fc =


0.318Hz) de fonction de transfert fréquentielle en gain

ωc2
H(s) = √
s2 + 2ωc s + ωc2

On applique la transformation bilinéaire pour ωc = 2 rad/s et Te = 2 s, on


obtient alors la fonction de transfert en z
0.0302 (z 2 + 2z + 1)
H(z) =
z 2 − 1.4514z + 0.5724
à partir de laquelle on peut déterminer immédiatement l’équation aux différences
(en passant en z −1 ).

88
3.4 Exercices
1. Montrer que la Transformée de Fourier Discrète d’une convolution circu-
laire des signaux x et h correspond au produit X(k) H(k) des Transformées
Discrètes.

2. Etablir la relation de récurrence (équation aux différences) donnant y(n)


ainsi que la fonction de transfert H(z) du filtre dont la structure directe
est la suivante :
x(n)
z−1 z−1

1/4 1/2 1/4


y(n)
+ +

Figure 3.13 – Structure directe d’un filtre causal (type RIF).

3. On cherche à synthétiser, par la méthode des fenêtres, un filtre passe-


bande de fréquences de coupure fmin et fmax correspondant aux angles
θmin = 2πfmin Te et θmax = 2πfmax Te du cercle unité. Ce filtre aura un
gain unité entre les fréquences fmin et fmax et nul en dehors.

(a) Déterminer les coefficients de la réponse impulsionnelle idéal.

Rappel du calcul des coefficients d’un filtre RIF


Z +1/(2Te )
h(n) = Te H(f ) e2jπnf Te df
−1/(2Te )

(b) Comparer les valeurs trouvées pour les échantillons de h(n), symétriques
quand N = 11, fe = 8 kHz, fmin = 1 kHz et fmax = 2 kHz avec ceux
indiqués ci-dessous et correspondant respectivement à :

– la multiplication de h(n) par une fenêtre rectangulaire :


[0.1004; −0.0000; −0.1674; −0.1471; 0.0862; 0.2311; 0.0862; −0.1471; −0.1674; −0.0000; 0.1004]
(commande Matlab : fir1(10, [0.25 0.5], boxcar(11))’ )

– la multiplication de h(n) par une fenêtre de Hanning :


[0.0109; −0.0000; −0.1359; −0.1792; 0.1306; 0.3753; 0.1306; −0.1792; −0.1359; −0.0000; d0.0109]
(commande Matlab : fir1(10, [0.25 0.5], hanning(11))’ )

1
Rep : a) h(n) = πn {sin[2πnfmax Te ] − sin[2πnfmin Te ]}

89
4. Déterminer :
(a) la réponse fréquentielle (fonction de transfert),
(b) la réponse impulsionnelle,
du filtre RIF numérique suivant caractérisé par l’équation aux différences
numériques : y(n) = [x(n) + 2 x(n − 1) + x(n − 2)]/4 .

Quelle est le temps de propagation d’un signal dans le filtre ?

Rep :

Figure 3.14 – Le filtrage en cosinusoı̈de surélevée.

5. Déterminer, par la méthode de l’échantillonnage fréquentiel, les coeffi-


cients de la réponse impulsionnelle du filtre numérique dont la réponse
fréquentielle est illustrée sur la figure 3.15 ci-dessous (les coefficients H(k)
correspondent aux points noirs). On se limitera à N = 7 échantillons.

0.7

0.15

−0.1
−0.22

Figure 3.15 – Exercice sur l’échantillonnage de la réponse fréquentielle.

90
6. Montrer que la transformation bilinéaire conserve la stabilité, lors de la
transformation du plan complexe s = σ + j ω des systèmes linéaires conti-
nus, au plan complexe z = eTe s des systèmes échantillonnés.

7. En analysant la réalisation suivante, déterminer à quel type de filtre elle


correspond et déterminer l’équation aux différences numériques correspon-
dante. Quelle est l’expression de la transmittance H(z) = Y (z)/X(z) ?

x(n) +
b2

z −1
z −1
+
b1 +

z −1
z −1
+
y(n)

Figure 3.16 – Réalisation d’un filtre causal du second ordre.

8. Déterminer l’équation aux différences numériques d’un filtre RII normalisé


non causal et dont la réponse impulsionnelle h(x) continue (et symétrique)
est h(x) = C e−α|x| et représentée ci-dessous :

h(x)
C

Figure 3.17 – Réponse impulsionnelle du filtre 1-D de lissage de Shen-Castan.

avec C et α deux constantes réelles. On prendra Xe = 1 comme fréquence


(spatiale) d’échantillonnage. On essaiera d’abord d’exprimer la normali-
sation, puis les transmittances en z des parties causales et anti-causales.

91
92

Vous aimerez peut-être aussi