59 PDF Num

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 187

Cours d’électronique

numérique
Camille Diou, Maître de Conférences
Laboratoire Interfaces Capteurs et Microélectronique
Université Paul Verlaine–Metz

Format A5 – Version du 24 février 2009


m Notes sur cet ouvrage n

Ce document est à la date d’aujourd’hui (24 février 2009) toujours


en phase d’écriture. Il est donc nécessairement incomplet et peut même
encore comporter des erreurs qui n’auraient pas été détectées.
Ce document doit notamment s’enrichir à l’avenir des points sui-
vants (dans le désordre) :

+ la logique mixte
+ compléter la simplification des fonctions logiques
+ méthode de Quine/McCluskey → fait
+ ajouté : méthode de Petrick
+ ajouté : algorithme Espresso (à détailler)
+ diagrammes de Venn, Johnston et Caroll
+ familles logiques et spécifications électriques
+ étude des systèmes programmables évolués (en complément du
chapitre actuel)
+ synthèse des systèmes séquentiels synchrones
+ machines d’états (Moore, Huffman, Mealey)
+ synthèse des systèmes séquentiels asynchrones
+ arithmétique binaire et opérateurs arithmétiques
+ compléter les exercices et corrigés

3
Notes sur cet ouvrage

m Ce document a été réalisé à l’aide des logiciels TEX et LATEX sous les environ-
nements TEXLive, TeTEX puis MiKTEX. Les diagrammes sont réalisés à l’aide de
XY-pic. Une partie des schémas électronique est réalisée à l’aide du paquetage
CIRC

CIRC .ü

m La police utilisée pour le texte principal est Fourier.


m Les descriptions bibliographiques/hieoriques présentes dans les entêtes de
chapitres sont composées en DayRoman comportant les ligatures c t (c) et
s t (e).
m Quant à l'extrait du texte de Blaife Pafcal en préambule du chapitre 2, il ee
également compofé dans la police DayRoman, mais dotée notamment du s
long (f ) et des ligatures f s (ÿ). Les ligatures alternatives f f (g ) et H
(A) ne sont pas utilisées dans ce document).

4 ©2002–2009 C. Diou
m Table des matières n

Partie I : Les nombres 9


1 Les systèmes de numération 11
1.1 La représentation polynomiale . . . . . . . . . . . . . . . . . . . . . 11
1.2 Le système binaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Le système octal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Le système hexadécimal . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5 Conversion d’un système de numération à un autre . . . . . . . . . 14

Exercices sur les nombres 17


2 Codage des nombres dans les machines numériques 19
2.1 Représentation des nombres entiers positifs . . . . . . . . . . . . . 20
2.2 Représentation binaire des entiers signés . . . . . . . . . . . . . . . 20
2.3 Représentation des nombres réels dans un calculateur . . . . . . . 22
2.4 Arithmétique binaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5 En résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Exercices sur l’arithmétique binaire 35

3 Les codes numériques 37


3.1 Codes numériques pondérés . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Codes numériques non pondérés . . . . . . . . . . . . . . . . . . . 41
3.3 Codes détecteurs d’erreurs et autocorrecteurs . . . . . . . . . . . . 45
3.4 Les codes alphanumériques . . . . . . . . . . . . . . . . . . . . . . . 48

Exercices sur les codes 49

Partie II : La logique combinatoire 51


4 Algèbre booléenne et opérateurs logiques 53
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

5
Table des matières

4.2 Propriétés de l’algèbre booléenne . . . . . . . . . . . . . . . . . . . 55


4.3 Algèbre binaire ou algèbre de commutation . . . . . . . . . . . . . 56
4.4 Théorèmes monovariables . . . . . . . . . . . . . . . . . . . . . . . 57
4.5 Théorèmes multivariables . . . . . . . . . . . . . . . . . . . . . . . . 58
4.6 Opérateurs logiques élémentaires et composés . . . . . . . . . . . 63
4.7 Universalité des portes NON-ET et NON-OU . . . . . . . . . . . . . . 67

5 Représentation et simplification des fonctions logiques 71


5.1 Méthodes de représentation des fonctions logiques . . . . . . . . . 71
5.2 Simplification d’expressions logiques . . . . . . . . . . . . . . . . . 77
5.3 Simplifications par méthodes algorithmiques . . . . . . . . . . . . 82

6 Les circuits combinatoires 91


6.1 Circuits logiques combinatoires usuels . . . . . . . . . . . . . . . . 91
6.2 Synthèse des circuits combinatoires . . . . . . . . . . . . . . . . . . 99

7 Fonctions et opérateurs arithmétiques 105

Exercices sur les systèmes combinatoires 107

Partie III : Les circuits séquentiels 109


8 Les bascules 111
8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
8.2 Point mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
8.3 Bascule RS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
8.4 Bascule RS synchrone ou bascule RSH . . . . . . . . . . . . . . . . 117
8.5 Bascule à verrouillage (D-latch) . . . . . . . . . . . . . . . . . . . . . 118
8.6 Bascules maître-esclave . . . . . . . . . . . . . . . . . . . . . . . . . 119
8.7 Bascule JK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
8.8 Bascule D synchrone . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
8.9 Bascule T . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
8.10 Entrées prioritaires asynchrones des bascules . . . . . . . . . . . . 123
8.11 Paramètres temporels des bascules . . . . . . . . . . . . . . . . . . 124
8.12 Applications des bascules . . . . . . . . . . . . . . . . . . . . . . . . 125

9 Registres : stockage et transfert de données 129


9.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
9.2 Registre de mémorisation : écriture et lecture parallèles . . . . . . 130
9.3 Registres à décalage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

6 ©2002–2009 C. Diou
Table des matières

9.4 Registre universel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132


10 Les compteurs 133
10.1 Compteur asynchrone (à propagation) . . . . . . . . . . . . . . . . 134
10.2 Compteur synchrone (parallèle) . . . . . . . . . . . . . . . . . . . . 139
10.3 Résumé sur les méthodes de conception des compteurs . . . . . . 143

11 Méthodes d’étude des circuits séquentiels 147

Partie IV : Architecture des ordinateurs 149


12 Concepts de base des processeurs 151

Partie V : Technologie des portes logiques 153


13 Famille des circuits logiques 155
13.1 Caractéristiques d’une famille de circuits numériques . . . . . . . 156
13.2 Évolution des différentes familles logiques . . . . . . . . . . . . . . 157
13.3 Présentation des différentes familles logiques . . . . . . . . . . . . 158
13.4 Implantation des opérateurs en technologie CMOS . . . . . . . . . 171

Partie VI : Annexes 173


A Examen sur les systèmes de numération sumérien et babylonien 175
A.1 Numération . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
A.2 Arithmétique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
A.3 Conversion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
A.4 Comptage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
A.5 Codage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181

B Correction des exercices 183


Index 185
Bibliographie 187

©2002–2009 C. Diou 7
Première partie

Les nombres
m Chapitre 1 n
Les systèmes de numération
Gottfried Wilhelm von Leibnitz
? jui. 1646, Allemagne
† 1716

Ce philosophe d'origine Allemande ee l'inventeur d'une machine permerant de calculer


direcement les 4 opérations de base. Il ee aussi celui qui a introduit la notion de binaire
en Occident.

1.1 La représentation polynomiale


Si nous manipulons les nombres de manière intuitive, c’est la plupart du temps
dans la base décimale, naturelle et universelle. Mais cela ne doit pas masquer
la nature même de la numération qui peut prendre plusieurs formes, parmi
lesquelles on trouve la théorie des ensembles et la représentation polynomiale.
La représentation polynomiale d’un nombre est sa représentation sous la
forme suivante, où b est appelée la base :
a n−1 b n−1 + a n−2 b n−2 + · · · + a 2 b 2 + a 1 b + a 0 + a −1 b −1 + a −2 b −2 + · · · + a −m b −m
Si la base 10 nous est familière, d’autres bases existent et les bases les
B plus utilisées en informatique sont les bases 10, 2, 8 et 16 appelées res-
pectivement « décimale », « binaire », « octale » et « hexadécimale ».
Ï Remarque 1.1
– Toute base s’écrit 10 (un-zéro) dans son propre système de numérotation
– Un décalage à gauche multiplie un nombre par sa base
– Un décalage à droite divise un nombre par sa base

11
Chapitre 1 : Les systèmes de numération

1.2 Le système binaire


1.2.1 Introduction
Le système décimal est malheureusement difficile à adapter aux mécanismes
numériques, car il est difficile de concevoir du matériel électronique fonction-
nant sur dix plages de tensions différentes.
On lui préférera donc le système binaire :
– base B=2 ;
– 2 symboles : {0, 1} appelés « éléments binaires » ou « bits » (bit=Binary digIT ) ;
– le système binaire est pondéré par 2 : les poids sont des puissances de 2 ;
B Exemple 1.1
26 25 24 23 22 21 20 2−1 2−3 2−3
1 0 1 1 0 0 1 , 0 1 1
– les différentes puissances de 2 sont :
20 2 1 22 2 3 2 4 2 5 2 6 2 7 28 29 210
1 2 4 8 16 32 64 128 256 512 1024
– un ensemble de 8 bits est appelé « octet » (ou byte).

1.2.2 Comptage binaire


On présente les nombres binaires en général avec un nombre fixe de bits,
nombre imposé par les circuits mémoires utilisés pour représenter ces nombres.
Suite des nombres binaires à 4 bits :

Poids : 23 22 21 20 B10
0 0 0 0 0
0 0 0 1 1
0 0 1 0 2
0 0 1 1 3
0 1 0 0 4
0 1 0 1 5
0 1 1 0 6
0 1 1 1 7
1 0 0 0 8
1 0 0 1 9

12 ©2002–2009 C. Diou
1.3. Le système octal

1 0 1 0 10
1 0 1 1 11
1 1 0 0 12
1 1 0 1 13
1 1 1 0 14
1 1 1 1 15
Le bit le plus significatif – le bit le plus à gauche – est appelé « bit de poids fort »
ou MSB (Most Significant Bit). Le bit le moins significatif – le bit le plus à droite
– est appelé « bit de poids faible » ou LSB (Less Significant Bit).
Si on utilise N bits, on peut représenter 2N valeurs différentes de 20 à 2N −1
B Exemple 1.2
N = 8 : 00000000 → 11111111 ↔ 255
Ï Remarque 1.2
Comme l’on traite souvent en micro-informatique de nombres à 8 ou 16 élé-
ments binaires (e.b.), on se sert des systèmes :
– octal : à base 8 ;
– hexadécimal : à base 16.

1.3 Le système octal


– base B=8 ;
– 8 symboles : {0, 1, 2, 3, 4, 5, 6, 7} ;
L’intérêt de ce système est que la base 8 est une puissance de 2 (8 = 23 ), donc les
poids sont aussi des puissances de 2. Chaque symbole de la base 8 est exprimé
sur 3 éléments binaires : (a i )8 = b i 2 b i 1 b i 0
B Exemple 1.3
(52, 3)8 = 101 010, 011

1.4 Le système hexadécimal


– base B=16 ;
– 15 symboles : {0, 1, 2, . . . , 9, A, B,C , D, E , F } appelés « digits » ;
– chaque symbole est exprimé en binaire sur 4 bits ;
B Exemple 1.4
(F 3D, 2)16 = 1111 0111 1101, 0010

©2002–2009 C. Diou 13
Chapitre 1 : Les systèmes de numération

1.5 Conversion d’un système de numération à un


autre
1.5.1 Base B vers base 10
(a n . . . a 0 )B = a n B n + · · · + a 0 B 0 = (a m
0
. . . a 00 )10
B Exemple 1.5
(1001, 1)2 = 1.23 + 0.22 + 0.21 + 1.20 + 1.2−1 = 8 + 0 + 0 + 1 + 0, 5 = 9, 5
(A12)16 = A.162 + 1.161 + 2.160 = 2560 + 16 + 2 = 2578

1.5.2 Base 10 vers base B


1.5.2.a Première méthode, dite « à soustractions successives »
Elle consiste à soustraire successivement la plus grande puissance de B .
B Exemple 1.6
1.26

100 = + 36 
36 = 1.25 + 4 → (100)10 = (1100100)2
1.22

4 = + 0

1.5.2.b Deuxième méthode, à division par B


Elle consiste à diviser par B autant de fois que cela est nécessaire pour obtenir
un quotient nul. Ensuite on écrit les restes dans l’ordre inverse de celui dans
lequel ils ont été obtenus.
Pour la partie fractionnaire on multiplie par B jusqu’à obtenir un résultat nul
ou la précision souhaitée.
B Exemple 1.7
(20, 4)10 = (?)2
Partie entière :

20 2
0 10 2
0 5 2
1 2 2
0 1 2
1 0

14 ©2002–2009 C. Diou
1.5. Conversion d’un système de numération à un autre

Partie fractionnaire :

0, 4 ×
2
0 0, 8 → 0, 8 ×
2
1 1, 6 → 0, 6 ×
2
1 1, 2

Le résultat est donc 10100,0110.

1.5.3 Base 2n vers base 2


Chaque symbole de la base B = 2n peut être représenté par n éléments bi-
naires.
B Exemple 1.8
(3A9)16 = (0011 1010 1001)2
(742, 5)8 = (111 100 010, 101)2

1.5.4 Base 2 vers base 2n


Il suffit de regrouper les éléments binaires par paquets de n.
B Exemple 1.9
(1011011)2 = (|{z}
001 |{z}
011 |{z}
011 )2 = (133)8
1 3 3
= (0101
| {z } 1011
| {z })2 = (5B )16
5 B

1.5.5 Base i vers base j


– si i et j sont des puissances de 2, on utilise la base 2 comme relais ;
B Exemple 1.10
base 8 → base 2 → base 16
– sinon, on utilise la base 10 comme relais.
B Exemple 1.11
base 5 → base 10 → base 2

©2002–2009 C. Diou 15
m Les nombres n
Ï Exercice 1.1
B
Convertir en binaire, octal et hexadécimal les nombres décimaux suivants :
43 ; 154 ; 25740

Ï Exercice 1.2
B
Convertir en décimal et hexadécimal les nombres suivants :
(1101110)2 ; (75)8 ; (587)8

Ï Exercice 1.3
B
Convertir en binaire et hexadécimal les nombres suivants :
(166, 25)10 ; (126, 34)8 ; (231, 1)4

Ï Exercice 1.4
B
Convertir en binaire le nombre décimal suivant : 24537

Ï Exercice 1.5
B
Convertir en décimal les nombres suivants :
(D9, 4)H ; (576)8

17
2.2. Représentation binaire des entiers signés

2.2.2 Représentation en complément restreint (CR) ou


complément à 1 (C1)
−A = A : pour prendre l’inverse d’un nombre, il suffit de le complémenter (in-
version de tous ses bits). Comme dans le cas précédent, la nature du premier
bit donnera le signe : 0 ↔ + et 1 ↔ −.
B Exemple 2.3
½
+5 → 0101
avec 4 bits :
−5 → 1010

Problème : de nouveau, on a deux représentations différentes pour le zéro.

2.2.3 Représentation en complément vrai (CV) ou complément


à 2 (C2)
C’est la représentation la plus utilisée. Le bit le plus à gauche est encore le bit
de signe : 0 ↔ + et 1 ↔ −.
−A = A +1
A = a n−1 a n−2 · · · a 0 1
A+A = 11 ... 1
1+ A + A = 1←0 . . . 0} 2
| 0{z
0

⇒ −A = A + 1 est appelé complément à 2


Ï Remarque 2.1
– pour passer d’une valeur négative à une valeur positive, on applique aussi le
complément à 2 ;
– une seule représentation pour le zéro ;
– avec des mots de n éléments binaires, on obtient 2n valeurs différentes, de 0 à
2n−1 −1 pour les valeurs positives, et de −1 à −2n−1 pour les valeurs négatives ;

B Exemple 2.4 ½
nb > 0 de 0 à 127
n=8⇒
nb < 0 de − 1 à − 128

1. on complémente chaque coefficient


2. car on représente sur n bits seulement

©2002–2009 C. Diou 21
Chapitre 2 : Codage des nombres dans les machines numériques

– nb ≥ 0 → bit de signe = 0 nb < 0 → bit de signe = 1


– pour représenter un nombre positif sur une mémoire de taille donnée, on com-
plète les cases vides de gauche par des 0 ; pour représenter un nombre négatif
sur une mémoire de taille donnée, on complète les cases vides de gauche par
des 1 ;
B Exemple 2.5
+13 sur 8 bits : 00001101, −13 sur 8 bits : 11110011

Ï Remarque 2.2
La représentation en complément vrai est en fait une écriture polynomiale (donc
pondérée) du nombre, de même que le code binaire naturel, à ceci près que le bit
de poids fort à un poids négatif ( cf. § 3.1.2 page 38) :
−a n−1 b n−1 + a n−2 b n−2 + · · · + a 2 b 2 + a 1 b + a 0 + a −1 b −1 + a −2 b −2 + · · · + a −m b −m

2.2.4 Représentation en code relatif à 2n−1


Les nombres x sont représentés par 2n−1 + x.
On constate ici que le bit de signe est inversé par rapport aux représentations
précédentes : ce code est en fait identique au codage en complément à 2 avec
le bit de signe complémenté.
On calcul l’inverse d’un nombre en relatif à 2n−1 comme en complément à 2
en complémentant le nombre puis en ajoutant 1.

2.3 Représentation des nombres réels dans un cal-


culateur
Dans un calculateur, un nombre est toujours écrit sous forme d’un bloc de
n éléments binaires (considéré comme un entier N ). Pour représenter les
nombres fractionnaires il est nécessaire de définir la position de la virgule. Pour
ce faire, il existe deux méthodes :
– la représentation en virgule fixe ;
– la représentation en virgule flottante.

22 ©2002–2009 C. Diou
2.3. Représentation des nombres réels dans un calculateur

2.3.1 La représentation en virgule fixe


On décide que la virgule est toujours à une position donnée (un entier peut être
représentatif d’un nombre fractionnaire si on connaît la place de la virgule).
B Exemple 2.6
Virgule au rang K (K chiffres après la virgule) :
La valeur N écrite en mémoire aura les poids suivants :
N = 2N −1−K · · · 20 2−1 2−K 0 ≤ N ≤ (2n − 1)2−K
Virgule au rang 0 :
N = 2N −1 · · · 20 0 ≤ N ≤ 2N − 1
Inconvénient de la méthode :
– problème de gestion de la virgule notamment dans les multiplications (pour
les additions et soustractions pas de problème, la position de la virgule ne
change pas) ;
B Exemple 2.7
Si on décide de définir 2 symboles pour les parties entières et 2 symboles pour
les parties fractionnaires, on ne peut plus écrire 256, 1.
– utilisation limitée lorsqu’on traite des données de grandeurs différentes, car
on doit prendre un grand nombre de bits de part et d’autre de la virgule pour
pouvoir représenter des grandeurs très faibles et des grandeurs très impor-
tantes.

2.3.2 La représentation en virgule flottante simplifiée


2.3.2.a Introduction [WebMul]
Il arrive dans de nombreux domaines que l’intervalle des valeurs numériques
pertinentes soit particulièrement étendu. L’astronomie en est un exemple
extrême puisque certains calculs peuvent faire intervenir simultanément la
masse du soleil (2.1030 kg) et la masse de l’électron (9.10−31 kg). Ces deux
nombres diffèrent de plus de 60 ordres de grandeur (1060 ) !
Des calculs faisant intervenir ces nombres pourraient s’effectuer en précision
multiple, avec par exemple des nombres de 62 chiffres. Tous les opérandes et
tous les résultats seraient représentés par des nombres de 62 chiffres. Cepen-
dant, la masse du soleil n’est connue qu’avec une précision de 5 chiffres, et il n’y
a en physique pratiquement aucune mesure que l’on puisse réaliser avec une
précision de 62 chiffres. Une solution serait alors d’effectuer les calculs avec

©2002–2009 C. Diou 23
Chapitre 2 : Codage des nombres dans les machines numériques

une précision de 62 chiffres et de laisser tomber 50 ou 60 d’entre eux avant


d’annoncer les résultats, mais ceci est coûteux à la fois en espace mémoire et
en temps de calcul.
En fait, ce qu’il faut est un système permettant de représenter des nombres, tel
que la taille de l’intervalle des nombres "exprimables" soit indépendante du
nombre de chiffres significatifs.

2.3.2.b Principe de la représentation en virgule flottante


Le nombre N est représenté sous la forme :
exposant mantisse
1ère approche :
Soit N = a 3 a 2 a 1 a 0 , a −1 a −2 a −3 : N peut se noter :
2−3
(a 6 a 5 a 4 a 3 a 2 a 1 a 0 ). |{z}
| {z }
mantisse exp
½
exposant = −3

mantisse = a 6 a 5 a 4 a 3 a 2 a 1 a 0
Les valeurs de la mantisse et l’exposant seront notées en complément à 2 en
mémoire du calculateur
B Exemple 2.8
Soit la mémoire de taille suivante :
4 bits 12 bits
exposant mantisse

Coder la valeur 26, 75 en virgule flottante.


(26, 75)10 = (11010, 110)2
(11010, 11)2 = (11010110).2−3
½
exposant = −3

mantisse = 11010110
1101 0000011010110
| {z }| {z }
exp=−3 mantisse=214
26, 75 = 214.2−3

2ème approche :
C’est la méthode inverse de la précédente : on considère que le bit le plus à
gauche de la mantisse a pour poids 2−1 .

24 ©2002–2009 C. Diou
2.3. Représentation des nombres réels dans un calculateur

Soit : N = a 3 a 2 a 1 a 0 , a −1 a −2 a −3
24
N peut aussi se noter (0, a −1 a −2 a −3 a −4 a −5 a −6 a −7 ). |{z}
| {z }
mantisse exp

B Exemple 2.9
Même exemple que précédemment :
(26, 75)10 = (11010, 110)2 −→ (0, 11010110).25
0101 110101100000

Ï Remarque 2.3
Les ordinateurs utilisent cette représentation avec 32 bits pour la mantisse et 8
bits pour l’exposant. En général, on utilise la représentation inverse, avec le bit
le plus à gauche égal à 1, soit une mantisse normalisée ⇒ 0, 5 ≤ M < 1

2.3.3 La représentation IEEE 754


2.3.3.a Présentation [WebMul]
Le standard IEEE 754 définit trois formats : les nombres en simple précision
sur 32 bits, les nombres en double précision sur 64 bits, et les nombres en re-
présentation intermédiaire sur 80 bits. La représentation sur 80 bits est prin-
cipalement utilisée en interne par les processeurs pour minimiser les erreurs
d’arrondi.
Un nombre N de 32 bits est représenté sous la forme :
s exposant mantisse
où le signe « s » est codé sur 1 bit, l’exposant est codé sur 8 bits en code relatif à
127 (cf. § 2.2.4 page 22), et la mantisse sur 23 bits.
Un nombre de 64 bits (double précision) utilise la même représentation à ceci
près que la taille de l’exposant est portée à 11 bits en code relatif à 1023, et celle
de la mantisse à 52 bits.
Une mantisse normalisée commence toujours par un bit 1, suivi par la virgule,
puis par le reste de la mantisse. Le bit initial, toujours présent et toujours à 1
dans une mantisse normalisée est implicite et non représenté. La valeur de la
mantisse est appelée « significande » ; le significande a donc une valeur impli-
cite 1 ≤ x < 2.
B Exemple 2.10
– 1 = 20 × (1 + 0)

©2002–2009 C. Diou 25
Chapitre 2 : Codage des nombres dans les machines numériques

Le bit de signe sera 0, l’exposant, en code relatif à 127 sera représenté par 127 =
01111111, et le significande vaut 1, ce qui résulte en une mantisse dont tous les bits
sont à 0. La représentation IEEE simple precision IEEE 754 du nombre 1 est donc :
Code(1) = 0 01111111 0000...0 = 3F 800000
s e m
– 0.5 = 2−1 × (1 + 0)
Le bit de signe est 0, l’exposant, en code relatif à 127 est représenté par 127 − 1 =
01111110, et le significande vaut 1, ce qui résulte en une mantisse dont tous les bits
sont à 0. La représentation IEEE simple précision IEEE 754 du nombre 0, 5 est donc :
Code(0, 5) = 0 01111110 0000...0 = 3F 000000
s e m
– 1.5 = 20 × (1 + 2−1 )
Le bit de signe est 0, l’exposant, en code relatif à 127 est représenté par 127 =
01111111, et le significande vaut 1, 1, ce qui résulte en une mantisse dont le premier
bit est à 1 et les 22 suivants à 0. La représentation IEEE simple precision IEEE 754 du
nombre 1, 5 est donc :
Code(1, 5) = 0 01111111 1000...0 = 3FC 00000
s e m

2.3.3.b Nombres spéciaux


En arithmétique à virgule flottante on peut obtenir un résultat valable, ou
alors rencontrer un problème de dépassement par valeur supérieure (overflow)
lorsque le résultat est trop grand pour pouvoir être représenté, ou par valeur
inférieure (underflow) lorsque le résultat est trop petit.
Dépassement par valeur inférieure
Cette situation arrive lorsqu’un résultat est trop petit pour pouvoir être repré-
senté. Le standard IEEE 754 résout partiellement le problème en autorisant
dans ce cas une représentation dénormalisée. Une représentation dénorma-
lisée est caractérisée par le fait d’avoir un code d’exposant complètement nul,
ce qui est interprété comme une indication du fait que le bit de poids fort de
la mantisse, implicite, est cette fois à 0 au lieu d’être à 1. De cette façon, le plus
petit nombre « exprimable » est : 2−127 × 2−23 = 2−150 ∼ 10−45 .
Cependant, il faut remarquer que plus le nombre représenté est petit, moins
sa mantisse comportera de bits significatifs. Ce schéma permet une approche
« douce » du phénomène de dépassement par valeur inférieure, en sacrifiant
la précision lorsqu’un résultat est trop petit pour admettre une représentation
normalisée.
Zéro

26 ©2002–2009 C. Diou
2.3. Représentation des nombres réels dans un calculateur

Zéro est représenté sous la forme d’un nombre dénormalisé. Ceci résulte en
deux représentations possibles pour zéro : l’une pour +0, l’autre pour −0. Ces
représentations sont caractérisées par un bit de signe suivi par 31 zéros.
Dépassement par valeurs supérieures
Le dépassement par valeurs supérieures ne peut pas être traité comme le dé-
passement par valeurs inférieures, et est indiqué par un code d’exposant dont
tous les bits sont à 1, suivi par une mantisse dont tous les bits sont à 0. Ceci est
interprété comme représentant l’infini. L’infini peut être positif ou négatif, en
fonction de la valeur du bit de signe. L’infini peut être utilisé dans les calculs et
les résultats correspondent au sens commun : ∞ + ∞ = ∞ ; x/∞ = 0 ; x/0 = ∞.
Not a Number (NaN)
Cependant, certaines opérations peuvent ne conduire à aucun résultat expri-
mable, comme ∞/∞ =? ou 0 × ∞ =?.
Le résultat de telles opération est alors indiqué par un autre code spécial :
le code d’exposant a tous les bits à 1, suivi par une mantisse non nulle. Le
« nombre » correspondant est appelé NaN (Not a Number) : c’est un non-
nombre.

2.3.3.c Résumé
Nombre Signe Exposant Mantisse
nombre normalisé 0/1 01 à FE quelconque
nombre dénormalisé 0/1 00 quelconque
zéro 0/1 00 0
∞ 0/1 FF 0
NaN 0/1 FF tout sauf 0
IEEE 754 Simple précision Double précision
exposant −126 à +127 −1022 à +1023
mantisse 1 à 2 − 2−23 1 à 2 − 2−52
+ pt # normalisé 2−126 2−1022
+ gd # normalisé presque 2128 presque 21024
intervalle utile ≈ 10−38 à 1038 ≈ 10−308 à 10308
+ pt # dénormalisé 2−150 ≈ 10−45 2−1074 ≈ 10−324

©2002–2009 C. Diou 27
Chapitre 2 : Codage des nombres dans les machines numériques

2.4 Arithmétique binaire


2.4.1 Addition
L’addition en binaire se fait avec les mêmes règles qu’en décimal : on com-
mence par additionner les bits de poids faibles ; on a des retenues lorsque la
somme de deux bits de même poids dépasse la valeur de l’unité la plus grande
(dans le cas du binaire : 1) ; cette retenue est reportée sur le bit de poids plus
fort suivant.
La table d’addition binaire est la suivante :

A B C retenue (carry)
0 + 0 = 0 0
0 + 1 = 1 0
1 + 0 = 1 0
1 + 1 = 0 1

B Exemple 2.11
Addition des nombres de 4 bits :
0 0 1 1 +3
+ 1 0 1 0 + −6
= 1 1 0 1 = −3
0 1 1 1 , 1 1 7, 75
+ 0 1 0 1 , 0 1 + 5, 25
= 1 1 0 1 , 0 0 = −3, 00
La retenue de la deuxième opération indique un dépassement de capacité (over-
flow) : le bit de signe est à 1 alors qu’il aurait dû être à 0 (addition de deux
nombres positifs).

Conditions de dépassement lors de l’addition de deux nombres A et B de 16


bits :

28 ©2002–2009 C. Diou
2.4. Arithmétique binaire

a 15 b 15 r 15 opérandes résultat R D
0 0 0 a >0 b>0 r >0 0 non
0 0 1 a >0 b>0 r <0 0 oui
0 1 0 a >0 b<0 r >0 1 non
0 1 1 a >0 b<0 r <0 0 non
1 0 0 a <0 b>0 r >0 1 non
1 0 1 a <0 b>0 r <0 0 non
1 1 0 a <0 b<0 r >0 1 oui
1 1 1 a <0 b<0 r <0 1 non
R : retenue ; D : dépassement

Ce tableau nous permet de déterminer la condition de dépassement (OF : over-


flow flag) : OF = a 15 .b 15 .r 15 + a 15 .b 15 .r 15 .
– si OF est à 0, le bit de poids fort (r 15 ) donne le signe du résultat dont la valeur
est disponible sur les 15 bits de poids faibles.
– si OF est à 1, l’indicateur de retenue (C) donne le signe du résultat qui est
lui-même sur 16 bits. Dans ce dernier cas, le bit de poids fort ne donne pas
le signe du résultat !

2.4.2 Soustraction
Dans la soustraction binaire, on procède comme en décimal. Quand la quan-
tité à soustraire est supérieure à la quantité dont on soustrait, on emprunte 1
au voisin de gauche. En binaire, ce 1 ajoute 2 à la quantité dont on soustrait,
tandis qu’en décimal il ajoute 10.
La table de soustraction binaire est la suivante :

A B C retenue (borrow)
0 − 0 = 0 0
0 − 1 = 1 1
1 − 0 = 1 0
1 − 1 = 0 0

B Exemple 2.12
Soient les nombres non signés représentés en virgule fixe suivants :
1 0 1 , 0 5
− 0 1 1 , 1 − 3, 5
0 ← 0 0 1 , 1 = 1, 5

©2002–2009 C. Diou 29
Chapitre 2 : Codage des nombres dans les machines numériques

Soient les nombres entiers signés suivants :


0 0 0 1 1 3
− 0 1 1 0 0 − 12
1 ← 1 0 1 1 1 = -9

Ï Remarque 2.4
On peut utiliser le complément à 2 de la valeur à soustraire puis on additionne.
Dans ce cas, il faut complémenter la retenue ( carry) pour obtenir la retenue
soustractive ( borrow). Cela se passe de cette manière dans certains calculateurs.

B Exemple 2.13
7−2 :
7= 0 0 1 1 1 0 0 1 1 1
2= 0 0 0 1 0 + 1 1 1 1 0
−2 = 1 1 1 1 0 1 ← 0 0 1 0 1
On ne tient pas compte de la retenue.

2.4.3 Multiplication
La table de multiplication en binaire est très simple :

A B C
0 × 0 = 0
0 × 1 = 0
1 × 0 = 0
1 × 1 = 1

La multiplication se fait en formant un produit partiel pour chaque chiffre du


multiplieur (seul les bits non nuls donneront un résultat non nul). Lorsque le
bit du multiplieur est nul, le produit partiel est nul, lorsqu’il vaut un, le produit

30 ©2002–2009 C. Diou
2.4. Arithmétique binaire

partiel est constitué du multiplicande décalé du nombre de positions égal au


poids du bit du multiplieur.
B Exemple 2.14
0 1 0 1 multiplicande 5
× 0 0 1 0 multiplieur × 2
0 0 0 0
0 1 0 1 =
0 0 0 0 = =
= 0 1 0 1 0 = 10

Ï Remarque 2.5
La multiplication binaire par 2N , se résume à un décalage de N bits vers la
gauche. On introduira donc à droite N zéro.
B Exemple 2.15
8 × 4 sur 8 bits :
0 0 0 0 1 0 0 0

=⇒ 0 0 1 0 0 0 0 0 ←0

−16 × 4 sur 8 bits :


1 1 1 1 0 0 0 0

=⇒ 1 1 0 0 0 0 0 0 ←0

2.4.4 Division
La table de division binaire est la suivante :
A B C
0 ÷ 0 = impossible
0 ÷ 1 = 0
1 ÷ 0 = impossible
1 ÷ 1 = 1

La division binaire s’effectue à l’aide de soustractions et de décalages, comme


la division décimale, sauf que les chiffres du quotient ne peuvent être que 1 ou
0. Le bit du quotient est 1 si on peut soustraire le diviseur, sinon il est 0.
B Exemple 2.16
Division du nombre (10010000111)2 par (1011)2 = (1101001)2 reste (100)2 ,

©2002–2009 C. Diou 31
Chapitre 2 : Codage des nombres dans les machines numériques

c’est-à-dire 1159/11 = 105, reste 4.


1 0 0 1 0 0 0 0 1 1 1 1 0 1 1
− 1 0 1 1 0 1 1 0 1 0 0 1
0 1 1 1 0
− 1 0 1 1
0 0 1 1 0 0
− 1 0 1 1
0 0 0 1 1 1 1
− 1 0 1 1
0 1 0 0

Ï Remarque 2.6
La division binaire par 2N , se résume à un décalage de N bits vers la droite. En
arithmétique signée, il faut penser à recopier à gauche le bit de signe autant de
fois que nécessaire.

B Exemple 2.17
8/4 sur 8 bits :
0 0 0 0 1 0 0 0

=⇒ 0→ 0 0 0 0 0 0 1 0

−16/4 sur 8 bits :


1 1 1 1 0 0 0 0

=⇒ 1→ 1 1 1 1 1 1 0 0

2.5 En résumé
– La valeur d’un nombre est indépendante de la base dans laquelle il est noté.
– Un nombre binaire peut avoir plusieurs valeurs différentes selon le système
de représentation. Soit le nombre binaire a n a n−1 . . . a 1 a 0 . Ce nombre vaut :
+ an .2n + an−1 .2n−1 + . . . + a1 .2 + a0
en représentation non signée
+ −an .2n + an−1 .2n−1 + . . . + a1 .2 + a0
en représentation signée complément à 2
+ 1 − an .2n + an−1 .2n−1 + . . . + a1 .2 + a0
en représentation signée complément à 1
+ −1an × (an−1 .2n−1 + . . . + a1 .2 + a0 )

32 ©2002–2009 C. Diou
2.5. En résumé

en représentation module et signe


– Les opérations arithmétiques obéissent en binaire aux mêmes règles qu’en
décimal, il suffit juste de se rappeler que la base de numération est 2 et non
plus 10.

©2002–2009 C. Diou 33
m L'arithmétique binaire n
Ï Exercice 2.1
B
Que peuvent représenter les octets suivants ?
01111001 ; 10100100 ; 01101010 ; 10010111

Ï Exercice 2.2
B
On effectue les opérations suivantes sur des octets signés (représentation en
complément à 2). Donner les résultats en discutant leur validité. Vérifier en
prenant les équivalents décimaux.
5F + 6D ; E 8 +C 7 ; 9A − 17 ; 5B −C 4 ; A4 − 62

Ï Exercice 2.3
B
Une mémoire contient des octets stockés entre les adresses (9400)H et (B 3F F )H .
Combien d’octets contient-elle ? Quelle est la capacité totale en kbits ?

Ï Exercice 2.4
B
Une mémoire contient 2 kilo-octets stockés à partir de l’adresse (700)H . Quelle
est la dernière adresse ?

35
m Chapitre 3 n
Les codes numériques
Richard Wesley Hamming
? 11 fév. 1915 à Chicago, E.-U.
† 7 jan. 1998 à Monterey, E.-U.

Indeed, one of my major complaints about the computer Feld is that whereas Newton
could say, If I have seen a lirle farther than others, it is because I have eood on the shoulders
of giants, I am forced to say, Today we eand on each other's feet. Perhaps the central
problem we face in all of computer science is how we are to get to the situation where we
build on top of the work of others rather than redoing so much of it in a trivially diverent
way. Science is supposed to be cumulative, not almoe endless duplication of the same kind
of things. (Richard W. Hamming,
One Man's View of Computer Science, 1968, Turing Award Lecure)

Codage : opération qui établit une correspondance entre un ensemble source


(nombre, caractère, symbole) vers un ensemble destination contenant des
combinaisons de 0 et de 1.

3.1 Codes numériques pondérés


3.1.1 Code binaire pur
Le code binaire pur est un code pondéré par des puissances de 2, utilisé en
arithmétique binaire. Ses dérivées sont le code octal et le code hexadécimal.
B Exemple 3.1
01100101 = 26 + 25 + 22 + 20 = 64 + 32 + 4 + 1 = (101)10

37
Chapitre 3 : Les codes numériques

3.1.2 Code binaire en complément vrai (Complément à 2)


Tout comme le code binaire pur, c’est un code pondéré par des puissances de
2 dont le bit de poids fort a un poids négatif. C’est le code le plus utilisé en
arithmétique binaire.
B Exemple 3.2
10011011 = −27 + 24 + 23 + 21 + 20 = −128 + 16 + 8 + 2 + 1 = (−101)10

3.1.3 Code DCB (décimal codé binaire)


Dans le code DCB, chaque chiffre décimal (0, 1, . . . , 9) est codé en binaire avec 4
éléments binaires. C’est un code pondéré avec les poids 1, 2, 4, 8, 10, 20, 40, 80, 100, . . .
Plus facile pour coder des grands nombre, il est surtout utilisé pour l’affichage
des nombres.
Ï Remarque 3.1
Il ne faut pas confondre le code DCB et le code binaire pur : quand on code selon
le code binaire pur on prend le nombre dans son intégralité et on le convertit ;
par contre, quand on code en DCB on code chaque chiffre indépendamment les
uns des autres.

B Exemple 3.3
(137)10 = (010001001)2
= (000100110111)DCB
Comme tous les systèmes de codage pondérés, il est possible d’appliquer des
opérations arithmétiques aux nombres codés en DCB. L’arithmétique DCB est
en fait une arithmétique modulo 6.

3.1.3.a Addition en DCB


L’addition de deux nombres codés en DCB ne pose pas de problème tant que
le résultat est inférieur ou égal à 9 :
0000 0010 02
+ 0000 0101 + 05
0000 0111 07
Par contre, dès que le résultat est supérieur à 9, il faut apporter une correction
en additionnant 6, de manière à obtenir une réponse valide. Ceci est dû au fait
que l’on représente un nombre modulo 10 avec un code modulo 16 : 16−10 = 6.

38 ©2002–2009 C. Diou
3.1. Codes numériques pondérés

0000 0110 06
+ 0000 0100 + 04
= 0000 1010 = 0? erreur !
+ 0000 0110 + 06
= 0001 0000 = 10
La correction est ici évidente, puisque la valeur obtenue est invalide en codage
DCB. L’exemple suivant est moins évident :
0000 1001 09
+ 0000 1000 + 08
= 0001 0001 = 11 erreur !
+ 0000 0110 + 06
= 0001 0111 = 17
Dans ce dernier exemple, la correction est due au fait qu’il a eu débordement
sur les 4 bits de poids faible du mot DCB : il faut donc apporter une correction
sur ces 4 bits de poids faible.

Ï Note 3.1
B
 lorsque le résultat de l'addition DCB est inférieur à 9, on ne change pas
le résultat ;
 lorsque le résultat de l'addition DCB est supérieur à 9, on ajoute 6 au
résultat pour obtenir la valeur exacte ;
 lorsqu'il y a une retenue auxiliaire (ou décimale) ( auxiliary ou decimal
carry), on ajoute également 6 au résultat obtenu, même si la valeur est
inférieure à 9.

Les propriétés énoncées ci-dessus pour les chiffres des unités sont évidem-
ment valables pour les dizaines, les centaines, etc. La correction à apporter sera
alors – selon les circonstances – +6, +60, +66, etc.

©2002–2009 C. Diou 39
Chapitre 3 : Les codes numériques

3.1.3.b Soustraction en DCB


La soustraction en DCB se comporte exactement comme l’addition, au signe
près.

Ï Note 3.2
B
 lorsque le résultat de la soustraction DCB est inférieur à 9, on ne change
pas le résultat ;
 lorsque le résultat de la soustraction DCB est supérieur à 9, on soustrait
6 au résultat pour obtenir la valeur exacte ;
 lorsqu'il y a une retenue soustractive ( borrow), on soustrait également
6 au résultat obtenu, même si la valeur est inférieure à 9.

3.1.4 Code binaire de Aiken


Pondéré par 2421, le code Aiken est un code autocomplémentaire (les repré-
sentations de 2 chiffres dont la somme est 9 sont complémentaires l’une de
l’autre.
Il peut être constitué par les règles suivantes :
– de 0 à 4 on code en binaire pur ;
– de 5 à 9 on ajoute 6 et on code en binaire pur. (c.à.d. 5 → 5+6 = 11, 6 → 6+6 =
12, . . .)
B Exemple 3.4
décimal Aiken décimal Aiken
2 4 2 1 2 4 2 1
0 0 0 0 0 5 1 0 1 1
1 0 0 0 1 6 1 1 0 0
2 0 0 1 0 7 1 1 0 1
3 0 0 1 1 8 1 1 1 0
4 0 1 0 0 9 1 1 1 1

Application pratique 3.1 : Arithmétique


Ce code est utilisé dans certains calculateurs pour effectuer des soustractions
par additions de la forme complémentaire.

40 ©2002–2009 C. Diou
3.2. Codes numériques non pondérés

3.2 Codes numériques non pondérés


3.2.1 Code majoré de trois (excédant de neuf)
Le code majoré de trois consiste à prendre chaque chiffre décimal, à lui addi-
tionner 3, puis à convertir le résultat obtenu en binaire. On a parfois recours à
ce code en raison de la facilité avec laquelle on peut faire certains calculs arith-
métiques. La valeur d’un mot en code majoré de trois est en fait égale au code
DCB auquel on a ajouté 3.
B Exemple 3.5
(48)10 4 8
+3 +3
7 11
↓ ↓
0111 1011

3.2.2 Code de Gray (binaire réfléchi)


Le code Gray, ou code binaire réfléchi, est à un code dit « à distance minimale »
ou « à termes adjacents », c’est-à-dire un code pour lequel un seul bit change
entre deux nombres consécutifs. Ce code fait donc apparître la notion d’adja-
cence entre deux termes.
Ce code est utilisé dans les tableaux de Karnaugh (cf. section 5.1.1.c page 73),
dans des circuits d’entrée/sortie, notamment dans les codeurs optiques et
dans certains convertisseurs analogique/numérique.
Il ne convient pas pour l’arithmétique binaire.

Décimal Gray Décimal Gray


0 0 0 0 0 8 1 1 0 0
1 0 0 0 1 9 1 1 0 1
2 0 0 1 1 10 1 1 1 1
3 0 0 1 0 11 1 1 1 0
4 0 1 1 0 12 1 0 1 0
5 0 1 1 1 13 1 0 1 1
6 0 1 0 1 14 1 0 0 1
7 0 1 0 0 15 1 0 0 0

©2002–2009 C. Diou 41
Chapitre 3 : Les codes numériques

Le code présente 4 symétries miroir. Il est cyclique : il se referme sur lui-même.


C’est cette particularité qui est exploité dans les codeurs optiques (cf. Applica-
tion 3.2 de la présente page).
Pour convertir un nombre en code binaire naturel (CBN) vers un nombre en
code binaire réfléchi (CBR), il faut ajouter le CBN trouvé à lui-même décalé
d’un rang vers la gauche, sans tenir compte de l’éventuelle retenue et en aban-
donnant dans le résultat le bit de poids faible.
B Exemple 3.6
Soit le nombre décimal 87 ; sa valeur binaire est 1010111. Donc :
1010111
+10101110
11111001
L’équivalent en code binaire réfléchi de (87)10 est 1111100

Application pratique 3.2 : Les codeurs optiques


Le code Gray est souvent utilisé comme système de représentation des nom-
bres dans les codeurs optiques, préférentiellement au code binaire naturel.
Ces systèmes permettent de connaître avec une certaine précision la position
absolue d’un moteur. Cette précision dépend du nombre de segments de la
roue codeuse, lui même dépendant du nombre de bits codés.
La figure ci-dessous à gauche présente deux roues codeuses 4 bits, l’une en
code binaire naturel, l’autre en code binaire réfléchi.

0 15 0 15
1 14 1 14

2 13 2 13

3 12 3 12

4 11 4 11

5 10 5 10
6 9 6 9
7 8 7 8
Code binaire naturel Code binaire réfléchi Code binaire naturel Code binaire réfléchi

On constate que chaque segment de ces disques contient 4 zones qui peuvent
être ouvertes (1 logique), ou fermées (0 logique). La figure ci-dessus à droite
fait apparaître plus clairement chaque segment et la valeur décimale associée.

42 ©2002–2009 C. Diou
3.2. Codes numériques non pondérés

Comme on le constate sur ces exemples, le bit de


poids fort est au plus proche de l’axe du disque, et le
bit de poids faible à la périphérie. Ceci est dû au fait
que la couronne des bits de poids faible est suscep-
tible de comporter un nombre très important d’alter-
nances pour les codeurs optiques à grande précision,
comme on peut le constater sur le codeur optique 12
bits ci-contre.

3.2.2.a Conversion du code binaire naturel vers binaire réfléchi


Binaire naturel Binaire réfléchi
a3 a2 a1 a0 g3 g2 g1 g0
0 0 0 0 0 0 0 0 0
1 0 0 0 1 0 0 0 1
2 0 0 1 0 0 0 1 1
3 0 0 1 1 0 0 1 0
4 0 1 0 0 0 1 1 0
5 0 1 0 1 0 1 1 1
6 0 1 1 0 0 1 0 1
7 0 1 1 1 0 1 0 0
8 1 0 0 0 1 1 0 0
9 1 0 0 1 1 1 0 1
10 1 0 1 0 1 1 1 1
11 1 0 1 1 1 1 1 0
12 1 1 0 0 1 0 1 0
13 1 1 0 1 1 0 1 1
14 1 1 1 0 1 0 0 1
15 1 1 1 1 1 0 0 0

Les équation logiques pour un mot de 4 bits sont :


+ g 0 = a1 ⊕ a0
+ g 1 = a2 ⊕ a1
+ g 2 = a3 ⊕ a2
+ g 3 = a3
Pour un mot binaire de format n on a donc :
+ g i = ai +1 ⊕ ai , pour n − 2 ≥ i ≥ 0

©2002–2009 C. Diou 43
Chapitre 3 : Les codes numériques

+ g n−1 = an−1
On peut également exprimer g n de manière récursive :
+ g 0 = g 3 ⊕ g 2 ⊕ g 1 ⊕ a0
+ g 1 = g 3 ⊕ g 2 ⊕ a1
+ g 2 = g 3 ⊕ a2
+ g 3 = a3

3.2.2.b Conversion du code binaire réfléchi vers binaire naturel


Binaire réfléchi Binaire naturel
g3 g2 g1 g0 a3 a2 a1 a0
0 0 0 0 0 0 0 0 0
1 0 0 0 1 0 0 0 1
2 0 0 1 1 0 0 1 0
3 0 0 1 0 0 0 1 1
4 0 1 1 0 0 1 0 0
5 0 1 1 1 0 1 0 1
6 0 1 0 1 0 1 1 0
7 0 1 0 0 0 1 1 1
8 1 1 0 0 1 0 0 0
9 1 1 0 1 1 0 0 1
10 1 1 1 1 1 0 1 0
11 1 1 1 0 1 0 1 1
12 1 0 1 0 1 1 0 0
13 1 0 1 1 1 1 0 1
14 1 0 0 1 1 1 1 0
15 1 0 0 0 1 1 1 1

Les équation logiques pour un mot de 4 bits sont :


+ a3 = g 3
+ a2 = g 3 ⊕ g 2
+ a1 = g 3 ⊕ g 2 ⊕ g 1
+ a0 = g 3 ⊕ g 2 ⊕ g 1 ⊕ g 0
Pour un mot binaire de format n on a donc :
+ an−1 = g n−1

44 ©2002–2009 C. Diou
3.3. Codes détecteurs d’erreurs et autocorrecteurs

n−1
X
+ ai = ⊕ g i = a i +1 ⊕ g i , pour n − 2 ≥ i ≥ 0
j =1

3.3 Codes détecteurs d’erreurs et autocorrecteurs


Ces codes sont utilisés pour contrôler la transmission des données.
Souvent, on utilise un nombre de bits supérieur à celui strictement nécessaire
pour coder l’information elle-même.

3.3.1 Les codes p parmi n


Ce sont des codes autovérificateurs (détecteurs d’erreurs mais pas autocorrec-
teurs). Ces codes possèdent n éléments binaires dont p sont à 1 ; la position
des « 1 » permet de reconnaître un élément codé. Le nombre de combinaisons
répondant à cette définition est :

p n!
Cn =
p!(n − p)!

3.3.1.a Les codes 2 parmi 5


Pour transmettre l’information numérique dans les centraux téléphoniques
(cross bar), on utilise un code 2 parmi 5 (ou code 01236) pour représenter les
chiffres décimaux.
Les codes 2 parmi 5 possèdent 10 combinaisons possibles :

Déc. Télécoms PostNET


0 1 2 3 6 7 4 2 1 0
1 1 1 0 0 0 0 0 0 1 1
2 1 0 1 0 0 0 0 1 0 1
3 1 0 0 1 0 0 0 1 1 0
4 0 1 0 1 0 0 1 0 0 1
5 0 0 1 1 0 0 1 0 1 0
6 1 0 0 0 1 0 1 1 0 0
7 0 1 0 0 1 1 0 0 0 1
8 0 0 1 0 1 1 0 0 1 0
9 0 0 0 1 1 1 0 1 0 0
0 0 1 1 0 0 1 1 0 0 0

©2002–2009 C. Diou 45
Chapitre 3 : Les codes numériques

Application pratique 3.3 : Le code PostNET


Le système PostNET (Postal Numeric Encoding
Technique) est utilisé aux États-Unis (United
States Postal Service) pour faciliter l’aiguillage du
courrier. Le code postal américain, appelé ZIP
(Zoning Improvment Plan), est converti en barres
de hauteur entière ou de demi-hauteur selon le
code 74210 (un « 0 » est représenté par une barre
en demi-hauteur, et un « 1 » par une barre en-
tière).

Application pratique 3.4 : Les codes barres


Les codes 3 parmi 9 (codes 39 et 93) et 2 parmi 5 (code 2 parmi 5 entrelacé)
sont notamment utilisés pour coder les caractères numériques (code 2 parmi
5) ou alphanumériques (codes 3 parmi 9) dans les codes barres.
Le code à barres le plus répandu est cepen-
dant le code EAN (European Article Numbe-
ring) qui utilise un codage plus complexe des
2 481602 090012 caractères numériques uniquement.

3.3.2 Le code biquinaire


C’est un code composé d’un groupe de n bits (en général 5) dont un seul parmi
n progresse à la fois, et d’un groupe de m bits (1 à 2) assurant la distinction
entre n < 5 et n ≥ 5.
B Exemple 3.7
décimal 5 0 4 3 2 1 0
0 0 1 0 0 0 0 1
1 0 1 0 0 0 1 0
2 0 1 0 0 1 0 0
3 0 1 0 1 0 0 0
4 0 1 1 0 0 0 0
5 1 0 0 0 0 0 1
6 1 0 0 0 0 1 0
7 1 0 0 0 1 0 0
8 1 0 0 1 0 0 0
9 1 0 1 0 0 0 0

46 ©2002–2009 C. Diou
3.3. Codes détecteurs d’erreurs et autocorrecteurs

Chaque combinaison a un nombre pair de 1, ce qui introduit une sécurité lors


de la transmission de ces valeurs. Ce code permet donc de détecter deux er-
reurs à condition qu’elle ne soit pas dans le même groupe ; par contre, il ne
permet ni de les localiser ni de les corriger.
Ce code est utilisé dans les calculatrices.

3.3.3 Les codes à contrôle de parité


Dans ces codes, on ajoute un éléments binaire de sorte que l’ensemble des bits
à transmettre (ou le mot) ait un nombre pair (parité paire) ou impair (parité
impaire) de « 1 ».
B Exemple 3.8
0101 −→ 0 0101
0111 −→ 1 0111

Ï Remarque 3.2
Dans l’application de la méthode de la parité, l’émetteur et le récepteur se
mettent d’accord à l’avance sur la parité à surveiller (paire ou impaire).

Ï Remarque 3.3
Pour détecter la place d’un élément binaire faux, il faut coder dans deux dimen-
sions selon les lignes et les colonnes.

B Exemple 3.9
0 1 0 0 1 Transmission 0 1 0 0 1
−−−−−−−−−−−→
1 0 0 1 0 → 1 0 0 0 0
0 0 0 1 1 0 0 0 1 1
1 1 1 0 1 1 1 1 0 1
0 0 1 0 1 0 0 1 0 1

Ce code détecte les erreurs simples à condition que l’élément binaire de parité
ne soit pas erroné.

3.3.4 Code de Hamming


Ce code est utilisé dans les transmissions de données. Il localise et corrige les
chiffres erronnés (en ajoutant des éléments binaires supplémentaires aux bits
de l’information).

©2002–2009 C. Diou 47
Chapitre 3 : Les codes numériques

Le nombre binaire d’information effective est : N = ABC D = 4


Le nombre binaire d’information transmise est : N = abcd e f g = 7
avec a = A ⊕ B ⊕C ⊕ D
b = A ⊕C ⊕ D
c = A
d = B ⊕C ⊕ D
e = B
f = C
g = D

3.4 Les codes alphanumériques


Ils servent à coder des chiffres, des lettres, des signes de ponctuations et des ca-
ractères spéciaux (26 caractères minuscules, 26 caractères majuscules, 7 signes,
20 à 40 caractères spéciaux comme +,|,6=,%,...)

3.4.1 Le code ASCII (American Standard Code for Information


Interchange)
C’est le plus répandu. On le retrouve pratiquement dans tous les ordinateurs
et leurs organes périphériques, pour leurs dialogues et la représentation des
textes en mémoire.
Chaque symbole (caractère d’imprimerie) est codé par 7 éléments binaires (un
8ème bit peut servir de parité) : 27 = 128 combinaisons différentes.

48 ©2002–2009 C. Diou
m Les codes n
Ï Exercice 3.1
B
Convertir en décimal et hexadécimal les nombres suivants :
(10010101)DCB ; (10010101)DCB

Ï Exercice 3.2
B
En parité impaire, quel est le bit de parité à associer aux octets suivants ?
EC ; F 1 ; 69 ; A3

Ï Exercice 3.3
B
En parité paire, quel est le bit de parité à associer aux octets suivants ?
C D ; 6E ; B 8 ; A4

49
Deuxième partie

La logique combinatoire
m Chapitre 4 n
Algèbre booléenne et opérateurs
logiques
George Boole
? 2 nov. 1815, Lincoln, R.-U.
† 8 déc. 1864, Ballintemple, Irlande

Une proposition peut être vraie ou fausse, mais ne peut pas être vraie et fausse.
(Arieote ? 384, „ 322 av. J.-C.)

4.1 Introduction
Les sytèmes logiques fonctionnent en mode binaire −→ les variables d’entrée
et de sortie ne prennent que deux valeurs : « 0 » ou « 1 ». Ces valeurs (états) « 0 »
et « 1 » correspondent à des plages définies à l’avance.
B Exemple 4.1
– Technologie électrique TTL :
« 1 » ↔ 2,4 à 5 V
« 0 » ↔ 0 à 0,8 V
– Technologie pneumatique :
« 1 » ↔ présence de pression
« 0 » ↔ absence de pression

Les valeurs « 0 » et « 1 » ne représentent pas des nombres réels mais plutôt l’état
d’une variable (logique) −→ on les appelle donc « niveaux logiques ».

4.1.1 Convention de nommage des synonymes des « 0 » et


«1»:
Ces deux valeurs peuvent être nommées de différentes façons :
– Niveau logique « 1 » : Vrai, Fermé, Marche, Haut, Allumé, Oui ;
– Niveau logique « 0 » : Faux, Ouvert, Arrêt, Bas, Éteint, Non.

53
Chapitre 4 : Algèbre booléenne et opérateurs logiques

4.1.2 Types de logiques


On définit deux types de logiques :
– Logique positive :
– niveau haut −→ état logique « 1 » (5V)
– niveau bas −→ état logique « 0 » (0V)
– Logique négative :
– niveau haut −→ état logique « 0 » (0V)
– niveau bas −→ état logique « 1 » (5V)
La logique binaire basée sur l’algèbre de Boole permet de décrire dans un mo-
dèle mathématique les manipulations et traitement des informations binaires,
et d’analyser les systèmes numériques.

Il existe 3 fonctions élémentaires dans l’algèbre de Boole :


– addition logique : appelée OU, symbolisée par un plus : « + » ;
– multiplication logique : appelée ET, symbolisée par un point : « . » ;
– complémentation : appelée NON, symbolisée par un surlignement : « a »

Tout circuit numérique peut être défini à l’aide d’une fonction logique (ou ex-
pression logique) qui représente la variable de la sortie en fonction des va-
riables d’entrée.

4.1.3 Variables logiques (ou variables binaires)


Ce sont des variables ne pouvant prendre que deux valeurs distinctes : « 0 » ou
« 1 ». Une variable binaire peut représenter n’importe quel dispositif binaire
(contact, lampe, électro-vanne...)

4.1.4 Convention :
Tout appareil est schématisé à l’état de repos. Dans tous les cas, l’action sur un
appareil sera notée a, b, ... et la non action a, b, ...
B Exemple 4.2
Bouton poussoir −→ contact repos et contact travail.
1er cas : schéma d’un contact ouvert au repos dit « contact travail ».
2è cas : schéma d’un contact fermé au repos dit « contact repos ».

54 ©2002–2009 C. Diou
4.2. Propriétés de l’algèbre booléenne

B Exemple 4.3
Relais : c’est un interrupteur opérant de façon électromagnétique ; lorsqu’un
courant approprié passe dans le charbon, une force magnétique déplace les ar-
matures imposant l’ouverture ou la fermeture des contacts. Il est présenté dans
sa position non alimentéee (au repos).

Ils peuvent être fermés ou ouverts au repos.


B
normalement ouvert et fermé

Charbon A B C

Symbole d’un relais double T = (A+B).C

4.2 Propriétés de l’algèbre booléenne


4.2.1 Présentation
L’algèbre booléenne définit un cadre mathématique d’étude de propositions
logiques portant sur des ensembles E d’éléments.

Dénition 4.1
Algèbre booléenne : un ensemble E d'éléments (a, b, c, ...) associé à deux opérations
binaires + et . constitue une algèbre booléenne si et seulement si les postulats suivants
sont satisfaits :
+ P1 Les opérations sont commutatives ;
+ P2 Chacune des opérations est distributive sur l'autre ;
+ P3 Il existe les éléments identité 0 et 1 respectivement pour + et . ;
+ P4 Pour chaque élément a ∈ E , il existe un élément a ∈ E tel que : a + a = 1 et
a.a = 0.

©2002–2009 C. Diou 55
Chapitre 4 : Algèbre booléenne et opérateurs logiques

À partir de ces postulats, il est possible de démontrer les théorèmes d’idempo-


tence (cf. § 4.4.3), de l’élément nul, d’involution (cf. § 4.4.5), d’absorption (cf.
§ 4.5.6), d’associativité ainsi que la loi de De Morgan (cf. § 4.7). Tous ces théo-
rèmes seront présentés plus loin.
Le lecteur attentif aura remarqué après la lecture des quatre postulats ci-dessus
qu’il n’est jamais fait mention du nombre d’éléments dans l’ensemble E , ni
encore moins que ce nombre d’éléments est limité à deux !
L’algèbre booléenne n’est pas restreinte aux ensembles binaires.
En fait, le nombre d’éléments dans E peut être infini, mais doit au moins com-
porter les éléments 0 et 1. Ainsi l’algèbre binaire, qui ne contient que les élé-
ments 0 et 1, constitue l’algèbre booléenne la plus simple.
B Exemple 4.4
Algèbre booléenne portant sur 4 éléments : E = {0, a, b, 1}

+ 0 a b 1 . 0 a b 1
0 0 a b 1 0 0 0 0 0
a a a 1 1 a 0 a 0 a
b b 1 b 1 b 0 0 b b
1 1 1 1 1 1 0 a b 1

4.3 Algèbre binaire ou algèbre de commutation


4.3.1 Postulats de base
Le domaine de définition B 2 de l’algèbre de commutation comprend donc
deux éléments 0 et 1 (B 2 = {0, 1}).
Si a est une variable logique on a :
+ P1 a = 0 si et seulement si a 6= 1
+ P1∗ a = 1 si et seulement si a 6= 0
L’opération NON(ou complément), notée « a » est définie par :
+ P2 0 = 1
+ P2∗ 1 = 0
L’opération OU(ou disjonction), notée « + » est définie par :
+ P3 1 + 1 = 1 + 0 = 0 + 1 = 1

56 ©2002–2009 C. Diou
4.4. Théorèmes monovariables

+ P4 0 + 0 = 0
L’opération ET(ou intersection), notée « . » est définie par :
+ P3∗ 0.0 = 0.1 = 1.0 = 0
+ P4∗ 1.1 = 1
L’algèbre de commutation est le système algébrique constitué de l’ensemble
{0, 1} et des opérateurs ET, OU, NON.
À partir de ces quatre postulats, on peut construire les différents théorèmes
présentés dans les sections § 4.4 de la présente page et § 4.5 page suivante.

4.3.2 Hiérarchie des opérations


Dans une expression sans parenthèses, on effectue d’abord les opérations ET
et, par la suite, les OU.

4.3.3 Induction parfaite


Dans le domaine linéaire, il n’est pas possible de prouver une équation en la
vérifiant pour toutes les valeurs des variables.
En logique binaire, puisque les variables sont limitées à deux états, on peut
prouver une relation en la vérifiant pour toutes les combinaisons de valeurs
pour les variables d’entrée. Ainsi, toutes les propriétés présentés dans les sec-
tions § 4.4 de la présente page et § 4.5 page suivante peuvent être démontrées
par induction parfaite.
On notera qu’il n’est pas évident de démontrer ces relations par induction par-
faite en algèbre booléenne de plus de deux variables. La preuve de de ces théo-
rèmes peut être consultée notamment dans [LivWhi61].

4.4 Théorèmes monovariables


4.4.1 Identité
À chaque opérateur correspond un élément neutre qui, lorsqu’il est opéré avec
une variable quelconque A, donne un résultat identique à cette variable.
A +0 = A A.1 = A

©2002–2009 C. Diou 57
Chapitre 4 : Algèbre booléenne et opérateurs logiques

4.4.2 Élément nul


À chaque opérateur correspond un élément nul qui, lorsqu’il est opéré avec
une variable quelconque A, donne un résultat identique à cet élément nul.
A +1 = 1 A.0 = 0

4.4.3 Idempotence
Le résultat d’une opération entre une variable A et elle-même est égal à cette
variable.
A+A = A A.A = A

4.4.4 Complémentation
A+A =1 A.A = 0

4.4.5 Involution
Le complément du complément d’une variable A est égal à cette variable.

A=A

4.5 Théorèmes multivariables


4.5.1 Équivalence
Deux fonctions sont équivalentes si on peut leur faire correspondre la même
table de vérité.
Si F = A.B et G = A + B, alors F = G, et on dit que F est équivalente à G.

4.5.2 Complémentarité
Deux fonctions sont dites complémentaires si l’une est l’inverse de l’autre pour
toutes les combinaisons d’entrées possibles.
Si F = A.B et G = A + B , alors F = G, et on dit que F et G sont complémentaires.

58 ©2002–2009 C. Diou
4.5. Théorèmes multivariables

4.5.3 Associativité
Les opérations +, ., et ⊕ sont associatives :
A + B +C = (A + B ) +C = A + (B +C )
A.B.C = (A.B ).C = A.(B.C )
A ⊕ B ⊕C = (A ⊕ B ) ⊕C = A ⊕ (B ⊕C )

4.5.4 Commutativité
Les opérations +, ., et ⊕ sont commutatives :
A +B = B + A A.B = B.A A ⊕B = B ⊕ A

4.5.5 Distributivité
Chacune des opérations + et . est distributive sur l’autre :
A.(B +C ) = A.B + A.C A + B.C = (A + B ).(A +C )
On peut remarquer que ce théorème est particulier dans l’algèbre booléenne
puisqu’ici les deux expressions sont vraies, alors que seule la première l’est
dans l’algèbre ordinaire.

4.5.6 Absorption
Absorption 1 : A + (A.B ) = A A.(A + B ) = A
Absorption 2 : (A + B ).B = AB (A.B ) + B = A + B
Ce théorème est particulièrement intéressant pour la conception de circuits
numériques puisqu’il permet d’éliminer les termes inutiles et par là-même de
réduire la complexité du circuit.

4.5.7 Dualité
Deux expressions sont dites duales si l’on obtient l’une en changeant dans
l’autre, les ET par des OU, les OU par des ET, les « 1 » par des « 0 » et les « 0 »
par des « 1 ».
Si on sait que A.B = A + B, alors, on saura que A+B = A.B par dualité.

4.5.8 Théorème de De Morgan


Le théorème de De Morgan est une expression du principe de dualité.

©2002–2009 C. Diou 59
Chapitre 4 : Algèbre booléenne et opérateurs logiques

Première forme : A+B+C+ · · · = A.B.C. · · ·


Deuxième forme : A.B.C. · · · = A + B + C + · · ·
Cf. § 4.7 page 67 pour plus de précisions.

4.5.9 Sommes de produits, produits de sommes et forme


canonique
Les expressions booléennes peuvent être manipulées sous différentes formes,
certaines d’entre elles étant nécessaires pour simplifier ces expressions :
– somme de produits ; ex. : F (A, B,C , D) = A.B + A.C .D + B.D
– produit de sommes ; ex. : F (A, B,C , D) = (A + B ).(A +C + D).(B + D)
Une expression est sous sa forme canonique si tous les symboles qui repré-
sentent les variables apparaissent dans tous les termes qui la constitue. Lors-
qu’une équation est écrite à partir de sa table de vérité, elle est dans sa forme
canonique.

4.5.9.a Forme disjonctive et sommes de mintermes


Si une fonction est une somme de produits, on a une somme canonique ou
forme disjonctive.
Exemple : F = A.B.C + A.B.C + A.B.C + A.B.C
Une fonction booléenne peut être représentée sous forme d’une somme de
produits utilisant les mintermes. Les mintermes sont représentés par des « 1 »
dans une table de vérité.
La table suivante donne les mintermes d’une fonction de trois variables :
m0 m1 m2 m3 m4 m5 m6 m7
A B C A.B .C A.B .C A.B.C A.B.C A.B .C A.B .C A.B.C A.B.C
0 0 0 1 0 0 0 0 0 0 0
0 0 1 0 1 0 0 0 0 0 0
0 1 0 0 0 1 0 0 0 0 0
0 1 1 0 0 0 1 0 0 0 0
1 0 0 0 0 0 0 1 0 0 0
1 0 1 0 0 0 0 0 1 0 0
1 1 0 0 0 0 0 0 0 1 0
1 1 1 0 0 0 0 0 0 0 1

60 ©2002–2009 C. Diou
4.5. Théorèmes multivariables

4.5.9.b Forme conjonctive et produits de maxtermes


Si une fonction est un produit de somme, on a un produit canonique ou forme
conjonctive.
Exemple : G = (A + B +C ).(A + B +C ).(A + B + C).(A + B + C)
Une fonction booléenne peut être représentée sous forme d’un produit de
sommes utilisant les maxtermes. Les maxtermes sont représentés par des « 0 »
dans une table de vérité.
La table suivante donne les maxtermes d’une fonction de trois variables :
M0 M1 M2 M3 M4 M5 M6 M7
A B C A+B+C A+B+C A+B+C A+B+C A+B+C A+B+C A+B+C A+B+C
0 0 0 0 1 1 1 1 1 1 1
0 0 1 1 0 1 1 1 1 1 1
0 1 0 1 1 0 1 1 1 1 1
0 1 1 1 1 1 0 1 1 1 1
1 0 0 1 1 1 1 0 1 1 1
1 0 1 1 1 1 1 1 0 1 1
1 1 0 1 1 1 1 1 1 0 1
1 1 1 1 1 1 1 1 1 1 0
4.5.9.c Représentations d’une fonction sous forme de mintermes et max-
termes
Soit la fonction F telle que F(A, B,C ) = A.B + B .(A +C ).
Cette fonction peut être représentée sous sa :
– première forme canonique (somme de mintermes) : on developpe la fonction
sous la forme d’une somme de produits puis on prend chaque terme avec
pour variable manquante X et on applique un ET logique avec X + X ;
– deuxième forme canonique (produit de maxtermes) : on développe la fonc-
tion sous la forme d’un produit de sommes puis on prend chaque terme avec
pour variable manquante X et on applique un OU logique avec X .X ;

©2002–2009 C. Diou 61
Chapitre 4 : Algèbre booléenne et opérateurs logiques

B Exemple 4.5
Représentation sous forme de somme de mintermes :

F(A, B,C ) = A.B + B .(A +C )


= A.B + A.B + B .C

= A.B.(C +C ) + A.B .(C +C ) + B .C .(A + A)

= A.B .C + A.B .C + A.B .C + A.B.C + A.B.C


X
= m(0, 1, 4, 6, 7)

B Exemple 4.6
Représentation sous forme de produit de maxtermes

F(A, B,C ) = A.B + B .(A +C )


= A.B + A.B + B .C

= (A + B ).(A + B +C ).(A + B +C ) par distributivité

= (A + B +C .C ).(A + B +C ).(A + B +C )

= (A + B +C ).(A + B +C ).(A + B +C )
Y
= M (2, 3, 5)

4.5.10 Résumé des propriétés des opérateurs OU et ET

Propriété OU ET
Identité a +0 = a a.1 = a
Élément neutre a +0 = a a.1 = a
Élément absorbant a +1 = 1 a.0 = 0
Idempotence a+a = a a.a = a
Complémentation a+a =1 a.a = 0
Involution a=a a=a
Commutativité a +b = b +a a.b = b.a
Associativité a + (b + c) a.(b.c)
= (a + b) + c = (a.b).c

62 ©2002–2009 C. Diou
4.6. Opérateurs logiques élémentaires et composés

Distributivité a + (b.c) a.(b + c)


= (a + b).(a + c) = (a.b) + (a.c)
Absorption 1 a + a.b = a a.(a + b) = a
Absorption 2 a + a.b = a + b a.(a + b) = a.b
Consensus a.b + a.c + bc (a + b).(a + c).(b + c)
= a.b + ac = (a + b).(a + c)
(a + b).(a + b) = (a.b) + (a.b)
De Morgan a + b = a.b a.b = a + b

4.6 Opérateurs logiques élémentaires et composés


Les fonctions logiques sont conçues à partir d’un groupe d’opérateurs élémen-
taires appelés « portes ». Chaque opérateur est représenté par un symbole et sa
fonction est définie par une table de vérité.

4.6.1 OUI : identité ou transfert


1 A S=A
0 0
1 1

4.6.2 NON (NOT) : complément « a »


1 A S=A
0 1
1 0

4.6.3 ET (AND) : produit logique « . »


A B S = A.B
& 0 0 0
0 1 0
1 0 0
1 1 1

©2002–2009 C. Diou 63
Chapitre 4 : Algèbre booléenne et opérateurs logiques

Propriétés du ET :
a.1 = a a.a = 0 a.0 = 0 a.a = a
Élément neutre : 1
Élément absorbant : 0

4.6.4 OU (OR) : somme logique « + »


A B S = A +B
1 0 0 0
0 1 1
1 0 1
1 1 1
Propriétés du OU :
a +1 = 1 a +a = 1 a +0 = a a+a = a
Élément neutre : 0
Élément absorbant : 1
Ï Remarque 4.1
Les opérateurs {ET,OU,NON} permettent à eux trois de réaliser n’importe quelle
fonction logique : on dit qu’ils forment un groupe complet.
Le théorème de De Morgan permet de dire que les groupes {ET,NON} et {OU,NON}
sont également des groupes complets.

4.6.5 NON-OU (NOR) « ↓ »


Les deux opérateurs OU et NON peuvent être combinés en un seul opérateur
NON-OU : NON-OU est donc un opérateur complet.
A B S = A +B
1 0 0 1
0 1 0
1 0 0
1 1 0

4.6.6 NON-ET (NAND) « ↑ »


Les deux opérateurs ET et NON peuvent être combinés en un seul opérateur
NON-ET : NON-ET est donc un opérateur complet.

64 ©2002–2009 C. Diou
4.6. Opérateurs logiques élémentaires et composés

A B S = A.B
& 0 0 1
0 1 1
1 0 1
1 1 0

4.6.7 OUX (XOR) : ou exclusif ou dilemme « ⊕ »


A B S = A ⊕B
1 0 0 0
0 1 1
1 0 1
1 1 0
Propriétés du OUX :
Le ou exclusif est commutatif et associatif
a ⊕0 = a a ⊕1 = a a ⊕a = 1 a ⊕a = 0
Élément neutre : 0
Élément absorbant : a, a
Ï Remarque 4.2
Le ou exclusif est souvent utilisé dans les circuits numériques du fait de ses pro-
priétés :
– le ou exclusif est l’opérateur somme modulo 2, on le retrouve donc dans les
additionneurs ou la sortie S = a ⊕ b ⊕ r ;
– il est également largement utilisé dans les circuits de correction d’erreurs (cal-
cul de parité) : b 0 ⊕b 1 ⊕b 2 ⊕· · ·⊕b n est égal à 0 si le nombre de bits à 1 est pair,
à 0 sinon ;
– a ⊕ 1 = a et a ⊕ 0 = a : le OU exclusif peut être utilisé comme inverseur com-
mandé.
Le ou exclusif n’est pas un opérateur complet, mais comme il peut être uti-
lisé pour réaliser la complémentation, les groupes {OUX,ET} et {OUX,OU} sont des
groupes complets.

Ï Remarque 4.3
Relations d’identité utilisables avec l’opérateur ou exclusif :
1. a ⊕ b = ab + ab = (a + b).(a + b)

©2002–2009 C. Diou 65
Chapitre 4 : Algèbre booléenne et opérateurs logiques

2. (a ⊕ b) = a ⊕ b = a ⊕ b = ab + ab = (a + b)(a + b)

3. a ⊕ a = 0 et a⊕a =1

4. a ⊕ 1 = a et a ⊕0 = a
5. a(b ⊕ z) = ab ⊕ az
6. a + b = a ⊕ b ⊕ ab = a ⊕ ab
7. a + b = a ⊕ b si ab = 0
8. a ⊕ b = c ⇒ c ⊕ b = a, c ⊕ a = b, a ⊕b ⊕c = 0
9. a ⊕ (a + b) = ab

10. a ⊕ ab = ab

4.6.8 NON-OUX (XNOR) : coïncidence ou équivalence « ¯ »


A B S = A ¯B
1 0 0 1
0 1 0
1 0 0
1 1 1

4.6.9 IMP (IMP) : implication « ⊂ » ou « ⊃ »


A B S = A +B
1 0 0 1
0 1 0
1 0 1
1 1 1

4.6.10 INH (INIB) : inhibition « / »


A B S = A.B
& 0 0 0
0 1 0
1 0 1
1 1 0

66 ©2002–2009 C. Diou
4.7. Universalité des portes NON-ET et NON-OU

4.6.11 Résumé : les différents opérateurs


Nom Symbole Valeur de xy Expression
00 01 10 11 algébrique
Zéro 0 0 0 0 F0 = 0
Et x.y 0 0 0 1 F 1 = x.y
Inhibition x/y 0 0 1 0 F 2 = x.y
Transfert 0 0 1 1 F3 = x
Inhibition y/x 0 1 0 0 F 4 = x.y
Transfert 0 1 0 1 F5 = y
Ou exclusif x⊕y 0 1 1 0 F6 = x y + x y
Ou x+y 0 1 1 1 F7 = x + y
Non-ou x↓y 1 0 0 0 F8 = x + y
Équivalence x¯y 1 0 0 1 F9 = x y + x y
Complément y 1 0 1 0 F 10 = y
Implication x⊂y 1 0 1 1 F 11 = x + y
Complément x 1 1 0 0 F 12 = x
Implication x⊃y 1 1 0 1 F 13 = x + y
Non-et x↑y 1 1 1 0 F 14 = x.y
Un 1 1 1 1 F 15 = 1

4.7 Universalité des portes NON-ET et NON-OU

Ï Note 4.1
B
Théorème de De Morgan :

1. Le complément d'un produit est égal à la somme des compléments


des termes du produit : S = a.b = a + b
2. Le complément d'une somme est égal au produit des compléments
des termes de la somme : S = a+b = a.b

©2002–2009 C. Diou 67
Chapitre 4 : Algèbre booléenne et opérateurs logiques

Non seulement le théorème de De Morgan et ses conséquences est très utile


pour simplifier des expressions, mais il est également valable si a ou b sont des
expressions contenant plusieurs variables.
B Exemple 4.7
( A . B + C) = A. B. C = A + B + C
En conséquence du théorème de De Morgan, on peut affirmer notamment :
1. une porte NON-OU est une porte ET avec ses entrées inversées :

2. une porte NON-ET est une porte OU avec ses entrées inversées :

Ï Note 4.2
B
Universalité des portes NON-ET et des portes NON-OU :
Toutes les portes logiques élémentaires (ET, OU, NON) peuvent être réalisées
avec des portes NON-OU ou NON-ET.

„
4.7.1 Universalité des portes NON-OU

„„
€ ‚…ÿ a ≥1
NON : „
a+a
ƒ

„
€ ‚…ÿ a ≥1
ET : „
…
ƒ
„ ≥1
ƒ
a +b
…

„„
€ ‚…ÿ b ≥1 „
ƒ
„
ƒ

a ≥1
OU : b
ÿ… ≥1
a +b
„
ƒ

68 ©2002–2009 C. Diou
4.7. Universalité des portes NON-ET et NON-OU

„
4.7.2 Universalité des portes NON-ET

„„
€ ‚…ÿ a &
NON : „
a.a
ƒ

„
€ ‚…ÿ a &
OU : „ƒ
…
„ &
ƒ
a.b
…

„„
€ ‚…ÿ b & „
ƒ
„
ƒ

a &
ET : b
ÿ… &
a.b
„
ƒ

B Exemple 4.8
Réaliser la fonction X=AB+CD à l’aide du CI (circuit intégré) suivant :
14 13 12 11 10 9 8

VCC
& 3
7400 :
& 6
1 2 3 4 5 6 7 & 8
A AB
B & 11
X
C
D CD

Ï Remarque 4.4
– le groupe d’opérateurs {ET,OU,NON} permet de réaliser toutes les fonctions lo-
giques : on dit que c’est un « groupe complet », ainsi que les groupes {ET,NON}
et {OU,NON} ;
– de même, les opérateurs NON-ET, NON-OU, sont appelés des « opérateurs com-
plets » ;
– comme l’opérateur OUX peut être utilisé pour réaliser un inverseur, les groupes
{ET,OUX} et {OU,OUX} sont également des groupes complets ; le groupe {ET,OUX}
est un anneau booléen appelé corps de Galois.

©2002–2009 C. Diou 69
m Chapitre 5 n
Représentation et simplification des
fonctions logiques
Maurice Karnaugh
? 4 oct. 1924, New York, É.-U.

Ph.D. de Physique, Université de Yale - 1952. Chercheur aux laboratoires Bell Telephone
de 1952 à 1966, puis au centre de recherche d'IBM à New York de 1966 à 1993. Professeur
d'informatique à l'Ineitut Polytechnique de New York de 1980 à 1999. Élu membre de
l'IEEE (IEEEfellow) en 1976, pour ses travaux sur l'utilisation des techniques numériques
en télécommunications. Inventeur du diagramme de Karnaugh en logique en 1953. Co-
inventeur des premiers circuits logiques (Essex).
Article de référence : Maurice Karnaugh, The Map Method for Synthesis of Combinational
Logic Circuits , Trans. AIEE. pt I, 72(9) :593-599, November 1953.

Tout circuit logique peut être décrit par des fonctions logiques et/ou une table
de vérité, et être réalisé à partir des opérateurs logiques élémentaires.

5.1 Méthodes de représentation des fonctions lo-


giques
En dehors de la représentation algébrique que nous avons utilisée jusqu’à pré-
sent, d’autres méthodes permettent de représenter les fonctions logiques. Les
plus couramment employées sont les représentation tabulaires, implicites, et
graphiques.

5.1.1 Représentations tabulaires


5.1.1.a Table de vérité
La table de vérité nous fait connaître la réaction d’un circuit logique aux di-
verses combinaisons de niveaux logiques appliquées à ses entrées. Chaque

71
Chapitre 5 : Représentation et simplification des fonctions logiques

ligne présente la combinaison des variables d’entrée ainsi que la ou les sorties
correspondante(s).
B Exemple 5.1
La table de vérité d’un additionneur complet est la suivante :
A B C S R
0 0 0 0 0
0 0 1 1 0
0 1 0 1 0 ½
S = A ⊕ B ⊕C
0 1 1 0 1
R = A.B + A.C + B.C
1 0 0 1 0
1 0 1 0 1
1 1 0 0 1
1 1 1 1 1

B Exemple 5.2
Donner la table de vérité d’un circuit à 3 entrées A,B,C et 2 sorties X,Y tel que :
½
X=1 si les 3 entrées ont le même niveau
Y=1 si A=B
Le principal inconvénient de la table de vérité est qu’elle devient rapidement
très encombrante lorsque le nombre de variables d’entrée augmente.

5.1.1.b Diagramme de Veitch


Le diagramme de Veitch est une table sur laquelle on représente les n variables
d’entrée selon les deux axes vertical et horizontal. En général, pour n = p + q
on porte sur les colonnes p variables où p est la partie entière de n/2, et les
q variables restantes sur les lignes. Les colonnes et les lignes sont numérotées
selon l’ordre binaire naturel.
Le diagramme de Veitch de l’exemple précédent est le suivant :
a a
S c c R c c
0 1 1 0 0 0 0 1
b 1 0 0 1 b 0 1 1 1
On peut également numéroter les cases du diagramme de Veitch selon l’image
décimale de la fonction représentée. Chaque case correspond à une ligne de
la table de vérité, et peut donc être représentée par son image décimale (cf.
§ 5.1.2.b) :

72 ©2002–2009 C. Diou
5.1. Méthodes de représentation des fonctions logiques

a a
S c c R c c

0
0 11 41 50 0
0 10 40 51
b 2
1 30 60 71 b 2
0 3
1 61 71

5.1.1.c Diagramme de Karnaugh[ArtKar53] et termes adjacents


Le diagramme de Karnaugh est un outil graphique, méthodique. Il permet
d’obtenir une solution optimale à la simplification logique (cf. § 5.2.3 page 77).
Comme la table de vérité, le diagramme de Karnaugh met en évidence le rap-
port entre les entrées et les sorties (chaque ligne de la table de vérité corres-
pond à une case du diagramme de Karnaugh).
Deux termes sont adjacents quand ils ne diffèrent l’un de l’autre que par une
seule variable. ABC et ABC sont adjacents. Un diagramme – ou tableau – de Kar-
naugh est une table d’implication logique disposée de telle manière que deux
termes logiquement adjacents soient également adjacents géométriquement.
Le diagramme de Karnaugh est très proche du diagramme de Veitch présenté
§ 5.1.1.b, mais afin d’exploiter la notion d’adjacence ente les termes, les cases
sont ordonnées selon le code binaire réfléchi, au lieu du code binaire naturel.
Ï Remarque 5.1
Les tableaux de Karnaugh se présentent comme des cylindres fermés dans les
deux sens.

B Exemple 5.3
X X
A B X B B
A 0 1
0 0 1
0 1 0 0 1 0 1 0
1 0 0
1 1 1 1 0 1 A 0 1

Le diagramme de Karnaugh de l’exemple précédent est le suivant :


a a
S c R c
0 1 0 1 0 0 1 0
b 1 0 1 0 b 0 1 1 1

©2002–2009 C. Diou 73
Chapitre 5 : Représentation et simplification des fonctions logiques

Comme pour le diagramme de Veitch, on peut numéroter les cases du dia-


gramme de Karnaugh selon l’image décimale de la fonction représentée :
a a
S c R c

0
0 11 50 41 0
0 10 51 40
b 2
1 30 71 60 b 2
0 31 71 61

Ï Remarque 5.2
– il peut exister des états indifférents (notés « X »). Ces états correspondent à des
combinaisons d’entrée impossibles. On les remplacera par 1 ou 0 de façon à
avoir la simplification la plus optimale ;
– on peut utiliser une meme case plusieurs fois, puisque x + x + x + · · · + x = x.
Chaque case du tableau représente une combinaison et une seule des variables
de la fonction. Dans cette case, on inscrit « 0 » ou « 1 » selon la valeur prise par
la fonction. Cette combinaison exclusive de variables peut être notée par un ET
entre les variables représentées.
Par exemple, la case pour laquelle a = 0, b = 1, c = 0 et d = 1 sera notée abcd :
c’est un « minterme ».
La représentation de la fonction sera alors la somme logique (OU) de toutes les
combinaisons pour lesquelles la fonction vaut « 1 ».
Quelquefois, on peut préférer considérer la seconde forme canonique. La com-
binaison exclusive de variables sera alors notée par un OU entre les variables
représentées.
Par exemple, la case pour laquelle a = 0, b = 1, c = 0 et d = 1 sera notée a + b +
c + d : c’est un « maxterme ».

5.1.1.d Diagramme de Venn


À venir . . .

5.1.1.e Diagramme de Johnston


À venir . . .

5.1.1.f Diagramme de Caroll


À venir . . .

74 ©2002–2009 C. Diou
5.1. Méthodes de représentation des fonctions logiques

5.1.2 Représentations implicites


5.1.2.a Image caractéristique
L’image caractéristique d’une fonction F à n entrée est constituée des 2n va-
leurs de cette fonction, ordonnées selon l’ordre binaire naturel.
Ainsi, soit la fonction F(x 0 , x 1 ) suivante, définie par sa table de vérité :
x0 x1 F
0 0 0
0 1 1
1 0 0
1 1 0
On peut représenter F par son image caractéristique, soit I c [F(x 0 , x 1 )] = 0100.
Reprenons la table de vérité d’un additionneur complet :
A B C S R
0 0 0 0 0
0 0 1 1 0
0 1 0 1 0
0 1 1 0 1
1 0 0 1 0
1 0 1 0 1
1 1 0 0 1
1 1 1 1 1
L’image caractéristique de S est I c [S(A, B,C )] = 01101001.
L’image caractéristique de R est I c [R(A, B,C )] = 00010111.

5.1.2.b Image décimale


Nous avons vu que toute fonction logique F peut s’exprimer par ses formes
canoniques, soit comme somme de produits, soit comme produit de sommes.
On notera donc la fonction F comme :
Xsomme des états pour lesquels elle vaut « 1 » que l’on notera : F1 =
+ la
(d 1 , . . . , d p )
Yproduit des états pour lesquels elle vaut « 0 » que l’on notera : F0 =
+ le
(d 1 , . . . , d p )
où d 1 à d p représentent les valeurs décimales des nombres binaires représen-
tés par les variables de la fonction

©2002–2009 C. Diou 75
Chapitre 5 : Représentation et simplification des fonctions logiques

Reprenons comme exemple la fonction F(x 0 , x 1 ) présentée § 5.1.2.a. On numé-


rote les différents états de cette fonction en attribuant des poids aux variables
selon l’ordre binaire naturel ; notons N la valeur décimale de ces états :
N x0 x1 F
0 0 0 0
1 0 1 1
2 1 0 0
3 1 1 0
La fonction F(x 0 , x 1 ) peut s’écrire :
F1 = x 0 .x 1 = (1)
X

F0 = (x 0 + x 1 ).(x 0 + x 1 ).(x 0 + x 1 ) = (0, 2, 3)


Y

Le principal avantage de la notation décimale est le risque d’erreur très faible


lors de son écriture. En effet, il est plus difficile de remplacer un 3 par un 1 que
d’oublier une barre de complémentation sur une variable.
De plus, on a vu dans les sections 5.1.1.b et 5.1.1.c que cette notation est utilisée
pour numéroter les cases des diagrammes de Veitch et de Karnaugh, et faciliter
ainsi la représentation d’une fonction sous forme de diagramme.

5.1.3 Représentations graphiques


5.1.3.a Logigramme

ƒƒ‚
Un logigramme est un schéma illustrant l’expression d’une fonction logique
sans tenir compte des constituants technologiques.
B Exemple 5.4
A &
X = A.B +C −→ ≥1 1
B X = A.B +C
C

Ï Remarque 5.3
Notation : Par convention, une entrée ou une sortie d’opérateur logique active à
un niveau haut sera notée a, b, sel, etc.
Une entrée ou une sortie d’opérateur logique active à un niveau bas sera notée c,
d, MEM, etc.

76 ©2002–2009 C. Diou
5.2. Simplification d’expressions logiques

5.2 Simplification d’expressions logiques


À venir . . .

5.2.1 Formes canoniques d’une fonction logique


À venir . . .

5.2.2 Méthode algébrique


Il n’est pas facile de trouver le résultat minimal → application des théorèmes
de De Morgan, factorisation, astuce, ...
B Exemple 5.5
x+xy = x(1+y)+xy = x+xy+xy = x+y (théorème d’allègement)
x.(x+y) = x+xy = x (absorption)
ABC + ABC + ABC + ABC = AC + AB + BC

5.2.3 Simplification par diagramme de Karnaugh


La méthode de simplification d’une fonction par diagramme de Karnaugh
s’appuie sur l’adjacence entre les termes de la fonction pour en extraire la re-
présentation la plus simple possible.
Les diagrammes de Karnaugh contiennent des ensembles de termes (« 0 » ou
« 1 ») nommés implicants. Ces ensembles sont des :
– implicants simples lorsqu’il s’agit de termes isolés ;
– implicants majeurs lorsqu’il s’agit d’ensembles contenant 2n termes aussi
grands que possible ;
– implicants majeurs essentiels lorsque les termes considérés ne sont présents
dans aucun autre implicant ;
– implicants majeurs non essentiels lorsqu’un terme est présent dans plu-
sieurs implicants.

5.2.3.a Simplification par extraction des sommes de produits


La méthode est la suivante :
1. dessiner la table de Karnaugh correspondant à la fonction ;

©2002–2009 C. Diou 77
Chapitre 5 : Représentation et simplification des fonctions logiques

– on entame les « 1 » isolés ;


– on réunit les octets de « 1 » adjacents ;
– on réunit les quartets de « 1 » adjacents ;
– on réunit les doublets de « 1 » adjacents pour réunir tous les « 1 » du
tableau ;
2. identifier tous les implicants majeurs essentiels pour les « 1 » ;
3. identifier tous les implicants majeurs non essentiels pour les « 1 » ;
4. pour tous les implicants majeurs essentiels et un des implicants ma-
jeurs non essentiels sélectionné dans chaque ensemble, déterminer les
termes de produits correspondant ;
5. effectuer l’addition logique de tous les termes précédents, sachant que :
– un octet de « 1 » permet d’éliminer les 3 variables qui se trouvent sous
les deux formes (complémenté et non complémenté) ;
– un quartet de « 1 » permet d’éliminer les 2 variables qui se trouvent
sous les deux formes (complémenté et non complémenté) ;
– un doublet de « 1 » permet d’éliminer la variable qui se trouve sous les
deux formes (complémenté et non complémenté) ;

B Exemple 5.6
Simplifier la fonction :
F(A, B,C ) = m(0, 1, 4, 5) = A.B .C + A.B .C + A.B .C + A.B .C
P

Solution :
A
F
C
 
1 1 1 5 1 4 1 
0

B 20 30 70 60
F1 = (0, 1, 4, 5)
½

F0 = (2, 3, 6, 7)
– l’implicant majeur essentiel est B
– il n’y a aucun implicant majeur non essentiel
La solution est F (A, B,C ) = B

B Exemple 5.7
Simplifier la fonction :
F(A, B,C ) = m(0, 1, 4, 6, 7) = A.B .C + A.B .C + A.B .C + A.B.C + A.B.C
P

78 ©2002–2009 C. Diou
5.2. Simplification d’expressions logiques

Solution :
A
F
C
  
0  
1 11 5
0 1
4 
6 
B 2 0 3 0 71 1
F1 = (0, 1, 4, 6, 7)
½

F0 = (2, 3, 5)
– les implicants majeurs essentiels sont A.B et A.B
– les implicants majeurs non essentiels sont B .C ou A.C

La solution est F (A, B,C ) = A.B + A.B + B .C

ou F (A, B,C ) = A.B + A.B + A.C


Normalement, l’utilisation des tableaux de Karnaugh pour la simplification par
extraction des sommes de produits exploite l’adjacence entre les « 1 » pour re-
présenter la fonction à simplifier. Cependant, il est possible d’utiliser les « 0 »
en procédant exactement de la même manière : on obtiendra alors une repré-
sentation de la fonction complémentée.

5.2.3.b Simplification par extraction des produits de sommes


La méthode est la suivante :
1. dessiner la table de Karnaugh correspondant à la fonction ;
– on entame les 0 isolés ;
– on réunit les octets de 0 adjacents ;
– on réunit les quartets de 0 adjacents ;
– on réunit les doublets de 0 adjacents pour réunir tous les 1 du tableau ;
2. identifier tous les implicants majeurs essentiels pour les « 0 » ;
3. identifier tous les implicants majeurs non essentiels pour les « 0 » ;
4. pour tous les implicants majeurs essentiels et un des implicants ma-
jeurs non essentiels sélectionné dans chaque ensemble, déterminer les
termes de sommes correspondant ;
5. effectuer l’addition logique de tous les termes précédents, sachant que :
– un octet de 0 permet d’éliminer les 3 variables qui se trouvent sous les
deux formes (complémenté et non complémenté) ;
– un quartet de 0 permet d’éliminer les 2 variables qui se trouvent sous
les deux formes (complémenté et non complémenté) ;

©2002–2009 C. Diou 79
Chapitre 5 : Représentation et simplification des fonctions logiques

– un doublet de 0 permet d’éliminer la variable qui se trouve sous les


deux formes (complémenté et non complémenté) ;
B Exemple 5.8
Simplifier la fonction :
F(A, B,C ) = M (2, 3, 5) = A.B .C + A.B .C + A.B.C
Q

Solution :
A
F
C

1 1 50 
0 1
1
 4
B 20 3 0 
7
1 61
F1 = (0, 1, 4, 6, 7)
½

F0 = (2, 3, 5)
– les implicants majeurs essentiels sont A + B et A + B +C
– il n’y a aucun implicant majeur non essentiel
La solution est F (A, B,C ) = (A + B ).(A + B +C )

B Exemple 5.9
Simplifier la fonction :
F(A, B,C ) = M (0, 1, 5, 7, 8, 9, 15)
Q

Solution :
B
F
D
 
0
0 10  0 41
5 
2
1 3 1 70 6 1
C
A 
10 0 
1 111 15 14
1
8
0 9 0 131 121
F1 = (2, 3, 4, 6, 10, 11, 12, 13, 14)
½

F0 = (0, 1, 5, 7, 8, 9, 15)
– les implicants majeurs essentiels sont B +C et B +C + D
– les implicants majeurs non essentiels sont A + B + D ou A +C + D

La solution est F (A, B,C ) = (B +C ).(B +C + D).(A + B + D)

ou F (A, B,C ) = (B +C ).(B +C + D).(A +C + D)

80 ©2002–2009 C. Diou
5.2. Simplification d’expressions logiques

Normalement, l’utilisation des tableaux de Karnaugh pour la simplification par


extraction des produits de sommes exploite l’adjacence entre les « 0 » pour re-
présenter la fonction à simplifier. Cependant, il est possible d’utiliser les « 1 »
en procédant exactement de la même manière : on obtiendra alors une repré-
sentation de la fonction complémentée.

5.2.3.c Cas des états indéterminés ou indifférents

Dans le cas général, l’utilisation des « 1 » ou des « 0 » doit conduire à


B des fonctions équivalentes (l’une étant la complémentaire de l’autre),
même si les écritures peuvent être différentes. Cependant, il faut considérer
avec attention le cas particulier des fonctions non complètement définies.
Certaines fonctions logiques sont données comme étant incomplètes (avec des
états indéterminés) ou avec des états indifférents (combinaisons de variables
d’entrées n’influençant pas le résultat). Ces conditions permettent de simpli-
fier le tableau de Karnaugh, et par là-même, l’implantation de la fonction sous
forme matérielle.
En plus des ensembles de « 0 » et des ensembles de « 1 », il y a donc éga-
lement des ensembles de « X » ou « - » qui représentent les états indétermi-
nés/indifférents de la fonction à minimiser. Ces états « X » ou « - » peuvent être
rassemblés indifféremment avec des « 0 » ou « 1 » pour simplifier la minimisa-
tion logique dans les tableaux de Karnaugh.
Ainsi :
– les cases non définies d’un diagramme de Karnaugh peuvent être exploitées
dans une simplification par les « 1 » comme dans une simplification par les
« 0 »;
– en conséquence, une même case pourra avoir été utilisée à la fois dans la
représentation directe de la fonction, et dans sa représentation complémen-
tée ;
– ainsi, si les deux représentations obtenues sont toutes deux justes, elles ne
sont en aucun cas identiques, ni même équivalente : les fonctions sont dif-
férentes, bien que correspondant toutes deux au même diagramme de Kar-
naugh.
B Exemple 5.10
Soit le tableau de Karnaugh suivant à simplifier sous forme de somme de produit :

©2002–2009 C. Diou 81
Chapitre 5 : Représentation et simplification des fonctions logiques

B
F
D

0 10 50 41
 0

2
1 31 70 61
C

10
X 111 0 14X
15
A
8
0 9
0 X
13 1 
12

 F1 = (2, 3, 4, 6, 11, 12)


F = (0, 1, 5, 7, 8, 9, 15)
 0
FX = (10, 13, 14)
Solution :
– les implicants majeurs essentiels sont B.D et B .C
– il n’y a aucun implicant majeur non essentiel
est F (A, B,C ) = B.D + B .C
PQ
La solution

B Exemple 5.11
Soit le tableau de Karnaugh suivant à simplifier sous forme de produit de somme :
B
F
D

0
0 10  5
0 41
1 1 0 1
C 2 3 7 6
X 111 150 14X
A 
10 
8
0 9 0 13
 X 1
12

 F1 = (2, 3, 4, 6, 11, 12)


F = (0, 1, 5, 7, 8, 9, 15)
 0
FX = (10, 13, 14)
Solution :
– les implicants majeurs essentiels sont B +C et B + D
– il n’y a aucun implicant majeur non essentiel
est F (A, B,C ) = (B +C ).(B + D)
QP
La solution

5.3 Simplifications par méthodes algorithmiques


Au delà de 6 variables, on utilise des méthodes algorithmiques.

82 ©2002–2009 C. Diou
5.3. Simplifications par méthodes algorithmiques

5.3.1 Algorithme de Quine–McCluskey [Wiki01]


L’algorithme de Quine–McCluskey (ou méthode des implicants majeurs) est
une méthode utilisée pour la minimisation de fonctions booléennes dévelop-
pée par Willard Van Orman Quine et Edward J. McCluskey.
Il est fonctionnellement identique à la méthode du tableau de Karnaugh, mais
sa forme tabulaire le rend plus efficace lors d’une utilisation dans des algo-
rithmes informatiques, et il fournit également un moyen déterministe de véri-
fier que la forme minimale d’une fonction booléenne a été atteinte.
La méthode comporte deux étapes :
1. trouver tous les implicants majeurs de la fonction ;
2. utiliser ces implicants majeurs dans un tableau pour trouver les impli-
cants majeurs essentiels de la fonction, ainsi que les autres implicants
majeurs nécessaires pour couvrir la fonction.

5.3.1.a Complexité
Bien qu’il soit plus pratique que les tableaux de Karnaugh pour manipuler
des fonctions comportant plus de quatre variables, l’algorithme de Quine–
McCluskey offre une étendue d’utilisation limitée puisque le problème qu’il ré-
sout est NP-complet : le temps de calcul de l’algorithme de Quine–McCluskey
croît exponentiellement avec le nombre d’entrées.
Il peut être montré que pour une fonction de n variables, la valeur limite supé-
rieure pour le nombre d’implicants majeurs est 3n/n. Si n = 32 il peut y avoir
plus de 6, 5 × 1015 implicants majeurs. Les fonctions possédants un nombre de
variables important doivent être minimisées à l’aide de méthodes heuristiques
potentiellement non-optimales, pour lesquelles l’heuristique de minimisation
logique Espresso constitue le standard mondial mondial de facto.
B Exemple 5.12
Étape 1 : trouver les implicants majeurs
On veut minimiser la fonction arbitraire suivante :
F (A, B,C , D) = m(4, 8, 10, 11, 12, 15) + d (9, 14)
P

©2002–2009 C. Diou 83
Chapitre 5 : Représentation et simplification des fonctions logiques

A B C D F
m0 0 0 0 0 0
m1 0 0 0 1 0
m2 0 0 1 0 0
m3 0 0 1 1 0
m4 0 1 0 0 1
m5 0 1 0 1 0
m6 0 1 1 0 0
m7 0 1 1 1 0
m8 1 0 0 0 1
m9 1 0 0 1 x
m10 1 0 1 0 1
m11 1 0 1 1 1
m12 1 1 0 0 1
m13 1 1 0 1 0
m14 1 1 1 0 x
m15 1 1 1 1 1
On peut facilement former l’expression de la somme canonique à partir de cette
table simplement en additionnant les mintermes (en ignorant les termes X,
don’t care) là où la fonction est égal à 1.
F A,B,C ,D = A.B.C .D + A.B .C .D + A.B .C .D + A.B .C .D + A.B.C .D + A.B.C .D
Bien sûr, ce n’est certainement pas minimal. Ainsi, pour l’optimiser, tous les
mintermes qui valent 1 sont d’abord placés dans une table de mintermes. Les
termes don’t care sont également ajoutés à cette table, de façon à pouvoir être
combinés aux mintermes :
Nb 1 min-t. Représentation binaire
1 m4 0100
m8 1000
2 m9 1001
m10 1010
m12 1100
3 m11 1011
m14 1110
4 m15 1111
À ce point, on peut commencer à combiner les mintermes entre eux. Si deux
termes diffèrent d’un seul bit, ce bit peut être remplacé par un tiret indiquant
que le bit est quelconque. Les termes qui ne peuvent être combinés avec aucun
autre sont précisés par une astérisque (*). Lorsque l’on passe de la taille 2 à la
taille 4, le tiret ’-’ est traité comme étant une troisième valeur de bit.

84 ©2002–2009 C. Diou
5.3. Simplifications par méthodes algorithmiques

Par exemple, -110 et -100 peuvent être combinés, mais pas -110 et 011-. L’astuce
est de faire correspondre d’abord les ’-’.
Implicants de taille 2
Nb 1 min-t. 0-Cube m(4,12) -100*
1 m4 0100 m(8,9) 100-
m8 1000 m(8,10) 10-0
Implicants de taille 4
2 m9 1001 m(8,12) 1-00
m(8,9,10,11) 10--*
m10 1010 m(9,11) 10-1
m(8,10,12,14) 1--0*
m12 1100 m(10,11) 101-
m(10,11,14,15) 1-1-*
3 m11 1011 m(10,14) 1-10
m14 1110 m(12,14) 11-0
4 m15 1111 m(11,15) 1-11
m(14,15) 111-
Étape 2 : table des implicants majeurs
Aucun des termes de peut plus être combiné à aucun autre, ainsi devons nous
construire une table des implicants majeurs essentiels. Les lignes représentent
les implicants majeurs générés précédements, et les colonnes les mintermes
spécifiés plus haut. Les termes don’t care ne sont pas placés parmi les impli-
cants – ils sont omis de cette section parce qu’ils ne constituent pas des entrées
nécessaires.
4 8 10 11 12 15
m(4,12)* X X -100
m(8,9,10,11) X X X 10--
m(8,10,12,14) X X X 1--0
m(10,11,14,15)* X X X 1-1-
Ici, chacun des implicants majeurs essentiels a été marqué d’une astérisque – le
second implicant majeur peut être « couvert » par le troisième et le quatrième,
et le troisième implicant majeur peut être « couvert » par le second et le premier,
et ne sont donc plus essentiels. Si un implicant majeur est essentiel, comme ce
à quoi on s’attend, il est alors nécessaire de l’inclure dans l’équation booléenne
minimisée. Dans certains cas, les implicants majeurs essentiels ne couvrent pas
tous les mintermes, auquel cas des procédures additionnelles peuvent être em-
ployées pour réduire la table. La procédure la plus simple serait de procéder par
tests et erreurs, mais un moyen plus systématique est la méthode de Petricks.
Dans cet exemple, les implicants majeurs essentiels ne prennent pas en compte
tous les mintermes, et on peut donc dans ce cas combiner les implicants essen-
tiels avec l’un des deux non-essentiels pour obtenir l’une de ces deux équations :
F A,B,C ,D = B.C .D + A.B + A.C
F A,B,C ,D = B.C .D + A.D + A.C

©2002–2009 C. Diou 85
Chapitre 5 : Représentation et simplification des fonctions logiques

Ces deux équations finales sont fonctionnellement équivalentes à l’originale


beaucoup plus coûteuse en surface :
F A,B,C ,D = AB.C .D+A.B .C .D+A.B .C D+A.B .C .D+A.BC .D+A.B.C .D+A.B.C .D+
A.B.C .D

5.3.2 Méthode de Petrick [Wiki02]


En algèbre booléenne, la méthode de Petrick est une technique permettant de
déterminer toutes les solutions minimales de sommes de produits pour une
table d’implicants majeurs. Cette méthode est très pénible pour des grands ta-
bleaux, mais elle est simple à implanter de façon informatique.
1. Réduire la table des implicants majeurs en éliminant les lignes d’impli-
cants majeurs essentiels et les colonnes correspondantes.
2. Numéroter les lignes de la table réduite des implicants majeurs P 1 , P 2 ,
P 3 , P 4 , etc.
3. Construire une fonction logique P qui est vraie si toutes les colonnes
sont couvertes. P consiste en un produit de sommes où chaque terme
de somme a la forme (P i 0 + P i 1 + · · · + P i N ), où chaque P i j représente
une ligne qui couvre la colonne i .
4. Réduire P à une somme de produits minimale en multipliant les impli-
cants majeurs et en appliquant X + X .Y = X .
5. Chaque terme du résultat représente une solution, c’est-à-dire un en-
semble de lignes qui couvrent tous les mintermes de la table. Pour dé-
terminer les solutions minimales, trouver les termes qui contiennent un
nombre minimum d’implicants majeurs.
6. Pour chacun des termes trouvés à l’étape précédente, compter le nombre
de litéraux dans chaque implicant majeur et trouver le nombre total de
litéraux.
7. Choisir le ou les termes composés du nombre total minimum de lité-
raux, puis écrire les sommes d’implicants majeurs correspondantes.

B Exemple 5.13
Nous voulons réduire la fonction suivante :
F (A, B,C , D) = m(0, 1, 2, 5, 6, 7)
P

La table d’implicants majeurs obtenue par l’algorithme de Quine–McCluskey


est la suivante :

86 ©2002–2009 C. Diou
5.3. Simplifications par méthodes algorithmiques

0 1 2 5 6 7
K (0,1) a.b X X
L (0,2) a.c X X
M (1,5) b.c X X
N (2,6) b.c X X
P (5,7) a.c X X
Q (6,7) a.b X X
En se basant sur les X de la table ci-dessus, construire un produit de sommes
des lignes où chaque ligne est additionnée et les colonnes multipliées :
(K + L)(K + M )(L + N )(M + P )(N +Q)(P +Q)
Utiliser la règle de distributivité pour transformer cette expression en une
somme de produits. Utiliser également les équivalence suivantes pour simpli-
fier l’expression finale : X + X .Y = X et X .X = X et X + X = X
= (K + L)(K + M )(L + N )(M + P )(N +Q)(P +Q)
= (K + LM )(N + LQ)(P + MQ)
= (K N + K LQ + LM N + LMQ)(P + MQ)
= K N P + K M N P + LM N P + LM PQ + K M NQ + K LMQ + LM NQ + LMQ
Utiliser l’équivalence suivante pour réduire encore l’équation : X + X .Y = X
= K N P + LM N P + LMQ + K M NQ
Choisir les produits avec le moins de termes ; dans cet exemple, il y a deux pro-
duits avec trois termes : K N P et LMQ
Choisir le ou les termes avec le plus petit nombre de littéraux. Dans cet exemple,
les deux produits se développent en un total de 6 littéraux chacun :
K N P se développe en a.b + b.c + a.c
LMQ se développe en a.c + b.c + a.b
Ainsi, l’un comme l’autre peut être utilisé.

5.3.3 Heuristique de minimisation logique Espresso [Wiki03]


Le minimiseur logique Espresso est un programme informatique largement ré-
pandu utilisant une heuristique et des algorithmes spécifiques pour réduire ef-
ficacement la complexité des circuits logiques. Espresso a été développé chez
IBM par Richard L. Rudell. Rudell publia plus tard la variante Espresso-MV
(1986) sous le titre « Multiple-Valued Logic Minimization for PLA Synthesis »
(Minimisation de logique multivaluée pour la synthèse de PLA).

5.3.3.a Introduction
Conception des circuits logiques

©2002–2009 C. Diou 87
Chapitre 5 : Représentation et simplification des fonctions logiques

Tous les systèmes numériques sont composés de deux fonctions élémentaires :


des éléments mémoire pour stocker l’information et des circuits à portes
logiques combinatoires pour traiter cette information. Les machines d’état,
comme les compteurs, ne sont rien d’autre qu’une combinaison d’éléments
mémoire et de circuits combinatoires. Puisque les circuits mémoire sont des
composants standards devant être sélectionnés parmi un ensemble limité, la
conception de fonctions numériques passe par l’implantation des circuits à
porte combinatoire pour les blocs de base ainsi que l’interconnexion de tous
ces blocs de base.
En général, l’implantation de circuits à portes logiques est nommée « syn-
thèse logique », qui peut être faite manuellement, mais pour laquelle des mé-
thodes informatiques formelles sont généralement appliquées. Les méthodes
de conception de circuits combinatoires sont brièvement résumées ici.
Le point de départ de la conception des circuits logiques est la fonctionnalité
souhaitée, obtenue à partir de l’analyse du système comme un tout, le circuit
logique en étant une partie. La description peut être faite sous forme algorith-
mique ou sous forme d’équations logiques, mais peut également être résumée
sous la forme d’une table. L’exemple ci-dessous montre le début d’une telle
table représentant un convertisseur binaire → 7 segments :

Digit Code Segments A-G


0 0000 1111110
1 0001 0110000
2 0010 1101101
3 0011 1111001
. .... .......

Le processus d’implantation commence avec la phase de minimisation lo-


gique, décrite ci-dessous, afin de simplifier la table de vérité en combinant les
termes séparés en termes plus important contenant moins de variables.
Ensuite, le résultat minimisé peut être séparé en parties plus petites par une
procédure de factorisation puis est finalement mappé sur les cellules logiques
disponibles de la technologie cible. Cette opération est nommée « optimisation
logique ».
Méthodes de minimisation classiques
Minimiser les fonctions booléennes à la main en utilisant les classiques dia-
grammes de Karnaugh est un processus laborieux, pénible et source d’erreurs.
Ce n’est pas adapté pour des systèmes à plus de 6 variables d’entrée et utili-

88 ©2002–2009 C. Diou
5.3. Simplifications par méthodes algorithmiques

sable en pratique jusqu’à seulement 4 variables, alors que les fonctions à plu-
sieurs sorties sont encore plus complexes à gérer. De plus, cette méthode n’est
pas adaptée à une implantation sous forme de programme informatique. Or,
puisque les fonctions logiques actuelles ne sont généralement pas limitées à
un si petit nombre de variables alors que le coût et le risque de faire des er-
reurs est prohibitif pour une implantation manuelle, l’utilisation d’ordinateurs
devient indispensable.
La première méthode alternative à devenir populaire fut la méthode tabulaire
développé par Quine et McCluskey. Partant de la table de vérité pour un en-
semble de fonctions logiques, en combinant les mintermes pour lesquelles les
fonctions sont actives – ON-cover – ou pour lesquelles la valeur de la fonction
est sans objet – DC-cover – un ensemble d’implicants majeurs est composé. En-
fin, une procédure systématique suit pour trouver le plus petit ensemble d’im-
plicants majeurs avec lesquels la fonction peut-être réalisée.
Bien que l’algorithme Quine–McCluskey soit très bien adapté à une implanta-
tion informatique, le résultat est cependant loin d’être efficace en termes de
temps de calcul et d’utilisation mémoire. L’ajout d’une variable à la fonction
double chacun d’eux, parce que la longueur de la table de vérité augmente ex-
ponentiellement avec le nombre de variables. Un problème similaire se pose
lorsque l’on augmente le nombre de fonctions de sortie d’un bloc combina-
toire. Finalement, la méthode Quine–McCluskey est utilisable en pratique uni-
quement pour les fonctions comportant un nombre limité de variables d’en-
trée et de fonctions de sortie.

5.3.3.b Algorithme Espresso


Une approche radicalement différente de ce problème est suivie par l’algo-
rithme Espresso, développé par Brayton à Berkeley, université de Californie.
Plutôt que d’étendre la fonction logique en mintermes, le programme mani-
pule des « cubes » représentant les termes de produits couvrant les 1 (ON), les
X (DC) et les 0 (OFF) itérativement. Bien que le résultat de la minimisation ne
soit pas garanti comme étant le minimum global, il en est en pratique une ap-
proximation très proche, alors que la solution est toujours sans redondance.
Comparée aux autres méthodes, celle-ci est essentiellement plus efficace, ré-
duisant l’utilisation mémoire et le temps de calcul par plusieurs ordres de ma-
gnitude. Son nom fait référence au fait de préparer instantanément une tasse
de café. Il y a difficilement des restrictions au nombre de variables, de fonc-
tions de sortie, et de termes de produits d’un bloc combinatoire. En général,

©2002–2009 C. Diou 89
Chapitre 5 : Représentation et simplification des fonctions logiques

cela signifie que des dizaines de variables avec des dizaines de fonctions de
sortie peuvent être traitées.
L’entrée d’Espresso est une table de fonction de la fonctionnalité désirée ; le ré-
sultat est une table minimisée, décrivant soit les 1, soit les 0 de la fonction, se-
lon les options sélectionnées. Par défaut les termes de produits seront partagés
autant que possible par les différentes fonctions de sortie mais le programme
peut être configuré pour traiter chacune des fonctions de sortie séparément.
Ceci permet une implantation efficace sur des réseaux logiques à deux dimen-
sions tels que des PLA (Programmable Logic Array) ou des PAL (Programmable
Array Logic).
L’algorithme Espresso s’est révélé si efficace qu’il est incorporé comme étape
standard de minimisation des fonctions logiques dans virtuellement tout ou-
til de synthèse logique actuel. Pour implanter une fonction en logique à plu-
sieurs niveaux, le résultat de la minimisation est optimisé par factorisation puis
mappé sur les cellules logiques disponibles de la technologie cible, que ce soit
un FPGA (Field Programmable Gate Array) ou un ASIC (Application Specific In-
tegrated Circuit).

90 ©2002–2009 C. Diou
m Chapitre 6 n
Les circuits combinatoires
Augustus De Morgan
? 27 juin 1806, Madura, Indes
† 18 mars 1871, Londres, R.-U.

 

i.e. le complément de l'intersecion d'un nombre quelconque d'en-


\ [
comp  A j  = comp(A j )
j j
sembles

ee

égal à l'union de leurs compléments.
i.e. le complément de l'union d'un nombre quelconque d'ensembles
[ \
comp  A j  = comp(A j )
j j
ee égal à l'intersecion de leurs compléments.

6.1 Circuits logiques combinatoires usuels


Un Circuit combinatoire est un circuit dont les sorties dépendent uniquement
de la combinaison des états des entrées à l’instant de l’observation.

6.1.1 Circuits de transcodage (codeurs, décodeurs,


convertisseurs)
6.1.1.a Codeur (encodeur)
Un codeur est un circuit à M=2N entrées et N sorties qui code en binaire le rang
de la seule entrée active.

91
Chapitre 6 : Les circuits combinatoires

A0 S0

une seule A1 S1
représentation
entrée active en sortie sur
A2 S2
à la fois N bits

A m-1 S
n-1

B Exemple 6.1
Soit le codeur décimal-DCB à 10 entrées et 4 sorties suivant :

0
1
S
2 0

3
S
4 1

5
S
6 2

7
S
8 3

La table de vérité de ce codeur est la suivante :


A9 A8 A7 A6 A5 A4 A3 A2 A1 A0 S3 S2 S1 S0
1 1 1 1 1 1 1 1 1 0 0 0 0 0
1 1 1 1 1 1 1 1 0 1 0 0 0 1
1 1 1 1 1 1 1 0 1 1 0 0 1 0
1 1 1 1 1 1 0 1 1 1 0 0 1 1
1 1 1 1 1 0 1 1 1 1 0 1 0 0
1 1 1 1 0 1 1 1 1 1 0 1 0 1
1 1 1 0 1 1 1 1 1 1 0 1 1 0
1 1 0 1 1 1 1 1 1 1 0 1 1 1
1 0 1 1 1 1 1 1 1 1 1 0 0 0
0 1 1 1 1 1 1 1 1 1 1 0 0 1
On notera que ce codeur fonctionne en logique négative : l’unique entrée active
est au niveau logique « 0 ».

92 ©2002–2009 C. Diou
6.1. Circuits logiques combinatoires usuels

Application pratique 6.1 : Codeur de clavier numérique

2
représentation DCB

Ï Remarque 6.1
Les codeurs de priorités sont une version modifiée du codeur : quand deux en-
trées sont actives, c’est l’entrée correspondant au nombre le plus haut qui est
choisi.

6.1.1.b Décodeur
Le décodeur est un circuit qui établit la correspondance entre un code d’entrée
sur N bits et M lignes de sortie (M ≤ 2N ).
Pour chacune des combinaisons d’entrée, une seule ligne de sortie est validée.
B Exemple 6.2
Décodeur DCB-décimal : 4 entrées, 10 sorties.

Ï Remarque 6.2
La plupart des décodeurs sont dotés d’une ou plusieurs entrées de validation qui
commandent son fonctionnement.

©2002–2009 C. Diou 93
Chapitre 6 : Les circuits combinatoires

Application pratique 6.2 : Adressage d’une mémoire


ligne 0

ligne 1

ligne i
0 1 1 0 1 1 1 1
10 lignes
adresse i ligne 1023

8 lignes de
autorisation
données
accès mémoire
0 1 1 0 1 1 1 1

– une mémoire est un tableau d’éléments binaires (divisés en lignes et colonnes) ;


– pour lire un mot mémoire, il faut lui envoyer le numéro de ligne souhaité (adresse) ;
– souvent, le décodeur est interne à la mémoire.

Application pratique 6.3 : Génération de fonction


Toute fonction logique peut être réalisée à partir d’une combinaison de déco-
deur.
B Exemple 6.3

F=ABC+ABC+AB+C

Ï Remarque 6.3

Il n’est pas nécessaire de simplifier la fonction avant la réalisation.

6.1.1.c Mise en cascade des décodeurs


Utilisation de l’entrée de validation.
B Exemple 6.4
Réaliser un décodeur à 3 entrées en utilisant 2 décodeurs à 2 entrées.
e0 s0
Q s1
e1 s2
s3
V
s

e0 s4
Q s5
e1 s6
s7
e2 V

Réaliser un décodeur à 16 sorties à l’aide de décodeurs à 4 sorties.

94 ©2002–2009 C. Diou
6.1. Circuits logiques combinatoires usuels

6.1.1.d Transcodeurs (convertisseurs)


Circuit à p entrées et k sorties qui convertit un nombre écrit dans un code C1
en un nombre écrit dans un code C2.
B Exemple 6.5
Code binaire → code Gray
Code DCB → code affichage chiffre (décodeur 7 segments)

6.1.2 Multiplexeurs–démultiplexeurs
6.1.2.a Multiplexeurs (MUX)
Circuit à 2n entrées d’informations, n entrées de sélection, et une sortie. Il per-
met l’aiguillage de l’une de ces entrées vers la sortie.
B Exemple 6.6
MUX à 2 entrées de données

sel
E1 E0 sel out
E0 X X 0 E0
MUX
E1
X X 1 E1

out → S=sel.E0 + sel.E1

Ï Remarque 6.4
La table de vérité devient rapidement très importante (à partir de 4 entrées). On
exprime alors la fonction de sortie directement

B Exemple 6.7
MUX à 4 entrées (→ 2 entrées de sélection a1 a0 ) S=a1 .a0 .E0 + a1 .a0 .E1 + · · ·

Application pratique 6.4 : Conversion parallèle–série


On place successivement les valeurs 00, 01, 10, 11 sur a1 a0 .

©2002–2009 C. Diou 95
Chapitre 6 : Les circuits combinatoires

1
1
0 S=1011
1

a1 a0
0 0
0 1
Réalisé par
1 0 un compteur
1 1

Application pratique 6.5 : Générateur de fonctions


Toute fonction logique peut être réalisée à partir des MUX. Les entrées de sé-
lection (commande) sont alors les variables de la fonction.

Application pratique 6.6 : Sélection de mots


Le MUX est réalisé à par-
tir de n MUX à 2 entrées
Source info 1 Source info 2 travaillant avec la même
Ex: clavier Ex: lecteur de
disquettes commande de sélection.
n bits n bits Ï Remarque 6.5

Intérêt : il n’est pas néces-


sélection MUX saire de simplifier la fonc-
aiguillage
tion avant de la réaliser.

n bits B Exemple 6.8

F = ABC + ABC
destination Utilisation de MUX
8 vers 1.
S = ABCE0 + ABCE1 + · · · + ABCE4 + · · ·

96 ©2002–2009 C. Diou
6.1. Circuits logiques combinatoires usuels

6.1.2.b Démultiplexeurs (DEMUX)


Circuit à 2n sorties, 1 entrée d’information, n entrées de commande. Il permet
l’aguillage d’information de l’entrée vers l’une des sorties.
Ï Remarque 6.6
Le MUX–DEMUX est un circuit programmable : les relations entre entrées et sor-
ties sont modifiables.

Application pratique 6.7 : Transmission avec MUX/DEMUX

source 0 récept. 0
MUX émetteur voie de transmission récepteur DEMUX
source n récept. n

6.1.3 Le comparateur
Il détecte l’égalité entre deux nombres A et B. Certains circuits permettent éga-
lement de détecter si A est supérieur ou bien inférieur à B.

6.1.3.a Comparateur de 2 éléments binaires


ai bi Ei Si Ii Ei = ai =bi = a⊕b
0 0 1 0 0
0 1 0 0 1 Si = ai >bi = a.b
1 0 0 1 0 Ii = ai <bi = a.b
1 1 1 0 0 Di = ai 6=bi = a⊕b

6.1.3.b Comparateur de 2 nombres


E

S3
a3 E3 A<B
b3 I 3

S2
a2 E2
b2 I 2
A>B

S1
a1 E1 A=B
b1 I 1

©2002–2009 C. Diou 97
Chapitre 6 : Les circuits combinatoires

6.1.4 L’unité arithmétique et logique (UAL)


Utilisée dans pratiquement tous les systèmes informatiques, elle réalise des
opérations arithmétiques (addition, soustraction, etc.) et logiques (ET, OU,
etc.). C’est un circuit programmable : les relations entre les données en sortie
et les données en entrée sont modifiables.
A opérandes B C0
4 4

sélection
opération

5
S0 S1 S2 S3 M
4

C4 PG
F
résultat

Les sorties P et G servent à la mise en cascade des ALUs, et donc au calcul de


retenue anticipée.
C0 C0 C0 C0

PG PG PG PG

C0 C4 C8 C12

Générateur de retenue anticipée

98 ©2002–2009 C. Diou
6.2. Synthèse des circuits combinatoires

6.2 Synthèse des circuits combinatoires


6.2.1 Présentation

Cahier des charges


Analyse du problème


Choix d’une technologie,Choix des composants


Établissement du schéma


Prototype d’essai


Réalisation finale

Si le nombre de variables mises en œuvre est faible (typiquement inférieur à


10), les circuits sont réalisés directement à l’aide de la table de vérité, éven-
tuellement après simplification de la fonction logique. Dans le cas contraire,
la fonction est décomposée en différents blocs fonctionnels analysés séparé-
ment.
Le choix des composants utilisés est basé sur différents critères : nombre de
boitiers, coût, disponibilité, points test, complexité des connexions, etc.
Les différents choix sont :
a) utilisation de portes simples (OU, ET, NON) ou des portes NON-OU et NON-ET ;

©2002–2009 C. Diou 99
Chapitre 6 : Les circuits combinatoires

b) développement de circuits intégrés (CI) spécialisés. Le problème du coût


de développement et de fabrication impose une production en très grandes
séries ;
c) utilisation de circuits intégrés combinatoires :
– MUX, DEMUX ;
– décodeurs ;
– circuits logiques programmables : PROM, PAL, etc.

6.2.2 Circuits logiques programmables


6.2.2.a Introduction
La réalisation pratique d’un système logique dit « câblé » consiste à utiliser les
composants CI disponibles sur le marché. Cela oblige le concepteur à décom-
poser un système donné en blocs fonctionnels proposés par les constructeurs
et à optimiser son choix.
L’apparition des circuits adaptables dits « programmables » par le constructeur
ou l’utilisateur apporte une solution à ce problème.

6.2.2.b Structure des circuits logiques programmables


Toute fonction logique de n variables peut se mettre sous la forme d’une
somme de produits. Cela implique que toute fonction logique peut être réali-
sée par l’utilisation d’une structure comportant deux ensembles fonctionnels :
– un ensemble d’opérateurs ET organisés sous forme de matrice permet de
générer les produits des variables d’entrée ;
– un ensemble d’opérateurs OU permet de sommer les produits.
La programmation de ces circuits est possible grâce à des fusibles placés à
chaque noeud, et consiste à griller les fusibles de manière à supprimer le
contact entre les lignes.

1. PROM (Programmable Read-Only Memory) ou PLE (Programmable Lo-


gic Element)
Contrairement au FPLA dont les deux matrices sont programmables (cf.
¶ 3 page 102), les structures de type PROM voient leur matrice ET figée
en usine, formant les 2n fonctions possibles des n entrées. La matrice OU
reste quant à elle entièrement programmable.
– chaque sortie de la mémoire correspond à une fonction (sortie 3
états) ;

100 ©2002–2009 C. Diou


6.2. Synthèse des circuits combinatoires

– la matrice ET correspond en fait à un décodeur n → 2n (décodeur


d’adresse) ;
– une fonction est réalisée en programmant sa table de vérité, c’est-à-
dire en mettant en mémoire la valeur de f pour l’ensemble des com-
binaisons des entrées.

: interconnexion non programmée

: interconnexion programmée
e1

e2

en

s1

s2

sm

B Exemple 6.9
Réaliser le circuit N → N 2 (N : nombre codé en DCB sur 4 bits) à l’aide de
la PROM suivante (PROM à 6 entrées et 8 sorties → capacité de 26 = 64
octets) :
(matrice ET fixée)

A0
A1
Décodage
d’adresse

A2
A3
0
0

S S S S S S S S
7 6 5 4 3 2 1 0

©2002–2009 C. Diou 101


Chapitre 6 : Les circuits combinatoires

2. PAL (Programmable Array Logic)


La structure des PAL est opposée à celle des PROM : la matrice OU est
figée alors que la matrice ET est programmable.

Les circuits PAL existent également en logique séquentielle.


B e1

e2

en

s1

s2

sm

3. FPLA (Field Programmable Logic Array) : matrice OU et ET pro-


grammable
La structure des FPLA autorise une très grande souplesse dans la
programmation. Par conséquent, c’est le circuit le plus souvent
proposé pour la réalisation des fonctions logiques.

102 ©2002–2009 C. Diou


6.2. Synthèse des circuits combinatoires

e1

e2

en

s1

s2

sm

B Exemple 6.10
A

s1

s2

sm

– S 1 = A + B.C
– S 2 = A.B.C
– S m = A.C

6.2.3 Programmation des circuits logiques programmables


– Les PROMs et PALs se programment assez facilement avec des « program-
mateurs universels » standards dans lesquels est incorporé un module spé-
cifique pour chaque constructeur ;
– les FPLAs nécessitent des programmateurs plus sophistiqués à cause des
doubles matrices à programmer.

©2002–2009 C. Diou 103


m Chapitre 7 n
Fonctions et opérateurs arithmétiques
Charles Babbage
? 26 déc. 1791, Teignmouth, R.-U.
† 1871, London, R.-U.

... I was siring in the rooms of the Analytical Society, at Cambridge, my head leaning
forward on the table in a kind of dreamy mood, with a table of logarithms lying open
before me. Another member, coming into the room, and seeing me half asleep, called out,
Well, Babbage, what are you dreaming about to which I replied I am thinking that all
these tables (pointing to the logarithms) might be calculated by machinery.
... J'étais assis dans la salle de l'Analytical Society, à Cambridge, ma tête penchée vers la
table dans une sorte d'humeur pensive, avec une table de logarithmes ouverte devant moi.
Un autre membre, entrant dans la pièce et me voyant à moitié endormi, me demanda Et
bien, Babbage, à quoi rêvez-vous ce à quoi je répondis je pense que toutes ces tables
(montrant les logarithmes) pourraient être calculées par une machine.
(Charles Babbage)

105
m Les systèmes combinatoires n
Ï Exercice 7.1
B
Développer et simplifier algébriquement les expressions booléennes suivantes :
– F1 = (x + y).(x + z)
– F2 = (x.y + z).(x + y).z
– F3 = (x + y).z + x.(y + z) + y
– F4 = bd + cd + cd + abcd + abc
– F5 = abc + b.(a + c) + a + b + ac
Ï Exercice 7.2
B
Faire le schéma des fonctions suivantes avec les portes indiquées :
– x = abc + cd (3 portes NOR)
– y = a(b + c) (3 portes NAND)
– z = abc (3 NAND à 2 entrées)
– f = a ⊕ b (4 NAND à 2 entrées)
Ï Exercice 7.3
B
Simplifier les expressions logiques suivantes :
– F1 = ab ⊕ abcd
– F2 = a ⊕ (a + b)
– F3 = a + (a ⊕ b)
– F4 = (a ⊕ b) ⊕ (a ⊕ c)
– F5 = (a ⊕ b) ⊕ (a ⊕ b)

107
Chapitre 7 : Exercices sur les systèmes combinatoires

Ï Exercice 7.4
B
Chercher les formes canoniques des expressions suivantes :
– F1 = a ⊕ (b + c)
– F2 = (a + c).b + (a + c).b
Ï Exercice 7.5
B
Montrer algébriquement que ab + bc + ac = ab + bc + ac. Vérifier à l’aide d’un
diagramme de Karnaugh.

Ï Exercice 7.6
B
Simplifier cette expression à l’aide d’un diagramme de Karnaugh :
F = a(b ⊕ c) + acd + ad (b ⊕ c) + (a ⊕ d )bc + acb ⊕ d
Faire le schéma avec 2 portes dont un XOR.

Ï Exercice 7.7
B
Une fonction f (a, b, c, d ) est incomplètement définie. On code ses états sur le
mot binaire abcd ,a représentant le poids fort. La fonction est vraie pour les
états 0, 1, 3, 4, 6, A, B ; elle est fausse pour les états 7, 8, D, E. Tracer le diagramme
de Karnaugh. Simplifier la fonction en vue d’une réalisation en portes NAND.
Même question avec des portes NOR. Quelle est la meilleure solution ?

108 ©2002–2009 C. Diou


Troisième partie

Les circuits séquentiels


m Chapitre 8 n
Les bascules
Alan Mathison Turing
? 23 juin 1912, Londres, R.-U.
† 8 juin 1954, R.-U.

[A universal machine] ... which can be made to do the work of any special-purpose
machine, that is to say to carry out any piece of computing, if a tape bearing suitable
inerucions is inserted into it.
[Une machine universelle] ... qui peut être conçue pour faire le travail de n'importe quelle
machine spécialisée, c'ee-à-dire de procéder à n'importe quel fragment de calcul, si une
bande comportant les inerucions adaptées y ee insérée.
(Alan M. Turing, 1936, à propos de la machine de Turing )

8.1 Introduction
Circuit séquentiel : circuit dont l’état des sorties dépend non seulement des
entrées mais également de l’état antérieur des sorties. Ces circuits doivent
donc être capables de mémoriser.
B Exemple 8.1
½ ½
M =0 M =1
1 →L=0 2 →L=1
A=0 A=0
½ ½
M =0 M =0
3 →L=1 4 →L=0
A=0 A=1
½
M =0
5 →L=0
A=0
Dans un tel système, à une même combinaison des variables d’entrée ne cor-
respond pas toujours la même valeur à la sortie (3 et 5). La fonctionnalité dé-
pend de l’ordre des opérations (ordre de déroulement des séquence) → sys-
tème séquentiel.
Les fonctions séquentielles de base sont :

111
Chapitre 8 : Les bascules

– mémorisation ;
– comptage ;
– décalage.
Les circuits séquentiels fondamentaux sont :
– bascules (3 types) ;
– compteurs ;
– registres ;
– RAM (Random Access Memory).
Ces circuits peuvent travailler soit en mode synchrone, soit en mode asyn-
chrone :
– mode asynchrone : À tout moment, les signaux d’entrée peuvent provo-
quer le changement d’état des sorties (après un certain retard qu’on appelle
« temps de réponse ». Ces systèmes sont difficiles à concevoir et à dépanner.
– mode synchrone : Le moment exact où les sorties peuvent changer d’état
est commandé par un signal d’horloge (train d’ondes carrées ou rectangu-
laires). Les changements d’état s’effectuent tous pendant une transition ap-
pelée « front » (montant ou descendant).
La majorité des systèmes numériques séquentiels sont synchrones même si
certaines parties peuvent être asynchrone (ex. : reset).
Les avantages principaux du mode synchrone sont :
– préparer les entrées sans perturber les sorties ;
– protéger des parasites survenant en entrée.
Les bascules que l’on peut considérer comme des mémoires élémentaires, sont
les briques de base des circuits séquentiels.
Ce sont les circuits de mémorisation les plus répandus dans les systèmes nu-
mériques en raison de leur rapidité de fonctionnement, de la facilité d’écriture
et de lecture d’information, et de la grande simplicité de leur interconnexion
avec des portes logiques.
On trouve deux grandes familles de bascules :
– bascules de mémorisation : elles possèdent les commandes de mise à zéro,
mise à un, mémorisation ;
– bascules de comptage : elles possèdent en outre une commande de change-
ment d’état.

112 ©2002–2009 C. Diou


8.2. Point mémoire

8.2 Point mémoire


La principale différence entre un système séquentiel et un système combina-
toire est que lorsque l’on présente plusieurs fois de suite un même vecteur
d’entrée à un système séquentiel, celui-ci – contrairement au système combi-
natoire – ne délivre pas nécessairement un le même vecteur de sortie à chaque
fois.
En d’autres termes, l’état de la sortie d’un système séquentiel dépend non
seulement de l’état des variables d’entrée, mais également du paramètre
« temps », lequel paramètre est la plupart du temps concrétisé par « l’état anté-

ƒƒ‚
rieur » du système.
Soient le circuit et sa table de vérité associée suivants :
A B Ft
B ≥1 1 0 0 1
A & C …ÿ F
„
0 1 0
…
„ 1 0 Ct −1
„ „
„ „ 1 1 0
ƒ€ ‚ƒ

La sortie de la fonction F ci-dessus est dépendante d’une variable interne C. On


peut en effet constater que l’état de la variable C dépend de l’état des entrées A
Et B, mais également de son état antérieur : C mémorise donc liée aux entrées
appliquées antérieurement au circuit. On constate sur ce circuit que l’effet de
mémorisation est dû à la boucle de rétroaction présente entre la sortie du OU
et l’entrée du ET. À cette boucle est associée la variable C qui constitue le point
mémoire.

Dénition 8.1
Circuit séquentiel : un circuit séquentiel est un système bouclé permettant la conser-
vation d'un état dépendant de la valeur des variables d'entrée ainsi que de l'état
antérieur du système.
La bascule constitue le système séquentiel de base et permet de mémoriser un
élément d’information élémentaire appelé bit.

Ï Exercice 8.1
B
Quel sera l’état de sortie du système F à l’issue des deux séquences (00, 10) et
(01,10) ?

©2002–2009 C. Diou 113


Chapitre 8 : Les bascules

Nous avons brièvement présenté en introduction de ce chapitre ce qu’étaient


les systèmes séquentiels synchrones et asynchrones. Une autre façon de dé-
crire ces systèmes est donnée par les définitions 8.2 et 8.3 suivantes :

Dénition 8.2
Système asynchrone : un système séquentiel est asynchrone si à partir de l'instant
où on applique un vecteur d'entrée, son évolution est incontrôlable de l'extérieur.

Dénition 8.3
Système synchrone : un système séquentiel est synchrone si son évolution est contrô-
lable de l'extérieur par un signal d'horloge.

8.3 Bascule RS
La bascule RS est le circuit séquentiel le plus simple. C’est une bascule asyn-
chrone, et toutes les autres bascules, synchrones ou asynchrones, reposent sur
cette bascule.
Son rôle consiste à mémoriser une information fugitive, selon le fonctionne-
ment suivant : une apparition, même fugitive, de S entraîne un état stable Q=1,
et une apparition, même fugitive, de R entraîne un état stable Q=0.

`AbRa0
Symbole

S
Q

Q
Tableau de Karnaugh

Q+

0
S
R

0 1 1 5X 4 0
Qt 2 1 3 1 7 X 6 0

Diagramme temporel
Quand une impulsion est appliquée à 1 entrée pour imposer un certain état
à la bascule, celle-ci demeure dans cet état, même après que l’impulsion ait
disparu. Q garde son état lorsque S passe de 1 à 0 et lorsque R passe de 1 à 0.

114 ©2002–2009 C. Diou


8.3. Bascule RS

S
R
Q

Table de vérité
S R Qt Q+
0 0 0 0
0 0 1 1 S R Q+
0 1 0 0 0 0 Q → mémorisation
0 1 1 0 −→ 0 1 0 → mise à 0
1 0 0 1 1 0 1 → mise à 1
1 0 1 1 1 1 X → interdit
1 1 0 X
1 1 1 X

Réalisation

Si X= 1 → Q=S+R.Q Les états in- Si X= 0 → Q= R.(S+Q). Les états in-


déterminés sont forcés à 1 : la bas- déterminés sont forcés à 0 : la bas-
cule est dite à enclenchement prio- cule est dite à déclenchement prio-
ritaire. ritaire.
=⇒ somme de produit ⇒ réalisa- =⇒ produit de sommes ⇒ réalisa-
tion à l’aide de portes NAND. tion à l’aide de portes NOR.
S Q R Q

R Q Q
S

Ï Remarque 8.1
Dans les deux cas, lorsqu’on passe de l’état (R,S)=(1,1) à (R,S)=(0,0) en passant
soit par l’état stable correspondant à (R,S)=(1,0), soit par l’état stable correspon-

©2002–2009 C. Diou 115


Chapitre 8 : Les bascules

dant à (R,S)=(0,1), selon la rapidité relative des passages 0→1 de chacun des si-
gnaux, alors la sortie peut prendre aussi bien l’état Q = 1 que Q = 0.
⇒ il faut donc interdire la combinaison R = S = 1 afin de lever l’ambiguïté pour
un état R = S = 0 venant après un état R = S = 1.

Fonctionnement de la bascule avec des NOR


– quand R = S = 0, il y a deux possibilités et nous verrons que l’état pris par la
bascule dépend des valeurs appliquées précédemment aux entrées :

S=0
!
– si Q = 0 −−→ Q = 1 et Q = 0
S=0 → memorisation
– si Q = 1 −−→ Q = 0 et Q = 1

– Examinons si S = et R = 0
Si Q = 0 à l’arrivée de l’impulsion sur S, alors S = 1 → Q = 0 → Q = 1
S Q

Q
R
Si Q = 1 à l’arrivée de l’impulsion sur S, alors S = 1 → Q = 0 → Q reste à 1
⇒ l’application d’une impulsion de niveau haut sur S place la bascule dans
l’état Q = 1.
→ opération de mise à 1 → SET
– Si on applique R= et S= 0
R=
)
Si Q = 0 −−−−→ Q = 0 → Q = 1
R= →R=
Si Q = 1 −−−−→ Q = 0 → Q = 1
⇒ l’application d’une impulsion de niveau haut sur R place la bascule dans
l’état Q = 0.
→ opération de mise à 0 → RESET
– R=S=1
⇒Q=Q=0
→ condition indésirable, puisque Q et Q doivent être l’inverse l’un de l’autre

116 ©2002–2009 C. Diou


8.4. Bascule RS synchrone ou bascule RSH

Chapitre
→ de plus, incertitude 6 S et R reviennent à 0
lorsque Circuits séquentiels élém
→ R = S = 1 ne doit pas servir
L’avantage principal (unique ?) de +5V la bascule RS est saBp simplicité. Ses princi-
paux inconvénients sont le fait qu’elle R soit asynchrone, sa sensibilité aux pa-
s
rasites (tout bruit présent sur l’une des entrées de la bascule RS peut modifier t
s
l’état de la sortie), et le fait qu’il existe un état interdit pour R=S=1.
Bp
t
Figure 6.5 : Bouton poussoir sans système anti-rebond
8.4 Bascule RS synchrone ou bascule RSH
La Figure 6.5 montre comment à l’aide d’une bascule RS, ces commutations parasites peuvent êt
L’état mémoire permet en effet de filtrer ces transitions.
La bascule RSH 1 est un bascule RS synchronisée par un signal d’horloge H.
+5V
Lorsque H est au niveau bas, la bascule fonctionne comme
Bp une mémoire, et
lorsque H est au niveau R haut,Rla bascule fonctionne comme une bascule RS

`Ab#aR0
Q pour R=S=1.
classique, et conserve donc les états interdits s
S'
R
Symbole
R'
S
S Q Table de vérité
Clk Bp S R H QN+1
R Q X X
Reset ou
0 Q QN
0 0 1 QN
La sortie est indicée est vaut QN Etat mémoire
0 1 1s 1
avant le front de l’horloge et QN+1 1 0 1 0
après le front de l’horloge. Set ou
1 1
Etat mémoire X X
S et R n’influencent Q que lorsque
l’horloge est au niveau haut. Figure 6.6 : Dispositif anti-rebond

6.1.3. Bascule RST


Réalisation La bascule RST est une bascule RS synchronisée par un signal d’horloge T. Le schéma de cett
donné sur la figure .

R S Q
Q
H T

Q
S R Q
Figure 6.7 : Bascule RST
1. La bascule RSH Lorsque
est également appelée
T=0, la bascule bascule
est dans RST ; on
l’état mémoire. préférera
Lorsque T=1, la néanmoins le comme une
bascule fonctionne
terme RSH, plus explicite.
Cette bascule a toujours un état interdit et fonctionne sur les niveaux d’horloge. Tout en restant
parasites elle l’est moins que la bascule RS puisqu’elle est uniquement sensible sur le niveau haut
(plus le niveau haut de l’horloge est réduit, moins cette bascule est sensible aux parasites).

©2002–2009 C. Diou 117


Chapitre 8 : Les bascules

B Exemple 8.2
H
S
R
Q
L’avantage de la bascule RSH par rapport à la bascule RS est sa sensibilité
moindre aux parasites. Comme la bascule n’est sensible au bruit que lorsque
l’horloge est au niveau haut, plus les états haut de l’horloge seront brefs, moins
la bascule sera sensible.

8.5 Bascule à verrouillage (D-latch)


e6 Circuits séquentiels élémentaires

`AbRa0
La D-latch est une bascule RSH pour laquelle on n’a conservé que les deux
combinaisons RS=(0,1) et RS=(1,0). La D-latch a une seule entrée, nommée D.
ule D-latch

Symbole Table de vérité


D-Latch est une bascule conçue sur le même principe que la RST. Elle est obtenue à partir d’une
T en ne considérant que les deux combinaisons (R,S) = (0,1) et (1,0). La D-Latch n’a qu’une seule
mée D, et sa table de vérité est la suivante (Figure 6.8).
D Q DN En QN+1 Mode
D Q(n+1)
0 0 X 0 QN verrouillé
En Q 1 1 Qn+1 = Dn 0 1 0 transparent
Figure 6.8 : Table de vérité de la D-latch
1 1 1 transparent
de cette bascule est donné sur la Figure 6.9. Cette bascule n’a pas d’état interdit et est transparente
Réalisation
u haut de l’horloge. Fonctionnement
S La D-latch n’a pas d’état interdit et
S Q
est transparente sur le niveau haut
T R = S' de l’horloge.
D = S et En = T.
Q
Figure 6.9 : Bascule D-Latch

– quand
ule Maître-Esclave En=0 → l’entrée D n’a aucun effet et la bascule mémorise la valeur de
es maître-esclavesla sortiede(donc
permettent diminuerde la l’entrée)
sensibilité auxau moment
parasites du passage
en minimisant la période dede l’état 1 à l’état 0 de En
e. Le schéma d’une bascule maître esclave est donné sur la Figure 6.10. En montant en cascade deux
→ la bascule est verrouillée ;
ST commandées par la même horloge mais inversée, la bascule réalise la même fonction. Toutefois,
nne non plus sur– lequand
niveau hautEn=1 → Qmais
de l’horloge, suitsurles changements
le front de DEn→effet,
descendant de l’horloge. la sur
bascule
le est transparente.
de l’horloge, le deuxième étage (esclave) est dans l’état mémoire alors que sur le niveau bas, c’est le
ge (maître) Ï Remarque 8.2
qui est dans l’état mémoire. Il en résulte que la plage de sensibilité aux parasites se limite à
commutation descendante de l’horloge.
Notez l’absence du symbole . sur l’entrée d’horloge.
Maître Esclave

S
Q

H 118 H’ ©2002–2009 C. Diou

Q'
R
6.1.4. Bascule D-latch
La bascule D-Latch est une bascule conçue sur le même principe que la RST. Elle est obtenue à partir d’une
bascule RST en ne considérant que les deux combinaisons (R,S) = (0,1) et (1,0). La D-Latch n’a qu’une seule
entrée nommée D, et sa table de vérité est la suivante (Figure 6.8).
8.6. Bascules maître-esclave
D Q(n+1)
0 0
1 1 Qn+1 = Dn

Figure 6.8 : Table de vérité de la D-latch


8.6 Bascules maître-esclave
Le schéma de cette bascule est donné sur la Figure 6.9. Cette bascule n’a pas d’état interdit et est transparente
sur le niveau haut de l’horloge.

S'
Les basculesS maître-esclaves permettent de diminuer la sensibilité aux para-
Q
sites en minimisant la période de transparence. La nature des bascules maître-
esclave vient du fait que deux bascules RST montées en cascade et comman-
T R = S'
dées par deux horloges en opposition de phase réalisent la même fonction
qu’une seule bascule. La différence tient seulement au fait que la bascule ne
(Q')l’horloge, mais sur son front descendant
fonctionne plus sur le niveau haut de
Figure 6.9 : Bascule D-Latch
+ sur le niveau bas de l’horloge, le premier étage (maître) fonctionne en
mode « mémorisation
6.1.5. Bascule Maître-Esclave », et le deuxième étage (esclave) est en mode RS ;
Les bascules maître-esclaves permettent de diminuer la sensibilité aux parasites en minimisant la période de
+ sur le niveau haut de l’horloge, le maître fonctionne en mode RS, et l’es-
transparence. Le schéma d’une bascule maître esclave est donné sur la Figure 6.10. En montant en cascade deux
clave est
bascules RST commandées dans
par la mêmel’état
horloge«mais
mémorisation » réalise la même fonction. Toutefois,
inversée, la bascule
elle fonctionne non plus sur le niveau haut de l’horloge, mais sur le front descendant de l’horloge. En effet, sur le
Ladepériode
niveau haut l’horloge, lependant
deuxième étagelaquelle
(esclave)la
est bascule est sensible
dans l’état mémoire aux
alors que sur parasites
le niveau bas, c’estse
le résume
donc
premier étage à laqui
(maître) durée
est dansde commutation
l’état deque
mémoire. Il en résulte l’horloge du niveau
la plage de sensibilité haut seaulimite
aux parasites niveau
à bas
la durée de commutation
(front descendante de l’horloge.
descendant).
Maître Esclave

S
Q

H H

Q
R
Figure 6.10 : Bascule maître-esclave

6.1.6. Bascule JK
8.7 Bascule JK
La bascule JK est une bascule maître-esclave ne présentant plus d’état interdit. Sachant que les sorties sont
toujours complémentaires, leur rebouclage sur les entrées (Figure 6.11) élimine l’état interdit. Il n’y a pas
Les bascules
d’inconvénient JK car
à ce rebouclage sont des bascules
les sorties maître-esclave
de l’esclave ne fonctionnant
change d’état que lorsque le maître est seulement
bloqué. en
Cette bascule fonctionne toujours sur les front descendant. Sa table de vérité ainsi que la fonction de sortie
mode synchrone.
(Qn+1) est donnée sur la Figure 6.12.
Elles sont plus polyvalentes que les bascules RS, car elles

`#aAb0P
n’ont pas d’état ambigu et R = S = 1 → QN+1 = QN .

Symbole QN+1 = J.QN + K.QN

J Q
Clk Page 6.4
K

©2002–2009 C. Diou 119


Chapitre 8 : Les bascules

Tableau de Karnaugh
J
Q+
K
0
0 10 51 41
Qt 2 1 3 0 7 0 6 1

Sachant que les sorties sont toujours complémentaires, leur rebouclage sur les
entrées élimine l’état interdit. Il n’y a pas d’inconvénient à ce rebouclage car
les sorties de l’esclave ne changent d’état que lorsque le maître est bloqué. Les
bascules JK sont très courantes dans les systèmes numériques
Cette bascule fonctionne toujours sur les fronts descendant.

ƒ`#a0
Réalisation
…€ …‚

ƒAbR
„ „
„ & „
ƒ
RSH-ME „
…
„€ ÿ‚…
J ƒ
„ S Q € ‚
„ „
H Clk
„ „
& „ „
K …
ƒ
€R Q ƒÿ
„
‚
„

ƒ`#a0#a`0
… „
„ „
„ „
ƒ€
…€ ƒ‚ ‚…

ƒAb‚RAbR
„ „
„ & „
ƒ
Maître Esclave „
…
„€ ÿ‚…
J ƒ S Q „S Q € ‚Q
„ „
H€ …ÿ ‚ Clk … Clk „ „
K & „„ … R Q
„
„ R Q
„
ƒÿ€ ‚Q
„
„
ƒ
„ „ „
…
„ 1 „ „
„ „ „ „
ƒ € ‚ ƒ
„ „
„ „
„ „
ƒ€ €‚ ƒ‚

120 ©2002–2009 C. Diou


8.8. Bascule D synchrone

Table de vérité
J K H QN+1 J K QN H QN+1
X X – QN X X X – QN
0 0 ˆ QN mémorisation X 0 1 ˆ 1
1 0 ˆ 1 forçage à 1 X 1 1 ˆ 0
0 1 ˆ 0 forçage à 0 0 X 0 ˆ 0
1 1 ˆ QN commutation 1 X 0 ˆ 1
Ï Remarque 8.3
Pour que le basculement fonctionne, il faut avoir H très étroite, autrement il y a
rebasculement.

B Exemple 8.3
H
J
K
Q

8.8 Bascule D synchrone


La bascule D est une bascule maître-esclave conçue sur le même principe que

`CbRa0
la JK. La bascule D est une bascule n’ayant qu’une seule entrée nommée D.

Symbole
D Q

Clk Q
Le symbole de la bascule D est identique à celui de la D-latch à ceci près que
l’entrée d’activation est remplacée par une entrée d’horloge, qui dispose donc
du symbole associé.

Table de vérité
H DN QN+1
ˆ 1 1
ˆ 0 0

©2002–2009 C. Diou 121


Chapitre 8 : Les bascules

QN+1 prend la valeur de DN après le front actif : QN+1 = DN

`AbRa0 `AbRa0
C’est une bascule de recopie : on l’emploie seulement en synchrone.

Réalisation
Maître Esclave
D€ ‚ D Q € ‚ D Q Q

H€ ‚
…ÿ

‚
„
„
„
ƒ € ‚
En Q
1
€ ‚ƒ
„
…
„

„
En Q Q

D€ € `
…ÿ‚ ‚
„
„
„

#a
‚AbR ‚Ab01
0 `
H

#a
Réalisation à partir de bascules
RSH maître-esclave :

P
RSH-ME
S Q
Clk
R Q
Idem pour la réalisation à partir de
bascules JK :

D€ €
…ÿ‚ ‚
„
„
„
1
H
JKFF
J Q
Clk
ƒ ƒ K

Ï Remarque 8.4
La sortie Q n’est égale à l’entrée D qu’à des moments bien précis → le signal Q est
différent du signal D.
La bascule D fonctionne sur fronts d’horloge. En fait, la donnée d’entrée D est
transférée à travers le maître lors du front montant et à travers l’esclave lors
du front descendant. Pour fonctionner, cette bascule nécessite donc les deux
front d’horloge. Différentes structures de bascules D existent, certaines pou-
vant transférer une donnée en ne recevant qu’un seul front d’horloge.

8.9 Bascule T
La bascule T s’obtient par exemple à partir d’une bascule JK dont on a relié les
entrées J et K entre elles. Elle est utilisable uniquement en mode synchrone, et
ne fonctionne qu’en commutation.

122 ©2002–2009 C. Diou


8.10. Entrées prioritaires asynchrones des bascules

`#a@b0
P `

#a 0
AbP
Symbole Réalisation
T Q T€ ‚
ÿ…€ ‚ J Q
Clk „
„
H Clk
„
ƒ € ‚ K

Table de vérité
T QN+1
0 QN
1 QN

8.10 Entrées prioritaires asynchrones des bascules


La plupart des bascules synchrones possèdent des entrées prioritaires asyn-
chrones. Elles agissent indépendamment de l’horloge et des entrées syn-
chrones des bascules. Elles servent à forcer, à tout moment, la mise à 1 ou à 0 de
la bascule, quelles que soient les conditions d’entrée. Elle agissent sur l’étage
esclave des bascules.

©2002–2009 C. Diou 123


Chapitre 8 : Les bascules

€ ‚ƒ…
„

„
Maître
…€ ‚…
„
ƒ…€
„
|
{}
| …ƒ …
„„
}€ x‚y }z
Esclave

‚
…€ ‚
&
…Preset
„
„
„
ÿ„ƒ…€ ‚
€ ‚ &
€ …ÿ | ‚Q
|
|

„„
„ „ | |
…
„ „ | „ „ „ „ |
„ „ | „ „ „ „ „ |
ƒ€ €
‚ …‚ € ƒ …‚
„ „ | „ „ „ |
H€ ‚ H€ ‚ ƒ…ÿ …ƒ …ƒ
„ „ | „ „ |
…€ €‚ ƒ‚ …€ €‚ ƒ‚
„ „ | „ „ „ |
„ „ | „ „ „ „
ƒ & „ |
„ „ | …„ƒ „ƒ „ „
& ÿ…ƒ€ ‚ ÿƒ€| ‚Q
„ „ | |
ƒ € ‚ € ‚
„ „ | „ |
€ ‚ƒ… …ƒ€ ‚ }{
| „
„ „ | „ |
ƒ€ ‚ƒ {xy xyyyyyyyyyyyyyyyyy
z {z
„ƒ
Clear

B Exemple 8.4
Set
Set Clear Q
J Q
1 1 fonctionnement normal
H 0 1 1
K Q
1 0 0
Clear 0 0 ambigu, interdit

Les entrées asynchrones peuvent être vraies à l’état bas (cas le plus fréquent)
ou à l’état haut. En général, on applique juste une impulsion à ces entrées pour
faire une initialisation.
Clear RAZ [c]et DC clear
Désignations synonymes :
Preset RAU Set DC set
Ï Remarque 8.5
Les entrées synchrones sont des niveaux de tension continue

8.11 Paramètres temporels des bascules


Pour qu’une bascule fonctionne correctement, il est nécessaire que le signal
présent sur les entrées de la bascule (D ou JK) soit stabilisé depuis un certain
temps lorsque le front d’horloge actif intervient (temps de « setup ») et reste
stable pendant un certain temps après ce front d’horloge (temps de « hold » ou
de maintien).
D’autre part, la commutation des sorties dune bascule se fait avec un certain
temps de retard par rapport au signal qui a produit cette commutation (Hor-

124 ©2002–2009 C. Diou


8.12. Applications des bascules

loge, Reset ou Preset). Ces retards peuvent être différents selon le signal qui a
produit la commutation, mais également selon que la commutation du signal
de sortie est montante ou descendante. Ces retards seront notés TpLH et TpHL
pour « Temps de Propagation Low High » et « Temps de Propagation High Low
».

8.12 Applications des bascules

Application pratique 8.1 : Mémoire


→ mémorisation d’une information fugitive
B Exemple 8.5

Mémorisation d’une commande de marche


S Q
R

Application pratique 8.2 : Antirebond pour commutateur


B Exemple 8.6

Passage en 2 Passage en 1
S Q
Fermé
2
Solution
Charge

R
Ouvert 1

rebond
qq ms

Application pratique 8.3 : Synchronisation


B Exemple 8.7

H
A
int. antirebond

X A
H X
impulsion partielle
indésirable

©2002–2009 C. Diou 125


Chapitre 8 : Les bascules

Solution :
H
A
int. antirebond
D X A
H Q

Application pratique 8.4 : Détection d’une séquence d’entrée


B Exemple 8.8

A
A
X B A avant B ?
B
X

Solution :
A J Q A A

B B B
K Q A avant B Q A après B

→ détection du sens de rotation d’un moteur.

Application pratique 8.5 : Division de fréquence


La division de fréquence par 2 (et donc 2N ) peut être réalisée facilement à
l’aide des différents registres.

Bascule D

DN =QN+1 .
On veut QN+1 =QN ⇒ DN = QN

D Q H

H Q Q

Bascule JK

1 J Q H
H
1 K Q Q

126 ©2002–2009 C. Diou


8.12. Applications des bascules

Bascule RS

S Q H
H
R Q Q

©2002–2009 C. Diou 127


m Chapitre 9 n
Registres : stockage et transfert de
données
Howard Hathaway Aiken
? 9 mars 1900, Hoboken, E.-U.
† 14 mars 1973, St Louis, E.-U.

[En 1964 Aiken reçoit le Harry M Goode Memorial Award, une médaille et $2,000 overt
par la Computer Society] for his original contribution to the development of the automatic
computer, leading to the Fre large-scale general purpose automatic digital computer.

Registre : ensemble de n bascules synchronisées permettant de stocker mo-


mentanément une information sur n bits.

QAQBQCQD
Sortie série Sortie série
Décalage à gauche Décalage à droite

Entrée série

Validation de Registre à décalage


l’entrée série

H
Déc Val A B C D
Décalage Validation
D/G
Entrées parallèles
Chargement parallèle

9.1 Définition
Un registre est un circuit constitué de n bascules synchronisées permettant de
stocker temporairement un mot binaire de n bits en vue de son transfert dans
un autre circuit (pour traitement, affichage, mémorisation, etc.)
Le schéma d’un tel système comporte autant de bascules (de type D) que
d’éléments binaires à mémoriser. Toutes les bascules sont commandées par
le même signal d’horloge.

129
Chapitre 9 : Registres : stockage et transfert de données

Moyennant une interconnexion entre les cellules (les bascules D), un registre
est capable d’opérer une translation des chiffres du nombre initialement sto-
cké. Le déplacement s’effectue soit vers la droite soit vers la gauche. Le registre
est alors appelé « registre à décalage ».
Applications :
– conversion série-parallèle d’une information numérique ;
– opérations de multiplications et divisions par deux ;
– ligne à retard numérique ;
– mémoires à accès séquentiel
« Registre universel » : il résume les différentes entrées et sorties d’un registre à
décalage procurant tous les modes de fonctionnement possibles.

9.2 Registre de mémorisation : écriture et lecture


parallèles

AD 3 `Cba0P Cb`a0
…
D

Clk
…
„
„
„
„
`
 0
a `

P CbP Cb0 aP
Tous les bits du mot à traiter sont écrits (entrée écriture E=1), ou lus, (entrée
lecture L=1), simultanément.
Q BD 2

…
D

Clk
Q …
„
„
„
„
CD 1

…
D

Clk
Q …
„
„
„
DD 0

…
D

Clk
Q …
„
„
„
„ „
„ „ „ „ „ „ „ „
„ „ „ „ „ „ „ „
E € ‚ ÿƒ€
…ƒ ‚ƒÿ€
…ƒ ‚ƒÿ€
…ƒ ‚ƒÿ …ƒ
Validation chargement
„ „ „ „
€… ‚ƒ€ ‚… €… ‚ƒ€ ‚… €… ‚ƒ€ ‚… … ‚ƒ€ ‚…
€
L € ‚ € ‚ € ‚ € ‚
„ „ „ „ „ „ „ „
Validation transfert ƒ … ‚ƒ
€ ƒ … ‚ƒ
€ ƒ … ‚ƒ
€ ƒ … ‚ƒ
€
„Q
ƒ „Q
ƒ „Q
ƒ C „Q
ƒ
A B D
→ stockage en parallèle et transfert en parallèle d’un mot de 4 bits.

9.3 Registres à décalage


Comme son nom l’indique, un registre à décalage consiste à décaler bit par bit
un mot binaire soit vers la gauche, soit vers la droite. Le registre à décalage peut
être à écriture et à lecture série ou parallèle.
Ï Remarque 9.1
Un registre à décalage à droite peut être utilisé comme un diviseur par 2 alors
qu’un registre à décalage à gauche peut être utilisé comme un multiplieur par 2.

130 ©2002–2009 C. Diou


9.3. Registres à décalage

D€ ‚ `Cba0
…
D

Clk
` a 
0 `
0
a 
P CbP CbP CbP `
 0
a
9.3.1 Registre à écriture série et lecture série
Q € ‚

…
D

Clk
Q € ‚

…
D

Clk
Q € ‚

…
D

Clk
Q Q

„ „ „ „
„ „ „ „
ÿƒ
H€ ‚
€ ‚€
ÿƒ ‚€
ÿƒ ‚ÿƒ
Après 4 pulsations de CLK, les 4 bits sont entrés dans le registre.
Après 4 autres cycles d’horloge, les 4 bits sont déplacés vers la sortie.
Leur application est essentiellement le calcul arithmétique binaire. CLK est

`Cba0P `Cb0aP Cb
`a0
 `

alors l’entrée de décalage.

P Cba0
P
9.3.2 Registre à écriture série et lecture parallèle
D€ ‚ D Q …€ ‚ D Q …€ ‚ D Q …€ ‚ D Q …
„ „ „ „
„ „ „ „
„ „ „ „
… Clk „
… Clk „
… Clk „
… Clk „
„ „ „ „ „ „ „ „
„ „ „ „ „ „ „ „
H€ ‚
€
ÿƒ …ƒ ‚€
ƒÿ …ƒ ‚€
ƒÿ …ƒ ‚ƒÿ …ƒ
„ „ „ „
ƒ ƒ ƒ ƒ
QA QB QC QD
Lorsque l’entrée est stockée, chaque bit apparaît simultanément sur les lignes
de sortie.
Le registre à décalage est utilisé comme convertisseur série-parallèle. Il est né-
cessaire à la réception lors d’une transmission série.

9.3.3 Registre à écriture parallèle et lecture série


Utilisé comme convertisseur parallèle-série, il est nécessaire à l’émission lors
d’une transmission série.

Entrée parallèle

A B CD

shift/load
Registre parallèle−série Sortie donnée
H

©2002–2009 C. Diou 131


e1 e2 ei en

C
Chapitre 9 :
D1Registres
Q1 D2 Q2 Di Qi
: stockage et transfert de données Dn Qn

S/L q1 q2 qi qn
A B C D
Figure 6.18 : Registre à décalage à droite
Remarque

D Q D Q D Q D Q

9.4 Registre universel


Le registre universel permet quatre modes de fonctionnement commandés par
deux variables S1 et S2 .
e1 e2 ei en

Qi-1
Di Qi
Qi
Qi+1
C1
C2
H

q1 q2 qi qn
Di = C1.C2 .ei + C1.C2.Qi-1 + C1.C2.Qi+1 + C1.C2.Qi

Ces entrées de sélection S1 et S2 sont en fait les entrées de sélection de mul-


tiplexeurs connectés aux entrées des bascules. Ces multiplexeurs à quatre en-
trées permettent donc quatre modes de fonctionnement :l’entrée D de chaque
bascule est ainsi fonction du mode de fonctionnement désiré.
S1 S2 Mode
0 0 Chargement parallèle
0 1 Décalage à droite
1 0 Décalage à gauche
1 1 Inhibition de l’horloge
Page 6.7

132 ©2002–2009 C. Diou


m Chapitre 10 n
Les compteurs
Claude Elwood Shannon
? 30 avr. 1916, Gaylord, E.-U.
† 24 fév. 2001, Medford, E.-U.

The moe important results [moely given in the form of theorems with proofs] deal
with conditions under which funcions of one or more variables can be generated, and
conditions under which ordinary diverential equations can be solved. Some arention is
given to approximation of funcions (which cannot be generated exacly), approximation of
gear ratios and automatic speed control.
(Claude E. Shannon, Mathematical theory of the diverential analyzer, 1941)

Dénition 10.1
Compteur : un compteur est un circuit séquentiel comportant n bascules décrivant
au rythme d'une horloge un cycle de comptage régulier ou quelconque d'un maximum
de 2n combinaisons.

Dénition 10.2
État, Modulo : la combinaison de sortie d'un compteur est appelé état, et le nombre
d'états possibles d'un compteur est appelé modulo.
Un compteur modulo N passera donc successi- @ABC
GFED + GFED
@ABC
7 001 010

vement par N états. Un compteur binaire natu- @ABC


GFED
000 @ABC
GFED

011
J
rel comptera donc de 0 à N − 1. Le graphe sui-
@ABC
GFED @ABC
GFED

vant présente les différents états parcourus par 111


[
100

@ABC
GFED @ABC
GFED
w
un compteur modulo 8. 110 k 101

133
Chapitre 10 : Les compteurs

10.1 Compteur asynchrone (à


propagation)
Nous avons vu dans la section § 8.5 page 126 comment réaliser une division par
deux à l’aide de bascules JK. En cascadant des bascules JK montées en diviseurs
de fréquence, on peut donc réaliser un compteur dont le modulo dépendra du
nombre de bascules.

10.1.1 Compteur asynchrone à cycle régulier


B Exemple 10.1
Compteur asynchrone à 4 bits (compte de 0 à 15).

10.1.1.a Réalisation à l’aide de bascules JK


A B C D
1 J Q 1 J Q 1 J Q 1 J Q
H
1 K Q 1 K Q 1 K Q 1 K Q

La sortie de chaque bascule agit comme le signal d’horloge de la suivante.


Fonctionnement
– J=K=1 ; toutes les bascules commutent sur des fronts descendants ;
– la bascule A commute à chaque front descendant du signal d’horloge ;
– la sortie de la bascule 1 sert d’horloge pour la bascule 2 → B commute
chaque fois que A passe de 1 à 0 ;
– de la même manière, C commute lorsque B passe de 1 à 0, et D commute
lorsque C passe de 1 à 0.

10.1.1.b Table d’implication séquentielle


Elle montre les états binaires pris par les bascules après chaque front descen-
dant.

134 ©2002–2009 C. Diou


10.1. Compteur asynchrone (à propagation)

Nº D C B A
0 0 0 0 0
1 0 0 0 1
2 0 0 1 0
3 0 0 1 1
4 0 1 0 0
5 0 1 0 1
.. .. .. .. ..
. . . . .
15 1 1 1 1
16 0 0 0 0
.. .. .. .. ..
. . . . .
Si on imagine que DCBA représente un nombre binaire, le compteur réalise la
suite des nombres binaires allant de 0000 à 1111 (soit de 0 à 15).
A près la 15ème impulsion, les bascules sont dans la condition 1111. Quand
la 16ème impulsion arrive, le compteur affiche 0000 : un nouveau cycle com-
mence.

10.1.1.c Chronogramme

H
A
B
C
D

→ chaque bascule divise par deux la fréquence d’horloge qui alimente son en-
finitale
trée CLK : fD = .
16
Application : avec ce genre de circuit, on peut diviser la fréquence initiale par
n’importe quelle puissance de 2.

10.1.1.d Modulo
– c’est le nombre d’état occupés par le compteur pendant un cycle complet ;
– le modulo maximal d’un compteur à n bits (n bascules) est 2n ;
– ex. : compteur 4 bits → 16 états distincts → modulo 16.

©2002–2009 C. Diou 135


Chapitre 10 : Les compteurs

10.1.2 Décompteurs asynchrones


Il suffit de piloter chaque entrée CLK des bascules au moyen de la sortie com-
plémentée de la bascule précédente.
B Exemple 10.2
Décompteur modulo 8

A B C
H
A B C

Chronogramme :
H
A
B
C

10.1.3 Compteur asynchrone à modulo N < 2n (à cycle


régulier)
10.1.3.a Méthode
Pour réaliser un compteur ou un décompteur dont le cycle n’est pas une puis-
sance de 2, la seule solution est d’agir sur l’entrée « Clear » lorsque la com-
binaison correspondant au modulo du compteur se produit sur les sorties de
celui-ci.
Ainsi, pour 2N-1 < N < 2N , on réalise un compteur modulo 2n (avec n bascules),
puis on raccourcit le cycle en jouant sur les entrées RAZ des bascules.
B Exemple 10.3
Compteur asynchrone modulo 6 : 22 < 6 < 23 → on réalise un compteur modulo
8 avec 3 bascules, et on ramène le compteur à 000 dès que Q2 Q1 Q0 = 110.
→ dès que la sortie de la porte NAND passe à 0, les bascules sont forcées à 0 : le
compteur se remet à compter à partir de 0.
⇒ le compteur réalisé compte de 000 à 101 (de 0 à 5) puis recommence un nou-
veau cycle → modulo 6

136 ©2002–2009 C. Diou


10.1. Compteur asynchrone (à propagation)

Q0 Q1 Q2

Q1
Q2

10.1.3.b Table d’implication séquentielle


Nº Q2 Q1 Q0
0 0 0 0
1 0 0 1
2 0 1 0
3 0 1 1
4 1 0 0
5 1 0 1
6 1 1 0 → 0 0 0
Q2 Q1 Q0 = 110 est un état temporaire. Il existe mais pendant une dure très
courte. C’est un état indésirable que l’on nomme parfois glitch.

10.1.3.c Chronogramme

H
Q0
Q1
Q2

Ï Remarque 10.1
Les sorties Q2 et Q1 ne sont pas des ondes carrées.

10.1.4 Comptage asynchrone dans un ordre quelconque (cycle


irrégulier)
1ère méthode
On réalise un compteur de même modulo, puis on transcode ses sorties pour
obtenir le cycle demandé.
B Exemple 10.4
Cycle 2, 5, 6, 8, 4, 10

©2002–2009 C. Diou 137


Chapitre 10 : Les compteurs

Q0’
modulo Q1’
H 6
Transcodeur Q2’
Q3’

Nº Q2 Q1 Q0 Q03 Q02 Q01 Q00


0 0 0 0 0 0 1 0 → 2
1 0 0 1 0 1 0 1 → 5
2 0 1 0 0 1 1 0 → 6
3 0 1 1 1 0 0 0 → 8
4 1 0 0 0 1 0 0 → 4
5 1 0 1 1 0 1 0 → 10

2ème méthode
Utilisation des entrées RAZ et RAU.
B Exemple 10.5
Cycle 0, 1, 2, 3, 5, 6, 8, 9, 11, 12, 15 : on réalise un compteur modulo 16 et on agit
sur les RAU pour sauter les étapes.

10.1.5 Exemple de CI
Il existe de nombreuses puces en technologies TTL et CMOS. Parmi les plus
populaires on trouve en TTL le 7493 qui est un compteur 4 bits, et en CMOS le
4024 qui est un compteur 7 bits.

CP1
7493 TTL CP0

MR1 MR2 Q3 Q2 Q1 Q0

Circuit interne
H=CP1

H=CP0
RAZ RAZ RAZ RAZ
MR1
MR2
Q0 Q1 Q2 Q3

MR → Master Reset.

138 ©2002–2009 C. Diou


10.2. Compteur synchrone (parallèle)

10.1.6 Inconvénients des compteurs asynchrones


Chaque bascule introduit un retard de D p (D p =25ns). Comme les bascules ne
commutent pas sur le même signal d’horloge, les retards s’additionnent : à la
n ième bascule, on a un retard Tm de n × D p .
Ainsi, la fréquence maximum de fonctionnement F H d’un compteur modulo
n, constitué de n bascules de délai de propagation D p dépend du nombre de
bascules du compteur et donc du modulo du compteur. Cette fréquence peut
être établie comme suit :

Tm = D p × n : Délai de propagation du compteur


T H = 2 × Tm : Période min de l’horloge
F H = 1/(2 × Tm ) : Fréquence max de l’horloge = 1/(2 × n × D p )

L’accumulation des retards des bascules implique une utilisation du comp-


teur limitée en fréquence, particulièrement lorsque le nombre de bits est élevé,
puisque le nombre de bascules augmente en même temps que le nombre de
bits.
Les fronts des signaux appliqués sur les entrées d’horloge des bascules n’ayant
pas lieu au même instant à cause des retards différents, les sorties ne changent
pas d’état en même temps, ce qui implique un problème d’interface avec des
circuits rapides (temps de lecture inférieur au retard entre plusieurs bits).
D’autre part, ces retards de commutation introduisent des états transitoires re-
lativement conséquents, particulièrement lorsque le nombre de bascules tra-
versées est important.
Mais l’inconvénient le plus important est lié au fait que cette structure néces-
site de la logique sur des signaux asynchrones (l’horloge est générée par une
bascule et le signal Clear est généré par une structure combinatoire). Cette lo-
gique combinatoire peut donc engendrer (ou propager) des états transitoires
qui peuvent entraîner des dysfonctionnements du compteur.

10.2 Compteur synchrone (parallèle)


Toutes les bascules sont déclenchées en même temps par le même signal
d’horloge. Ceci évite le problème du retard de propagation.

©2002–2009 C. Diou 139


Chapitre 10 : Les compteurs

10.2.1 Réalisation
Elle est possible avec des bascules JK, D ou T.
B Exemple 10.6
Réalisation d’un compteur modulo 8 (à cycle complet) à l’aide de bascules T
Table d’excitation
Q2 Q1 Q0 Q+ 2 Q+1 Q+0 T2 T1 T0
0 0 0 0 0 1 0 0 1
0 0 1 0 1 0 0 1 1
0 1 0 0 1 1 0 0 1
0 1 1 1 0 0 1 1 1
1 0 0 1 0 1 0 0 1
1 0 1 1 1 0 0 1 1

ƒ 
`
1 1 0 1 1 1 0 0 1

`
 `
 #a 0
1 1 1 0 0 0 1 1 1

#a 0 #a 0
@bP @bP P @b
On constate que : T0 = 1 et T1 =Q0 et T2 =Q1 Q0
…€ ‚ &
„ T Q
1 € ‚ T Q € ‚ƒ T Q … Clk
… Clk … Clk „
„ „ „
„ „ „
H€ ‚
„
€
ÿƒ ‚„ƒÿ€ „ÿƒ‚

B Exemple 10.7
Réalisation d’un compteur synchrone décrivant le cycle 4, 9, 1, 3, 2.
a) À l’aide de bascules JK :

b) À l’aide de bascules D :

140 ©2002–2009 C. Diou


10.2. Compteur synchrone (parallèle)

c) À l’aide de bascules T :

10.2.2 Exemples de circuit intégré


Compteur pré-réglable 74160 (74161, 74162, 74163)
– l’état initial du compteur est réglable à l’aide des entrées D1 , D2 , D3 , D4 ;
– validation : elle permet de verrouiller le compteur.
Circuit Comptage Chargement RAZ
74160 synchr. DCB synchrone asynchrone
74161 synchr. bin. synchrone asynchrone
74162 synchr. DCB synchrone synchrone
74163 synchr. bin. synchrone synchrone
– RAZ synchrone : indépendant de l’horloge.
– RAZ asynchrone : 000 est obtenu au coup d’horloge suivant l’instant ou clear
est porté à l’état actif 0.

Compteur réversible pré-réglable 74193

– MR : entrée de réinitialisation asynchrone


– Q0 . . . Q3 : sorties des bascules
– P0 . . . P3 : entrée des données parallèles
– PL : entrée de chargement asynchrone
– CPU : entrée du signal d’horloge de comptage
– CPD : entrée du signal d’horloge de décomptage
– EC : valide le comptage

©2002–2009 C. Diou 141


Chapitre 10 : Les compteurs

– ED : valide le décomptage
Ï Remarque 10.2
Toutes les commandes agissant sur le comptage sont regroupées sur la figure ci-
dessous :

10.2.3 Applications
10.2.3.a Compteur de fréquence
Circuit qui mesure et affiche la fréquence d’un signal impulsionnel (mesure de
fréquence inconnue).

Principe d’un compteur de fréquence


: durée pendant laquelle les impulsions sont comp-
tées
: RAZ met le compteur à zéro
: f = contenu
t 2 −t 1
Ï Remarque 10.3
Le compteur est un montage en cascade de compteurs DCB, chacun
B ayant une unité décodeur/afficheur (affichage décimal).

142 ©2002–2009 C. Diou


10.3. Résumé sur les méthodes de conception des compteurs

La précision de cette méthode est fonction de l’intervalle d’échantillon-


B nage.

10.2.3.b Horloge numérique

10.3 Résumé sur les méthodes de conception des


compteurs
On a vu que la méthode à employer pour concevoir un compteur dépend de la
catégorie du compteur.
On distingue déjà les compteurs synchrones des compteurs asynchrones. Si à
première vue la réalisation d’un compteur asynchrone semble plus simple, il
s’avère que la méthode de conception des compteurs synchrones permet une
plus grande souplesse dans la réalisation de cycles évolués : ceci est dû au fait
que les entrées des bascules constituant un compteur synchrone sont configu-
rables, ce qui n’est pas le cas avec un compteur asynchrone.
Au sein d’une catégorie de compteurs, on trouve également des différences
dans la démarche de conception selon la nature du cycle de comptage (mo-
dulo n ou 2n , cycle régulier ou non, etc.).

10.3.1 Compteur asynchrone


Un compteur asynchrone est constitué par des diviseurs de fréquence par
deux, connectés en cascade : la sortie d’un diviseur de fréquence est utilisé
comme signal d’horloge pour le diviseur suivant.

©2002–2009 C. Diou 143


Chapitre 10 : Les compteurs

Les diviseurs de fréquence doivent être sensibles au front descendant des si-
gnaux d’horloge ; dans le cas contraire, le système constitue un décompteur.

1. compteur asynchrone à cycle régulier complet modulo 2n ;


Ce type de compteur est le plus simple à réaliser : comme le modulo de
ce compteur est une puissance de 2, le compteur reprend le cycle à 0
après avoir parcouru les 2n états (de 0 à 2n − 1).
Il n’y a donc aucun contrôle à effectuer.
2. compteur asynchrone à cycle régulier complet modulo n ;
Ce type de compteur se conçoit comme un compteur asynchrone mo-
dulo 2n auquel on ajoute de la logique permettant de détecter le premier
état indésiré n + 1. Dès que cet état est détecté, toutes les bascules sont
alors forcées à l’état bas à l’aide de l’entrée de mise à zéro (clear, reset,
etc.)
Une variante consiste à détecter le dernier état valide n puis à forcer
immédiatement les sorties de toutes les bascules à un à l’aide des en-
trées de mise à un (set, preset, etc.). L’inconvénient de cette méthode
est qu’elle conduit à un cycle irrégulier, et que l’état (111 . . . 11) doit être
transcodé pour donner un état valide.
3. compteur asynchrone à cycle régulier incomplet ;
Ce type de compteur est conçu comme un compteur modulo n à ceci
près que la logique de détection des états invalides doit prendre en
compte non seulement le dernier état, mais également tous les états
intermédiaires qui n’appartiennent pas aux états valides du compteur.
Ceci implique que l’état du compteur peut être forcé non seulement à
zéro, mais également à un état k < n : les entrées de mise à un seront
donc utilisées en plus des entrées de mise à zéro.
B Exemple 10.8
Un compteur parcourant le cycle 0–1–4–6 sera conçu comme un modulo
7, mais les états 2 et 5 seront détectés en plus de l’état 7. Pour l’état 2,
le compteur est forcé à l’état 4, et pour l’état 5, il est forcé à l’état 6. Il
sera forcé à l’état 0 pour l’état 7, comme pour un compteur modulo 7
classique.

4. compteur asynchrone à cycle irrégulier ;

144 ©2002–2009 C. Diou


10.3. Résumé sur les méthodes de conception des compteurs

Ce type de compteur doit obligatoirement être conçu à l’aide d’un


compteur à cycle régulier dont les états seront ensuite transcodés pour
fournir les états désirés.
B Exemple 10.9
Un compteur, un compteur qui parcoure le cycle 0–3–1–7–5 sera conçu
comme un compteur modulo 5, mais les états 0, 1, 2, 3, 4 seront convertis
respectivement en 0, 3, 1, 7, 5.
Cette technique fonctionne également si le compteur traverse plusieurs
fois le même état
B Exemple 10.10
0–3–1–7–3 sera conçu de la même manière que précédemment, mais les
états 1 et 4 seront tous les deux transcodés en 3.
Notez que, du fait de la structure d’un compteur asynchrone, cette tech-
nique est la seule méthode permettant de faire passer le compteur plu-
sieurs fois par le même cycle : il est en effet impossible de définir le si-
gnal d’entrée des bascules, car celles-ci sont configurées en diviseurs
de fréquence par deux. La seule autre solution (dans le cadre du comp-
tage asynchrone) serait d’ajouter des bascules permettant de sauvegar-
der l’état précédent du compteur).

Ï Remarque 10.4
Utilisation des entrées asynchrones prioritaires Clear et Preset : Le propre
d’un compteur est de compter ! L’utilisation des entrées asynchrones prioritaires
a donc ceci de dangereux que ces entrées sont justement prioritaires est ignorent
tout autre signal ! En conséquence, lorsque l’on définit les entrées Clear et
Preset, il faut veiller à ce que celles-ci soient activées (mises à zéro) unique-
ment pour les états indésirables !
Ainsi, on ne peut pas définir les entrées prioritaires pour les états que l’on sou-
haite conserver, puisque ces entrées invalideraient instantanément l’état cou-
rant du compteur. La règle est donc de forcer l’entrée Clear ou Preset dès que
l’état indésirable est atteint, mais de la laisser à un le reste du temps.

10.3.2 Compteur synchrone


1. compteur synchrone modulo n ;
2. compteur synchrone à cycle irrégulier.

©2002–2009 C. Diou 145


m Chapitre 11 n
Méthodes d’étude des circuits
séquentiels
Charles Lutwidge Dodgson
ou Lewis Carroll
? 1832 – † 1898

Can you do addition ? the White Queen asked. What's one and one and one and one and
one and one and one and one and one and one ?
I don't know, said Alice I loe count. (Lewis Carroll, Through the Looking Glass)

De nombreux outils permettent d’analyser le fonctionnement et/ou de prévoir


l’évolution d’un système séquentiel :

1º) Méthodes descriptives :


a) les tables d’état : elles donnent l’état futur des sorties pour les élé-
ments de mémoire inclus dans les systèmes et l’état des sorties :
A B S S+
;

b) les diagrammes des temps (chronogrammes) : ils décrivent la succes-


sion des signaux d’entrée, des états des éléments de mémoire. Ils re-
présentent la succession des états logiques en fonction du temps.
2º) Les diagrammes d’états ou graphes : ce sont des représentations formelles
avec nœuds et flèches pour représenter les états stables et les transitions.
Le graphe donne une image géométrique d’une table de vérité.
3º) Le grafcet : automatismes industriels : étape → transition → étape.
4º) Les théories formelles : équations qui représentent l’action à effectuer et
l’état futur d’un élément de mémoire en fonction des entrées et de l’état
présent des mémoires.

147
Quatrième partie

Architecture des ordinateurs


m Chapitre 12 n
Concepts de base des processeurs
John von Neumann
? 28 déc. 1903, Budapest, Hongrie
† 8 fév. 1957, Washington D.C., E.-U.

Si quelqu'un croit que les mathématiques sont diHciles, c'ee simplement qu'il ne réalise
pas comme la vie ee complexe ! (John von Neumann)

151
Cinquième partie

Technologie des portes


logiques
m Chapitre 13 n
Famille des circuits logiques
William Bradford Shockley, ? 13 fév. 1910, London, R.-U. ; † 12 août 1989, London, R.-U.
John Bardeen, ? 23 mai 1908, Madison, Wisconsin, E.-U. ; † 30 jan. 1991
Walter Houser Brattain, ? 10 fév. 1902, Amoy, Chine ; † 13 oct. 1987

Lauréats du Prix Nobel de Physique de 1956 pour l'invention du transieor. John Bardeen
obtiendra un second Prix Nobel de Physique en 1972 pour ses travaux sur la supraconduci-
vité. La qualité des travaux de Shockley sur le transieor ne doit cependant pas crédibiliser
ses théories eugéniques d'un autre âge ...

Les technologies de portes logiques ont évolué à partir de la technologie Diode-


Logic (DL). Celle-ci a évolué en Resistor-Transistor-Logic (RTL) puis Diode-
Transistor-Logic (DTL), avant d’aboutir à la famille la plus populaire en son
temps, la famille Transistor-Transistor Logic (TTL, CI 54xx ou 74xx).
D’autres technologies existent qui présentent chacunes des avantages et des
inconvénients propres :
– ECL (Emitter-Coupled Logic) → pour des circuits rapides (10xxx) ;
– MOS (Metal Oxyd Semiconductor) → haute intégration ;
– CMOS (Complementary Metal Oxyd Semiconductor) → faible consom. (40xx) ;
– I2 L (Integrated Injection Logic) → haute intégration.
Certaines fonctionnent en logique positive, d’autres en logique négative.

155
Chapitre 13 : Famille des circuits logiques

13.1 Caractéristiques d’une famille de circuits nu-


mériques
Une famille de circuits logiques est définie par les caractéristiques dont les dé-
finitions suivent. Ces définitions sont nécessaires pour bien comprendre les
différentes notions dont il est question dans ce chapitre.

Dénition 13.1
Amplication : L'amplication représente la capacité d'une porte logique d'amplier
la tension ou le courant présent à son entrée de manière à ce que le signal ne soit
pas dégradé après avoir traversé plusieurs portes.

Dénition 13.2
Gain en courant : Le gain en courant d'une porte représente le rapport du courant
à la sortie de cette porte sur celui à son entrée pour le même niveau de tension. Il y
a donc deux valeurs de ce gain une pour chaque niveau logique.

Dénition 13.3
Sortance : La sortance ou fan-out est le nombre d'unités de  charge logique 
disponibles à la sortie d'une porte ; cette unité correspond à la valeur du courant
nécessaire pour commander une entrée de circuit logique

Dénition 13.4
Entrance : L'entrance ou fan-in est le nombre d'unités de  charge logique  néces-
saire en entrée pour faire fonctionner la porte.

Dénition 13.5
Temps de traversée : Le temps de traversée est l'intervalle de temps qui sépare le
signal d'entrée du signal de sortie qui en est la conséquence.

Dénition 13.6
Temps de montée, temps de descente : Les temps de montée (respectivement de
descente) d'un signal et l'intervalle de temps nécessaire au signal pour passer de 10%
à 90% (respectivement de 90% à 10%) de sa valeur nominale.

156 ©2002–2009 C. Diou


13.2. Évolution des différentes familles logiques

D’autres paramètres caractéristiques des circuits logiques peuvent avoir un


impact lors du choix technologique, mais n’entrent pas dans le cadre de ce cha-
pitre : dissipation d’énergie, tolérance, fiabilité, immunité aux parasites, coût,
packaging, etc.

13.2 Évolution des différentes familles logiques


Pourquoi cette évolution ?
Le principal moteur de l’évolution des technologies de circuits intégrés est,
comme bien souvent, le prix.
En 1960, une diode coûtait autant que 10 résistances, et un transistor autant
que 50 résistances (ou 5 diodes). En 1966, une diode valait autant que 2 résis-
tances, et un transistor autant que 10 résistance (toujours 5 diodes).
Cet état de fait a influé sur les premières technologies de circuits à composants
discrets utilisant peu de transistors est beaucoup de résistances et de diodes :
DL, DTL, DCTL, RTL, etc.
Aujourd’hui un transistor ne coûte pas plus cher qu’une diode, mais une ré-
sistance vaut autant que de nombreuses diodes pour plusieurs raisons : une
raison technologique d’abord qui tient compte de la nature du matériaux uti-
lisé pour réaliser la résistance, mais aussi et surtout par la place importante
qu’occupe une résistance sur le silicium. De plus, une résistance, par défini-
tion, dissipe beaucoup d’énergie et entraîne une élévation de la température
du circuit.
Toutes ces raisons font que les technologies actuelles utilisent principalement
des transistors et peu de résistances (TTL, ECL) voire pas du tout de résistances
(I2 L, CMOS).

État de l’art actuel


Les technologies à transistors bipolaires :

DTL : diode transistor logic (abandonné)


DCTL : direct coupled transistor logique
RTL : resistor transistor logic
RCTL : resistor capacitor transistor logic (abandonné)

©2002–2009 C. Diou 157


Chapitre 13 : Famille des circuits logiques

ECL : emitter coupled logic


CML : current mode logic
TTL : transistor transistor logic
CTL : complementary transistor logic (abandonné)
I2 L : integrated injection logic

Les technologies à transistors MOS :

MOSP : metal oxyd semiconductor à canal P


MOSN : metal oxyd semiconductor à canal N
CMOS : complementary metal oxyd semiconductor
SOS : silicon on sapphir or spinel (MOS déposé sur saphir ou spinelle)
SOI : silicon on insulator (MOS déposé sur isolant SiO2 )

13.3 Présentation des différentes familles logiques


13.3.1 Diode Logic (DL)
La logique DL tire parti du fait que la diode est un composant électronique qui
ne conduit le courant électrique que dans une seule direction. Ainsi, la diode
agit comme un interrupteur électronique.


Le schéma ci-contre illustre une porte OU
D1 conçue en technologie DL. On considère que


A€ ‚ € €ÿ‚…  ‚Z = A + B le 1 logique est représenté par +5 V, et que le
„ 0 logique est représenté par la masse, ou 0 V.
D2 „
B€ ‚ € ‚„…ÿƒ Si les deux entrées sont laissées non connec-
„ tées, ou sont toutes les deux à l’état 0, la sortie
ƒ
Z sera également forcée à la masse par la ré-
R1 sistance, et donc forcée à l’état 0. Si l’une ou

ý l’autre des entrées est forcée à +5 V, la diode
correspondante devient alors passante, ce qui
force la sortie à l’état logic 1. Si les deux en-
trées sont à 1, la sortie sera toujours à 1 également.
Le schéma ci-après illustre une porte ET en DL. Les mêmes niveaux logiques
sont utilisés, mais les diodes sont inversées et la résistance est configurée pour
rappeler la tension de sortie à l’état logique 1.

158 ©2002–2009 C. Diou


13.3. Présentation des différentes familles logiques

Si les deux entrées sont non connectées ou si +V …ÿ


ƒ
elles sont toutes les deux à l’état logique 1, la
sortie Z sera également à l’état logique 1. Si R1
l’une ou l’autre des entrées est connectée à la …
D2
masse (état logique 0), la diode conduit et ra- A€ ‚ € ‚ƒ…ÿ
„
mène la masse vers la sortie, qui est donc for- „
cée à l’état logique 0 également. D1 „
„
B€ ‚ € €ÿ‚ƒ  ‚Z = A.B
Dans les exemples précédents, nous avons
considéré que les diodes n’introduisaient au-
cune erreur ni aucune perte dans le circuit, ce
qui n’est pas vraiment le cas : une diode va entraîner une perte de tension d’en-
viron 0,65–0,7 volts lorsqu’elle conduit. Nous pouvons cependant nous affran-
chir de ce problème en définissant un état logique 1 comme une tension su-
périeure à 3,5 V, et un état logique 0 comme une tension inférieure à 1,5 V. Tout
niveau compris entre 1,5 et 3,5 V sera considéré comme illégal : c’est la région
pour laquelle le niveau logique est non défini.
L’utilisation de portes individuelles reposant sur cette technologie ne pose pas
de problème, du moment que l’on respecte les contraintes sur les niveaux de
tension.
Cependant, si nous cascadons plu-
sieurs portes DL, des problèmes peuvent
apparaître. Dans l’exemple ci-contre,
nous avons deux portes ET dont les
sorties sont connectées aux entrées
d’une porte OU. Ce schéma est très
simple et ne semble pas poser de pro-
blème. En pratique, il en va différem-
ment !
Si nous forçons les entrées à l’état bas
0, la sortie sera également forcée à 0 ;
aucun problème donc.
Cependant, si les deux entrées de l’une
ou l’autre des portes ET sont à +5 V,
les diodes de la porte OU seront alors
passantes (niveau haut ramené sur les
anodes), et le courant circulera alors à travers la résistance de la porte ET, à
travers la diode, et à travers la résistance de la porte OU.

©2002–2009 C. Diou 159


Chapitre 13 : Famille des circuits logiques

Si on considère que les résistances sont d’égale valeur (ce qui est typiquement
le cas), elles vont se comporter comme un diviseur de tension et ainsi partager
le +5 V en deux parties égales ; la diode de la porte OU va également introduire
une légère perte de tension, et la tension de sortie du système sera alors d’en-
viron 2,1 ou 2,2 V. Si les deux portes ET voient leurs deux entrées au niveau
logique 1, la tension de sortie peut monter à 2,8 ou 2,9 V. En tout état de cause,
la tension de sortie de la porte OU sera dans la « zone interdite », région de la
tension pour laquelle le niveau logique n’est pas défini.
En poursuivant plus avant, si on connecte les sorties de deux ou plus de ces
structures à une autre porte OU, nous perdons tout contrôle sur la tension de
sortie : il va se trouver quelquepart une diode polarisée en inverse qui va blo-
quer le signal´ d’entrée, empêchant le circuit de fonctionner correctement.
C’est pourquoi la logique DL ne peut être utilisée que pour des portes uniques,
et dans des circonstance spécifiques.

13.3.2 Resistor Transistor Logic (RTL)


Considérons le circuit à transistor le plus simple qui
soit, comme celui-ci ci-contre à gauche. Nous ap-
pliquerons uniquement l’une des deux tensions sui-
vantes à l’entrée I : 0 V (0 logique) ou +V volts (1 lo-
gique). La valeur exacte de la tension +V dépend des
paramètres du circuit ; dans les circuits intégrés RTL,
la tension habituellement utilisée est +3,6 V. Consi-
dérons que le transistor utilisé ici est un transistor
NPN avec un gain en courant raisonnable, une ten-
sion émetteur-base de 0,65 V, et une tension de saturation collecteur-émetteur
inférieure à 0,3 V. Dans les circuits intégrés RTL standards, la résistance de base
est de 470 Ω, et la résistance de collecteur est de 640 Ω.
Lorsque la tension d’entrée est zéro volt (en pratique, n’importe quelle tension
inférieure à 0,5 V), il n’y a pas de courant émetteur-base et le transistor est blo-
qué. Ainsi, aucun courant ne circule à travers la résistance de collecteur, et la
tension de sortie est de +V volts. En d’autres termes, un 0 logique en entrée
résulte en un 1 logique en sortie.
Lorsque la tension d’entrée est de +V volts, la jonction émetteur-base est pola-
risée est le transistor passant. La tension de sortie sera donc de 3, 6−0, 65 = 2, 95
volts appliqué au travers d’une combinaison de résistances en série de 640 Ω

160 ©2002–2009 C. Diou


13.3. Présentation des différentes familles logiques

pour la résistance de sortie et de 470 Ω pour la résistance d’entrée. Ceci nous


donne un courant de base de 2, 95/1110 = 0, 0026576577 = 2, 66 mA.
La logique RTL est une technologie relativement ancienne, et les transistors
utilisés dans les circuits intégrés RTL ont un gain d’environ 60 à 100. Si on
considère un gain de 60, un courant de base de 2,66 mA supporte un courant
de collecteur maximal de 159,6 mA. Si la chute de tension aux bornes de la ré-
sistance de collecteur de 640 Ω est de 3,3 V (3, 6 − 0, 3), le courant sera alors de
5,1 mA. Ainsi, le transistor sera complètement saturé.
Avec un 1 logique en entrée, ce circuit produit un 0 logique en sortie, et nous
vu qu’un 0 logique en entrée, il produit un 1 logique en circuit : ce circuit est
un inverseur.
Comme nous pouvons le
constater à l’issue des cal-
culs précédents, la quan-
tité de courant fournie à la
base du transistor est beau-
coup plus importante que
ce qui est nécessaire pour
faire commuter le transistor
vers la saturation. Ainsi, il
est possible d’utiliser une seule sortie pour commander plusieurs entrées
d’autres portes, ainsi que d’avoir des portes comportant plusieurs résistances
d’entrée. Un tel circuit est représenté ci-dessus.
Dans ce circuit, nous avons quatre résistances d’entrée. Porter l’une des en-
trées à 3,6 V est suffisant pour saturer le transistor, et appliquer d’autre 1 lo-
gique additionnels en entrée n’aura pas réellement d’effet sur la tension de
sortie. Rappelons que la tension de polarisation sur la base du transistor n’ex-
cédera pas 0,65 V, ainsi le courant à travers une résistance d’entrée reliée à la
masse ne dépassera pas 0, 65/470 = 1, 383 mA. Ceci nous donne une limite pra-
tique pour le nombre de résistances d’entrées pour un seul transistor, mais ne
génère aucun problème sérieux à l’intérieur de cette limite.
La porte RTL décrite précédemment fonctionne, mais elle pose problème à
cause d’une possible interaction des signaux d’entrée à travers les multiples
résistances d’entrée. Une meilleure façon d’implanter une fonction NON-OU est
montrée sur le schéma suivant.
Ici, chaque transistor a seulement une résistance d’entrée, de manière à ce qu’il
n’y ait aucune interaction entre les entrées. La fonction NON-OU est réalisée à

©2002–2009 C. Diou 161


Chapitre 13 : Famille des circuits logiques

la connexion du collecteur commun de tous les transistors qui partagent une


seule résistance de charge du collecteur.
Ceci est en fait la structure uti-
lisée pour tous les circuits in-
tégrés RTL. Le circuit µL914,
très répandu, est un double
porte NON-OU à deux entrées,
où chaque porte est une ver-
sion à deux transistors du cir-
cuit ci-dessus à droite. Il con-
somme 12 mA lorsque toutes
les sorties sont au niveau lo-
gique 0. Ceci correspond parfai-
tement aux calculs que nous avons effectués précédemment.
Le fan-out standard pour les portes RTL est de 16. Cependant, le fan-in pour
une porte RTL standard est de 3. Ainsi, une porte produit 16 unités de cou-
rant en sortie, mais nécessite 3 unités pour commander une entrée. Il existe
des version basse consommation (low-power) de ces portes qui augmentent
les valeurs des résistances de base et de collecteur à 1,5 kΩ et 3,6 kΩ respec-
tivement. De telles portes demandent moins de courant, et ont typiquement
un fan-in de 1 et un fan-out de 2 ou 3. Elles ont également une réponse en fré-
quence réduite, de sorte qu’elles ne peuvent fonctionner aussi rapidement que
les portes standards. Pour obtenir une plus grande capacité de commande en
sortie (fan-out plus élevé), on utilise des buffers : ce sont des inverseurs conçu
de manière à avoir un fan-out de 80. Ils ont également un fan-in de 6, puis-
qu’ils utilisent des paires de transistors pour obtenir cette capacité de fournir
plus de courant.
On peut obtenir une fonction NON-ET de deux façons : on peut d’inverser les
entrées d’une porte NON-OU/OU, la transformant ainsi en porte ET/NON-ET, ou
on peut utiliser le circuit présenté ci-contre.
Dans ce circuit, chaque transistor possède sa propre résistance d’entrée, ainsi
chacun est contrôlé par un différent signal d’entrée. Cependant, la seule façon
dont la sortie peut être ramenée au niveau logique 0 est que les deux transis-
tors soient activés par des entrées au niveau logique 1. Si l’une ou l’autre des
entrées est au niveau logique 0 le transistor correspondant ne peut conduire,
ainsi aucun courant ne circule dans aucun des transistors. La sortie est donc
au niveau logique 1. C’est le comportement d’une porte NON-ET. Il est possible
d’inclure un inverseur pour réaliser une sortie ET par la même occasion.

162 ©2002–2009 C. Diou


13.3. Présentation des différentes familles logiques

Le problème avec ce circuit NON-ET tient au


fait que les transistors ne sont pas parfaits. La
tension de collecteur de 0,3 V lorsque le tran-
sistor est saturé devrait idéalement être de 0 V.
Comme elle ne l’est pas, il faut examiner ce
qu’il se passe lorsque l’on « empile » les tran-
sistors de cette façon. Avec deux transistors, la
tension de collecteur en saturation cumulée
est de 0,6 V, c’est-à-dire seulement très peu en
deçà de la tension de base de 0,65 V qui sature
un transistor.
Si l’on empile trois transistors pour réaliser une porte NON-ET à trois entrées, la
tension de collecteur en saturation cumulée est de 0,9 V : ceci est trop élevé, et
provoquera la conduction dans le transistor suivant quelquesoit le niveau lo-
gique appliqué en entrée. De plus, la charge que constitue le transistor le plus
haut à la porte qui le pilote sera différente de la charge que constitue le transis-
tor le plus bas. Ce genre d’irrégularité peut causer l’apparition de problèmes,
plus particulièrement lorsque la fréquence des opérations augmente. À cause
de ces problèmes, cette approche n’est pas utilisée avec les circuits intégrés
RTL standards.

13.3.3 Diode Transistor Logic (DTL)


Nous l’avons vu § 13.3.1, le prin-
cipal problème avec les portes DL
est qu’elles détériorent rapidement
le signal logique. Cependant, elles
fonctionnent pour un étage à la
fois si le signal est ré-amplifié entre
deux portes : c’est le but de la tech-
nologie Diode Transistor Logic.
La porte à droite est une porte OU
DL suivie par un inverseur tel que
celui présenté § 13.3.2.
La fonction OU est toujours réalisée
par les diodes. Cependant, quelquesoit le nombre d’entrées au niveau logique
1, il est certain qu’il y aura une tension d’entrée suffisante pour faire passer le

©2002–2009 C. Diou 163


Chapitre 13 : Famille des circuits logiques

transistor en saturation. Le transistor restera bloqué uniquement si toutes les


entrées sont au niveau logique 0. Ainsi le circuit réalise la fonction NON-OU.
L’avantage de ce circuit sur son équivalent RTL est que le OU logique est réalisé
par les diodes, et non par les résistances. Ainsi, il n’y a aucune interaction entre
les différentes entrées, et un nombre quelconque de diodes peut être utilisé
(donc un nombre quelconque d’entrées). Un inconvénient de ce circuit est la
résistance d’entrée du transistor. Sa présence a tendance à ralentir le circuit, et
limite ainsi la vitesse à laquelle le transistor est capable de changer d’état.
En première lecture, la version
NON-ET ci-contre devrait éliminer
ce problème. Un niveau logique 0
devrait ramener immédiatement la
masse à la base du transistor et
ainsi bloquer ce dernier...
En fait, ça ne se passe pas réelle-
ment ainsi. Rappelons que la ten-
sion de seuil de la diode lorsqu’elle
conduit est très proche de la ten-
sion présente à la base du transis-
tor (0,65 V). Ainsi, même lorsque
toutes les entrées sont reliées à la
masse, la base du transistor sera à un potentiel d’environ 0,65 V, et le transistor
peut conduire ...
Pour résoudre ce problème, il est
possible d’ajouter une diode en sé-
rie avec le transistor comme mon-
tré sur le schéma ci-contre. Main-
tenant, la tension nécessaire pour
faire commuter le transistor est
de 1,3 V. Pour plus de sécurité, on
pourrait ajouter une seconde diode
en série, ce qui nécessiterait 1,95 V
pour saturer le transistor. De plus,
on peut ainsi être sûr que des chan-
gements de température n’affecte-
ront pas de manière significative le
fonctionnement du circuit.

164 ©2002–2009 C. Diou


13.3. Présentation des différentes familles logiques

En tout état de cause, ce circuit fonctionne comme une porte NON-ET. De plus,
comme pour la porte NON-OU, on peut utiliser autant de diodes d’entrées que
l’on veut sans augmenter la tension de seuil. De plus, en l’absence de résistance
en série dans le circuit d’entrée, il y a moins d’effet de ralentissement, et le
transistor peut commuter plus rapidement et donc gérer des fréquences plus
élevées.
Ceci étant, est-il possible d’appli-
quer la même raisonnement à la
porte NON-OU et éliminer la résis-
tance pour permettre une commu-
tation plus rapide ?
La réponse est oui. Considérons
le circuit ci-contre. On utilise ici
des transistors séparés connectés
ensembles. Chacun a une entrée
unique, et fonctionne donc comme
un inverseur. Cependant, si les col-
lecteurs sont connectés ensembles, un 1 logique appliqué à l’une des entrées
forcera la sortie au niveau logique 0. C’est une porte NON-OU.
La même approche peut être utilisée pour les portes NON-OU/OU RTL, de ma-
nière à ce que l’opération NON-OU soit réalisée au niveau des collecteurs plutôt
qu’en utilisant des résistances. Cette approche élimine également la limite sur
le nombre d’entrées pouvant être utilisées, puisqu’il n’y a aucune interaction
entre les entrées.

13.3.4 Transistor Transistor Logic (TTL)


Avec le développement rapide des circuits intégrés, des nouveaux problèmes
sont apparus, et des nouvelles solutions furent développées pour y remédier.
L’un des problèmes avec les circuits DTL était qu’il fallait autant de place sur le
circuit pour réaliser une diode que pour un transistor. Il était donc souhaitable
de ne pas avoir à nécessiter autant de diodes. La question est donc de savoir
par quoi remplacer ces diodes ...
En étudiant la porte DTL ci-contre, on peut constater que les diodes montées
en opposition ressemblent énormément aux deux jonctions d’un transistor. En
fait, si nous avions un inverseur, il n’aurait qu’une seule diode d’entrée, et il
aurait été possible de remplacer ces deux diodes opposées par un transistor
NPN qui jouerait le même rôle.

©2002–2009 C. Diou 165


Chapitre 13 : Famille des circuits logiques

En pratique, ceci fonctionne parfai-


tement. La figure suivante illustre
l’inverseur résultant de cette trans-
formation.
De plus, il est possible d’ajou-
ter plusieurs émetteurs au transis-
tor d’entrée sans accroître énormé-
ment l’espace nécessaire sur le cir-
cuit. Ceci nous permet de réaliser
une porte à plusieurs entrées dans
pratiquement le même espace qu’un inverseur.
Les économies d’espaces réalisées se traduisent
en une économie significative sur les coûts de
fabrication, ce qui réduit les coûts au niveau de
l’utilisateur final.
Un problème partagé par toutes les portes lo-
giques avec un seul transistor de sortie et une
résistance de rappelle à +V (pull-up) sur le col-
lecteur est la vitesse de commutation. Le transis-
tor tire la sortie vers le niveau logique 0 de ma-
nière active, mais la résistance n’est pas active
lorsqu’elle tire la sortie vers le niveau logique 1. À cause de facteurs inévitables
comme les capacitances du circuit ainsi qu’à une caractéristique des transis-
tors bipolaire appelée « stockage de charge », cela prendrait un certain temps
aux transistor pour se bloquer complètement et à la sortie pour atteindre le
niveau logique 1. Ceci limite la fréquence à laquelle la porte peut fonctionner.
Les concepteurs de circuits TTL commerciaux réduisent ce problème en mo-
difiant le circuit de sortie. Le résultat est le circuit de sortie « totem pole » uti-
lisé dans la plupart des circuits intégrés TTL des séries 7400/5400. Le circuit
final utilisé dans la plupart des circuits intégrés commerciaux standards est
présenté sur la figure de gauche. Le nombre d’entrées peut varier – un CI com-
mercial peut avoir 6 inverseurs, quatre portes à deux entrées, trois portes à trois
entrées, ou deux portes à quatre entrées. Une porte à 8 entrée dans un seul boi-
tier est également disponible. Dans tous les cas la structure du circuit reste la
même.

166 ©2002–2009 C. Diou


13.3. Présentation des différentes familles logiques

13.3.5 Complementary Metal Oxyd Semiconductor Logic


(CMOS)
La technologie CMOS est une technologie plus
récente basée sur l’utilisation de transistors MOS
complémentaires pour réaliser les fonctions lo-
giques et qui nécessite un courant pratiquement
nul pour fonctionner. Ceci rend cette technolo-
gie particulièrement intéressante dans les appli-
cations alimentées par batteries. De plus, elles
peuvent fonctionner avec des tensions variant de
3 V (voire moins pour les dernières technologies :
1,3 V) à 15 V.
Les portes CMOS sont toutes basées sur l’inver-
seur présenté sur la figure de droite. Les deux
transistors sont des MOSFETs en mode étendu ;
un canal N avec sa source reliée à la masse, et un
canal P avec sa source connectée à +V. Leurs grilles sont reliées pour former
l’entrée, et leurs drains sont reliés pour former la sortie.
Les deux MOSFETs sont conçus pour avoir des
caractéristiques crorrespondantes ; ainsi, ils sont
complémentaires l’un de l’autre. Lorsqu’ils sont
bloqués, leur résistance est infinie, et lorsqu’il
sont passants, la résistance de leur canal est d’en-
viron 200 Ω. Puisque la porte est essentiellement
un circuit ouvert, elle ne consomme aucun cou-
rant, et la tension de sortie sera égale soit à la
masse, soit à la tension d’alimentation, selon le
transistor en train de conduire.
Lorsque l’entrée A est mise à la masse (0 logique), le MOSFET à canal N n’est
pas polarisé, il est bloqué. C’est un circuit ouvert, et donc il laisse la ligne de
sortie déconnectée de la masse. En même temps, le MOSFET à canal P est po-
larisé ; il devient passant et son canal a une résistance d’environ 200 Ω, connec-
tant ainsi la ligne de sortie à l’alimentation. Ceci ramène donc la tension +V à
la sortie (1 logique).
Lorsque l’entrée A est à +V (1 logique), le MOSFET à canal P est bloqué et le
MOSFET à canal N est passant, ramenant la masse vers la sortie (0 logique).

©2002–2009 C. Diou 167


Chapitre 13 : Famille des circuits logiques

Ainsi, le circuit réalise bien l’inversion logique en même temps qu’il génère des
rappels actifs à +V (pull-up) ou à la masse (pull-down), selon l’état de la sortie.
Ce concept peut être étendu aux
structures NON-OU et NON-ET en
combinant des inverseurs dans une
structure partiellement série, par-
tiellement parallèle. Le circuit pré-
senté ci-dessus est un exemple de
porte NON-OU CMOS à deux en-
trées.
Dans ce circuit, si les deux entrées
sont à l’état bas, les deux MOSFETs
à canal P seront passant, induisant
une connexion à +V. Les deux MOS-
FETs à canal N seront bloqués, il
n’y aura donc pas de connexion à la
masse. Cependant, si l’une des entrées passe à l’état haut, le MOSFET à canal P
correspondant se bloquera et déconnectera par là même la sortie du +V, alors
que le MOSFET à canal N correspondant deviendra passant, ramenant la sortie
à la masse.
La structure peut être inversée,
comme montré sur la figure pré-
cédente. Ici, nous avons une porte
NON-ET à deux entrées, pour la-
quelle un 0 logique sur l’une ou
l’autre des entrées forcera la sor-
tie à l’état logique 1. Il faudra par
contre que les deux entrées soient
au niveau logique 1 pour autoriser
la sortie à passer à l’état logique 0.
Cette structure est moins limitée
que son équivalent bipolaire, mais
il existe tout de même des limites
pratiques. L’une de ces limites est
la résistance cumulée des MOSFETs en série. Ainsi, les totem-pôles CMOS ne
contiennent pas plus de quatre entrées. Les portes avec plus de quatre entrées
sont construites en cascadant les structures plutôt que comme des structures
uniques.

168 ©2002–2009 C. Diou


13.3. Présentation des différentes familles logiques

Même avec cette limite, la structure totem-pôle cause encore problème dans
certaines applications. Les résistances de rappel à +V et à la masse présentes
en sortie ne sont jamais les mêmes, et peuvent changer de manière significa-
tive lorsque les entrées changent d’état, même si la sortie ne change pas d’état
logique.
Le résultat est des
temps de montée et
de descente irrégu-
liers et imprédictibles
pour le signal de sor-
tie. Ce problème a
été résolu à l’aide des
versions bufferisées (sé-
rie B) des portes CMOS.
La technique utilisée
ici est de faire suivre
la porte NON-ET par
une paire d’inverseurs.
Ainsi, la sortie sera toujours pilotée par un seul transistor, soit à canal P, soir à
canal N. Puisque les transistor sont choisis pour être aussi appairés que pos-
sible, la résistance de sortie de la porte sera toujours la même, le comporte-
ment du signal en est plus prédictible.
L’un des principaux problèmes avec les portes CMOS est leur vitesse. Elles ne
peuvent pas fonctionner très rapidement, à cause de leur capacitance d’entrée
inhérente. Les portes de la série B permettent de résoudre en partie ces limita-
tions en fournissant un courant de sortie uniforme et commutant les états en
sortie plus rapidement, même si le signal d’entrée change plus lentement.
Un type de porte, illustré ci-après, est unique à la technologie CMOS : il s’agit
du « switch bilatéral », plus couramment appelé « porte de transmission ». Cette
porte fait un usage approfondi du fait que les TEC individuels dans un circuit
intégré CMOS sont construits de manière à être symétriques. Et en pratique le
drain et la source de n’importe quel transistor peuvent être interchangés sans
affecter les performances ni du transistor lui-même, ni du circuit dans son en-
semble.
Lorsque les TEC de type N et P sont connectés comme montré dans ce schéma
et que leurs grilles sont pilotées par des signaux de contrôle complémentaires,
les deux transistors seront passants ou bloqués ensemble, au lieu de l’être alter-

©2002–2009 C. Diou 169


Chapitre 13 : Famille des circuits logiques

nativement. S’ils sont tous les deux bloqués, le chemin parcouru par le signal
est un circuit ouvert : il n’y a aucune connexion entre l’entrée et la sortie. S’ils
sont tous les deux passants, il y a une connexion de très faible résistance entre
l’entrée et la sortie, et un signal pourra circuler.
Ce qui est vraiment inté-
ressant dans cette structure
est que le signal contrôlé de
cette manière n’a pas besoin
d’être un signal numérique.
Aussi longtemps que la ten-
sion du signal ne dépassera
pas la tension d’alimenta-
tion, même un signal analo-
gique peut être contrôlé par
ce type de porte.

170 ©2002–2009 C. Diou


13.4. Implantation des opérateurs en technologie CMOS

Chapitre 1 Algèbre de commutation


13.4 Implantation des opérateurs en technologie
CMOS
1.6 IMPLANTATION DES OPERATEURS EN TECHNOLOGIE C-MOS

0 0

1 1

Transistor N : Transistor P :
ouvert si grille =0 ouvert si grille =1
fermé si grille =1 fermé si grille =0

B
A
E S A

B
A

B A B

A A

B B

1 1 0

©2002–2009 C. Diou 171


Sixième partie

Annexes
m Annexe A n
Examen sur les systèmes de
numération sumérien et babylonien
p
Tablet YBC 7289 (c. 1800–1600 BCE) : Babylonian approximation to 2 in the context of
Pythagoras’ Theorem for an isosceles triangle. (Bill Casselman)

La numération mésopotamienne utilise essentiellement deux syeèmes de numération de


position : l'une sexagésimal erice avec les clous et chevrons, l'autre mélangeant syeème
décimal et sexagésimal. Cere numération ee partagée par les Babyloniens et les Akkadiens
et provient de celle utilisée par les Sumériens

A.1 Numération

Le système numérique sumérien primitif est un système mixte de bases 60 (sexa-


gésimale) et 10 (décimale). Un nombre dans ce système est composé des 6 sym-
boles représentés dans le tableau ci-dessous avec leurs poids respectifs et la no-
tation que nous utiliserons par convention.

Symbole
Poids 100 .600 101 .600 100 .601 101 .601 100 .602 101 .602
Valeur 1 10 60 600 3600 36000
Notation T V W X Y Z
Modulo 10 6 10 6 10 —

On peut donc l’écrire :

N =z× +y× +x × +w × +v × +t × , soit


N = z.Z + y.Y + x.X + w.W + v.V + t .T , soit
N = z × 10 × 602 + y × 602 + x × 10 × 60 + w × 60 + v × 10 + t , soit
N = (10.z + y) × 602 + (10.x + w) × 60 + (10.v + t )

175
Annexe A : Examen sur les systèmes de numération sumérien et babylonien

où l’on retrouve bien la base 60 qui multiplie des nombres exprimés en base 10.
Les coefficients t, v, w, x, y, et z représentent le nombre d’occurences des symboles
respectifs T,V,W,X,Y, et Z.
Exemple :
(45322)10 = 1 × 36000 + 2 × 3600 + 3 × 600 + 5 × 60 + 2 × 10 + 2 × 1

1× +2× +3× +5× +2× +2×

Soit :

Question 1
On désire coder en binaire le système de numération sumérien : on nommera
ce code SCB (Sumérien Codé Binaire). Le nombre z.Z+y.Y+x.X+w.W+v.V+t.T
sera alors noté (zyxwvt)SCD .
Exemple :
(45322)10 = 1.Z + 2.Y + 3.X + 5.W + 2.V + 2.U = (123522)SCB
a) En fixant la taille des mots SCB à 24 bits, et en tenant compte des caracté-
ristiques de chaque symbole (modulo), quel est le nombre minimal de bits à
assigner à chaque symbole ? On considèrera Z non borné.
b) Quel est, en binaire et en décimal, le plus grand nombre entier positif qu’il
est possible de représenter dans ce système (toujours sur 24 bits) ? À titre de
comparaison, quel est, toujours en binaire et en décimal, le plus grand nombre
qu’il est possible de représenter sur 24 bits en DCB ainsi qu’en binaire pur ?
Tracez un tableau comparatif.

176 ©2002–2009 C. Diou


A.2. Arithmétique

A.2 Arithmétique

Rappel de cours :
L’addition de deux nombres codés en DCB se passe de la manière suivante : on
additionne deux à deux les chiffres de même rang (unités, dizaines, etc.). Si le
résultat est inférieur à (10)10 , on conserve la valeur obtenue, sinon on ajoute 6 et
on propage la retenue. Ceci est dû au fait que les nombres sont codés modulo 16
(4 bits) mais représentent une valeur modulo 10 : comme 16-10=6, on ajoute 6
pour « compléter » le modulo.
Exemple : 7 6 7 6
+ 1 1 + 1 7
= 8 7 = 8 D
+ 01 6
= 9 3

Question 2
En considérant que tous les symboles du code SCB sont codés avec un nombre
minimal de bits, expliquez comment appliquer cette méthode à l’addition de
nombres SCB. Détaillez et faites un schéma.

A.3 Conversion
Le système numérique babylonien a hérité du système sumérien et conserve no-
tamment la base sexagésimale. Cependant, la représentation des nombres repose
maintenant sur 59 symboles réalisés à partir de deux graphes uniques : et
dont les valeurs respectives sont 1 et 10.
Les 59 symboles du système babylonien sont les suivants :

©2002–2009 C. Diou 177


A.4. Comptage

e) Convertissez = (1,25,47)60 vers la base 10.

f ) Convertissez = (1,25,47)60 vers la base SCB. Que constatez-


vous ?

A.4 Comptage
On désire réaliser un compteur synchrone modulo 60 à fonctionnement sur
front. En se basant sur l’écriture des nombres babyloniens, et bien que le zéro
n’existe pas dans ce système on notera les nombres en base 10 : le chiffre des di-
zaines varie de 0 à 5, et celui des unités UN de 0 à 9. On réalisera donc le comp-
teur modulo 60 comme un compteur modulo 10 en cascade avec un compteur
modulo 6.

Question 4
a) Réalisez les deux compteurs en logique synchrone à l’aide :
– de bascules D pour le compteur modulo 10 ;
– de bascules JK pour le compteur modulo 6 ;
– de portes NON-ET ou NON-OU, en expliquant votre choix.
b) De manière à faciliter la mise en cascade de ces compteurs synchrones, cha-
cun des deux compteurs devra comporter une entrée de validation En , ainsi
qu’une sortie de dépassement Cout positionnée à 1 lorsque le compteur atteint
son état final, et à 0 sinon. La table de vérité du compteur sera alors la suivante :
En Mode
0 Mémorisation
1 Comptage
Vous devez impérativement donner les tables d’implication séquentielle, ainsi
que les tableaux de Karnaugh si nécessaire, et commenter tous vos choix tech-
nologiques.
Sans refaire les calculs, et pour chacun des compteurs, donnez les nouvelles
équations des entrées J,K ou D en fonction de En , ainsi que l’équation de Cout .

Question 5
Sans entrer dans les détails, réalisez un vrai compteur modulo 60, et comparez
les coûts respectifs des deux méthodes en termes de bascules et de logique

©2002–2009 C. Diou 179


Annexe A : Examen sur les systèmes de numération sumérien et babylonien

combinatoire. Aidez-vous de la structure d’un compteur synchrone à cycle


complet, sans refaire la table d’implication séquentielle.

Rappel de cours :
Pour un compteur modulo 8 (cycle complet sur 3 bits), on obtient les équations
suivantes : J0 =K0 =1, J1 =K1 =Q0 , et J2 =K2 =Q0 .Q1

Le système sexagésimal, inventé il y a plus de 4000 ans, reste très utilisé aujour-
d’hui, notament dans la représentation des heures et des angles.
On désire réaliser la commande d’un moteur de télescope avec une précision
d’une seconde d’arc. Le moteur à contrôler avance par pas de 1” à chaque im-
pulsion de commande, et peut faire un tour complet. Le déplacement à effectuer
pour atteindre la position souhaitée est stocké dans trois registres (deg, mn, sec).
Le principe consiste donc à appliquer au moteur un nombre d’impulsions fixe
de manière à ce que le parcours effectué soit identique au parcours stocké sous
forme d’angle dans les registres. Les comparateurs C0 , C1 et C2 délivrent un ni-
veau haut en sortie tant que les valeurs en entrées sont différentes l’une de l’autre.
Le générateur d’impulsions fabrique ces impulsions tant qu’une au moins des
sorties r0 , r1 et r2 des comparateurs est au niveau logique 1. À partir du moment
où toutes les sorties des comparateurs sont à zéro, les sorties des compteurs et du
générateur d’impulsions sont forcées à 0 de manière asynchrone, jusqu’à l’appa-
rition d’un nouveau parcours se caractérisant par un basculement vers le niveau
haut d’un ou plusieurs comparateurs.

Question 6
Sachant que 1° = 60’ et 1’ = 60”, proposez, à partir d’un ou plusieurs compteurs,
un système permettant de positionner le téléscope ; pour cela :
a) Dessinez le schéma du compteur en y indiquant les sorties q0 , q1 , q2 et qx .
Précisez notamment à quoi correspondent q2 et qx .
b) Dessinez le schéma logique du générateur d’impulsions à l’aide des portes
logiques de votre choix.

Note : N’utilisez que des compteurs parmi ceux réalisés précédemment, sans re-
faire les calculs, et en vous aidant du schéma suivant et de la question 4.

180 ©2002–2009 C. Diou


A.5. Codage

7 bits Parcours en secondes d’arc


7 bits Parcours en minutes d’arc
10 bits Parcours en degrés

7b 7b 10b ° (deg) ’ (mn) ’’ (sec)


C0 q0 C1 q1 C2 q2
REGISTRE DE POSITION
r0 r1 r2

qx Générateur d’impulsions MOTEUR

Horloge
COMPTEUR(S)

A.5 Codage
Question 7
On veut afficher la valeur du déplacement angulaire à l’aide de 7 afficheurs à
7 segments composés de 7 diodes électroluminescentes commandées par les
bits a,b,c,d,e,f.
a a
b
A
7 SEGMENTS
DECODEUR

c f b
Code B d g
SCB C
e
D e c
f
g
d

En vous aidant du schéma précédent, réalisez le décodeur SCB vers 7 seg-


ments :
– donnez les équations des variables, a,b,c,d,e et f ;
– réalisez le schéma logique de chacune de ces variables.

©2002–2009 C. Diou 181


m Annexe B n
Correction des exercices

183
m Index n

équivalence, 58 consensus, 62
état, 133
De Morgan, 91
absorption, 56, 59, 62, 77 loi de De Morgan, 56, 62
allègement, 77 théorême de De Morgan, 59, 64,
amplification, 156 67, 68, 77
associativité, 59, 62 dilemme, 65
disjonctive
bascule forme disjonctive, 60
à verrouillage, 118 distributivité, 55, 59, 62
D, 121 dualité, 59
JK, 119
maître-esclave, 119 élément absorbant, 62
RS, 114 élément neutre, 62
RS synchrone, 117 élément nul, 58
RSH, 117 entrance, 156
RST, voir bascule Espresso, 87
T, 122
fan-in, 156
base, 11
fan-out, 156
conversion de base, 14–15
fanout, 162
binaire, 12
gain en courant, 156
canonique
forme canonique, 60, 77, 108 hexadécimal, 13
produit canonique, 61
somme canonique, 60 idempotence, 56, 58, 62
commutativité, 55, 59, 62, 65 identité, 57, 62
complémentarité, 58 identité, 55, 63
complémentation, 58 induction parfaite, 57
compteur, 133 involution, 56, 58, 62
conjonctive
forme conjonctive, 61 latch, 118

185
Index

LSB, 13 Quine–McCluskey, 83, 86, 89

maxterme, 61 Shannon, 133


minterme, 60, 61 sortance, 156
modulo, 133
MSB, 13 temps de descente, 156
temps de montée, 156
octal, 13 temps de traversée, 156

Petrick, 86 virgule
polynomiale virgule fixe, 23
représentation polynomiale, 11 virgule flottante, 23–27

186 ©2002–2009 C. Diou


m Bibliographie n

Livres
[LivWhi61] J.E. Whitesitt, “Boolean algebra and its applications”, 1961,
Addison-Wesley.
[LivLaf] J.-C. Lafont & J.-P. Vabre, « Cours et Problèmes d’Électronique Nu-
mérique », Éditions Ellipses.
[LivToc] R. J. TOCCI, « Circuits Numériques, Théorie et Applications », Édi-
tions Dunod.

Articles de revues
[ArtKar53] Maurice Karnaugh, “The Map Method for Synthesis of Combina-
tional Logic Circuits”, Trans. AIEE. pt I, 72(9) :593-599, November
1953.

Sites Web
[WebMul] Daniel Muller, « Systèmes de numération », http://tic01.tic.
ec-lyon.fr/~muller/trotek/cours/numeration/index.
html.fr
[WebBig] Ken Bigelow, “Digital Logic” (Site Web sur la technologie des portes
logiques), http://www.play-hookey.com/digital/
[Wiki01] Wikipédia, Article sur l’algorithme Quine–McCluskey : http:
//en.wikipedia.org/wiki/Quine%E2%80%93McCluskey_
algorithm
[Wiki02] Wikipédia, Article sur la méthode de Petrick, http://en.
wikipedia.org/wiki/Petrick%27s_method
[Wiki03] Wikipédia, Article sur Espresso, http://en.wikipedia.org/
wiki/Espresso

187

Vous aimerez peut-être aussi