Poly Python PDF
Poly Python PDF
Poly Python PDF
Jules Svartz
Lycée Masséna
Lycée Masséna
Préambule
Ces notes de cours sont issues du cours d’informatique commune (IPT) subi par les élèves du lycée Masséna des
classes de première année MPSI (831), PCSI (833) et de deuxième année MP*, MP, PC*, PC.
Le cours présenté ici est très détaillé, et tous les points ne sont pas nécessairement abordés en classe : il se veut
utile autant pour l’élève qui veut un récapitulatif que pour celui qui souhaite aller plus loin.
Le polycopié se divise en 4 parties, elles-mêmes subdivisées en 13 chapitres. À ceux-ci s’ajoute un dernier chapitre
explicitant brièvement l’usage des modules usuels en Python, notamment Numpy. Les trois premières parties sont
relatives au programme de première année, la quatrième au programme de deuxième année. Le plan choisi est le
suivant :
— La première partie est dévolue à l’« initiation ». Malgré ce nom, elle est fondamentale, notamment les chapitres
2 et 3. Elle se subdivise en 4 chapitres :
— Le chapitre 0 est un chapitre d’introduction à l’informatique, il présente un point de vue historique sur le
développement de cette discipline, les principaux éléments constitutifs d’un ordinateur et le rôle du système
d’exploitation. Le cours présenté ici est habituellement présenté en fin d’année, par choix pédagogique :
il est en effet plus facile d’expliquer précisément le comportement d’un micro-processeur à des élèves qui
savent déja programmer et ont une connaissance du système de numération binaire.
— Le chapitre 1 présente de manière détaillée les éléments au programme concernant la programmation en
Python. Il est en pratique présenté peu à peu en cours et en TP, parallèlement aux chapitres qui suivent.
L’utilisation des modules n’est pas présentée en détail dans ce chapitre mais reléguée en fin de polycopié.
— Le chapitre 2 présente la représentation des nombres (entier et flottants) dans un ordinateur. Il est plus
détaillé que ce que préconise le programme officiel, mais les algorithmes de changements de base sur les
entiers offrent une bonne introduction à l’algorithmique. L’addition des entiers relatifs sur des registres de
taille fixée permet de plus de comprendre le fonctionnement d’un processeur. Enfin, la représentation des
flottants offre un premier avertissement sur les erreurs d’arrondis.
— Le chapitre 3 donne les outils pour l’analyse théorique des algorithmes (terminaison / correction / com-
plexité). C’est un chapitre crucial où sont présentés les algorithmes « basiques » au programme de première
année : parcours de listes, recherche dichotomique ou de motif dans une chaîne de caractères...
— La deuxième partie est dévolue à l’analyse numérique. Elle est très (peut-être trop) détaillée, mais c’est également
un choix pédagogique motivé par l’importance qu’occupent les questions d’analyse numérique dans les concours.
Elle se découpe en 5 chapitres.
— Le chapitre 4 présente une sensibilisation aux erreurs numériques et fait suite au chapitre 2. Peut-être un
peu rébarbative, il explique certains comportements « étranges » observés en TP, à cause de l’utilisation
des nombres flottants.
— Le chapitre 5 présente les deux méthodes au programme pour la résolution d’équations numériques : la
méthode de la dichotomie et la méthode de Newton.
— Le chapitre 6 présente la résolution d’équations linéaires via l’algorithme du pivot de Gauss. Là encore, on
fait attention aux erreurs d’arrondis.
— Le chapitre 7 présente des méthodes d’intégration de fonctions. Bien que la seule méthode au programme
soit la méthode des rectangles (à gauche), on étudie également des méthodes d’ordre supérieur, notamment
la méthode des trapèzes qui fait des apparitions régulières aux concours.
— Le chapitre 8 présente des méthodes de résolution d’équations différentielles. On fait le lien avec le cha-
pitre précédent : les méthodes de résolution sont vues comme des applications des méthodes d’intégration
approchée. Là encore, seule la méthode d’Euler (explicite) est au programme, mais d’autres méthodes font
également l’objet de questions aux concours.
— Le chapitre 9, unique chapitre de la partie 3 (Bases de données), présente les bases de SQL et de l’algèbre
relationnelle. Le choix de présenter l’algèbre relationnelle (pas clairement au programme) est là aussi motivé par
sa présence aux concours.
— La partie 4 (Algorithmique avancée) présente le programme de deuxième année.
— Le chapitre 10 présente les algorithmes de tris « naïfs », c’est-à-dire quadratiques. C’est une bonne occasion
de mettre en pratique les concepts introduits au chapitre 3.
— Le chapitre 11 présente la structure de pile (seule structure abstraite au programme). Pour justifier le
chapitre, plusieurs applications sont données. On présente également une autre structure abstraite, celle de
file.
— Le chapitre 12 introduit la récursivité, en s’appuyant sur le chapitre précédent. Pour ne pas se cantonner
aux exemples « triviaux » d’algorithmes récursifs, on présente notamment un algorithme « Diviser pour
régner ».
— Enfin, le chapitre 13 présente, en lien avec le chapitre précédent, les deux algorithmes de tri efficaces au
programme : le tri fusion et le tri rapide. On donne également un algorithme de calcul de la médiane en
temps linéaire en moyenne, basé sur une variante du tri rapide.
— Le chapitre 14, relégué en annexe, donne une présentation des modules usuels. Bien que leur connaissance ne
soit pas exigible à l’écrit des concours, les écrits proposent souvent des questions où ils sont utilisés (notamment
Numpy), même si certaines fonctions sont données en formulaire. La connaissance des modules est également
utile pour la deuxième épreuve de mathématiques à l’oral de Centrale, ou encore pour effectuer des modélisations
dans un TIPE.
Licence. Cette œuvre est mise à disposition sous licence Attribution - Partage dans les Mêmes Conditions 2.0 France.
Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by-sa/2.0/fr/ ou écrivez à
Creative Commons, PO Box 1866, Mountain View, CA 94042, USA.
I Initiation 11
0 Ordinateurs, Systèmes d’exploitation et Python 13
0.1 Qu’est ce qu’un ordinateur ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
0.1.1 Turing et ses machines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
0.1.2 Prémices aux ordinateurs et modèle de Von Neumann . . . . . . . . . . . . . . . . . . . . . . . 15
0.1.3 Le rôle de chaque élément. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
0.1.4 Avantages et inconvénients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
0.1.5 De nos jours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
0.1.6 Ordres de grandeur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
0.2 Le système d’exploitation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
0.2.1 Le multitâche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
0.2.2 Identification des utilisateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
0.2.3 Organisation des fichiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
0.2.4 Droits d’accès . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
0.3 Le langage Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1 Programmation en Python 23
1.1 Types simples et expressions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.1.1 Expressions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.1.2 Entiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.1.3 Flottants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.1.4 Booléens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2 Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.2.1 Identificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.2.2 Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.3 Structures de contrôle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.3.1 Python et l’indentation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.3.2 Instruction conditionnelle if/else (si/sinon) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.3.3 Boucle conditionnelle while (tant que) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.3.4 Boucle inconditionnelle for... (pour...) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.3.5 Break et Continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.3.6 Boucles imbriquées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.4 Structures de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.4.1 Listes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.4.2 Tuples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.4.3 Chaînes de caractères . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.5 Fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.5.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.5.2 Notions et syntaxe de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.5.3 Variables locales et globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.5.4 Passage par références. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.5.5 Une fonction : un objet comme les autres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.6 Entrées/Sorties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.6.1 print et input . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.6.2 Fonctions pour les fichiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2 Entiers, Flottants 47
2.1 Représentation des entiers naturels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.1.1 Écriture dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.1.2 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2 Représentation des entiers relatifs en binaire, additions. . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.2.1 Entiers naturels de taille fixée et additions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.2.2 Entiers relatifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.2.3 En pratique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.3 Représentation des nombres réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3.1 Représentations des nombres dyadiques en binaire . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3.2 Nombres flottants normalisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.3.3 Exceptions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.3.4 Arrondis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3 Analyse d’algorithmes 59
3.1 Terminaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.1.1 Quelques exemples, exponentiation rapide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.1.2 Variant de boucle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2.1 Correction des boucles while . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2.2 Correction des boucles for . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.2.3 D’autres exemples : parcours linéaires de listes . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.2.4 Recherche efficace dans une liste triée : recherche dichotomique . . . . . . . . . . . . . . . . . . 63
3.3 Complexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.1 Introduction et tri par sélection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.2 Complexité : définitions et méthodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3.3 Applications aux algorithmes vus précédemment . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.3.4 Quelques ordres de grandeur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.4 Recherche d’un motif dans une chaîne de caractères . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
II Analyse numérique 71
4 Estimation d’erreurs numériques 73
4.1 Rappels sur la représentation des nombres réels : précision absolue et relative . . . . . . . . . . . . . . 73
4.2 Erreurs sur les sommes et produits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.2.1 Erreur sur la somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.2.2 Erreur sur le produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.3 Phénomènes d’instabilité et remèdes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.3.1 Phénomènes de compensation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.3.2 Problèmes mal posés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
12 Récursivité 157
12.1 Principes de la récursivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
12.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
12.1.2 La pile d’exécution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
12.1.3 D’autres exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
12.1.4 Limites de la récursivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
12.1.5 Avantage de la récursivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
12.2 Terminaison, correction et complexité d’une fonction récursive . . . . . . . . . . . . . . . . . . . . . . . 162
12.2.1 Terminaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
V Annexes 181
14 Modules usuels 183
14.1 Module math . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
14.1.1 Importation du module . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
14.1.2 De l’aide ! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
14.2 Module numpy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
14.3 Module matplotlib. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
14.3.1 Options pyplot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
14.3.2 Quelques exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
14.4 Module scipy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
14.4.1 Résolution d’équations numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
14.4.2 Intégration de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
14.4.3 Intégration d’équations différentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
14.5 Quelques autres modules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
Première partie
Initiation
Chapitre 0
— un ensemble fini d’états : quand la machine lit un symbole, elle réagit en fonction de son état actuel et du symbole
lu, en changeant d’état, en modifiant le symbole sur le ruban et en déplaçant la tête de lecture d’un cran sur la
droite ou sur la gauche (elle n’est pas forcée d’effectuer toutes ces actions).
1 0 1 0 0 1 1 0 1 0 ···
Donnons une brève description d’une machine de Turing testant si un nombre naturel n écrit en binaire est divisible
par 3. On suppose que sur le ruban d’entrée (unidirectionnel, infini vers la droite, comme en figure 2) se trouve le
mot écrit en binaire de gauche à droite, les bits de poids forts étant au début. Les autres cases du ruban sont vides.
La machine doit écrire à la suite du nombre (à la première case vide), le symbole « V » ou « F » (pour vrai ou faux)
suivant si le nombre est divisible par 3 ou non. On peut imaginer une machine à 4 états résolvant le problème :
— 3 états correspondant à la congruence modulo 3 de la portion du nombre lue jusqu’ici. Notons les 0, 1, 2.
— Un état supplémentaire (final) indiquant que le calcul est fini.
Pour compléter la description de notre machine de Turing, il faut donner la fonction de transition entre les états,
c’est à dire la façon dont la machine réagit suivant son état et le symbole lu. Le tableau suivant donne la congruence
modulo 3 de 2a et 2a + 1 en fonction de celle de a :
a 0 1 2
2a 0 2 1
2a + 1 1 0 2
Cette table nous donne l’essentiel de la fonction de transition : si la portion des bits lue jusque-là représente a en
binaire, lire un 0 mène à la représentation de 2a, et lire un 1 mène à celle de 2a + 1. Si l’état courant représente la
congruence modulo 2 du nombre obtenu en gardant seulement les k premiers bits du ruban, on sait dans quel état
passer à la lecture du (k + 1)-ème. Dans tous les cas, on déplace la tête de lecture d’un cran vers la droite. Le lecteur
vérifiera qu’en commençant à l’état 0, la lecture successive des bits du ruban de la figure 2 fait passer successivement
par les états 1, 2, 2, 1, 2, 2, 2, 1, 0, 0. Lorsqu’on atteint la première case vide, il suffit de remplacer le symbole « Vide »
par « V » ou « F » suivant si l’on se trouve dans l’état 0 ou non, et de passer en état final. Ici, on écrirait « V » car
on est dans l’état 0. Le nombre écrit sur le ruban est en fait 666 en binaire, qui est bien divisible par 3.
Dans l’exemple précédent, on a fait essentiellement de la lecture, mais on peut aussi calculer : pour additionner 1
au nombre naturel écrit en binaire sur le ruban (toujours avec la convention que les bits de poids forts sont au début),
il suffit de se déplacer jusqu’à la fin du mot, (caractérisé par une case vide), revenir d’un cran à gauche, et de remplacer
ensuite les 1 par des 0 en se déplaçant vers la gauche, jusqu’à retomber sur un 0 ou une case vide, qu’on transforme
en 1, voir figure 3.
Figure 3 – Une machine de Turing permettant d’additionner 1 au nombre écrit sur le ruban
Attention, la « machine de Turing » reste un objet théorique. Cette machine est idéalisée car le ruban est supposé
toujours suffisamment long pour permettre le calcul (il est donc virtuellement infini, même si une machine exécutant
un calcul qui termine n’utilisera qu’une partie finie du ruban). Avec ce formalisme, un algorithme est simplement une
machine de Turing particulière 1 .
1. Voir par exemple la page Wikipédia pour une présentation plus complète : https://fr.wikipedia.org/wiki/Machine_de_Turing
Une machine de Turing est essentiellement décrite par ses états possibles et sa fonction de transition. Comme le
nombre d’états est fini, la description d’une machine de Turing est elle aussi finie, et peut elle même être encodée en
binaire (ou avec un alphabet fini quelconque), et écrite sur un ruban. Turing montre qu’il existe (mathématiquement)
une machine de Turing universelle : elle est capable de prendre sur un ruban la description de n’importe quelle
machine de Turing et de simuler son exécution sur toute entrée placée à la suite sur le ruban. Un ordinateur est donc
la réalisation concrète d’une telle machine de Turing universelle : il est capable d’exécuter un algorithme pour peu
qu’il soit traduit dans un langage de programmation idoine.
Nos ordinateurs sont en fait un peu plus complexes afin d’être plus efficaces : se déplacer de case en case étant
source d’inefficacité, il vaut mieux permettre de sauter d’une case à une autre case grâce à une adresse (et donc
numéroter les cases du ruban). Actuellement, on parle plutôt de mémoire que de ruban, mais du point de vue de la
calculabilité cela ne change rien.
Figure 4 – L’ENIAC
La première réalisation concrète d’une machine de Turing date de 1941, c’est le Z3 allemand, qui est électroméca-
nique. La première réalisation entièrement électronique est l’ENIAC, qui date de 1943. L’ensemble fut conçu par John
William Mauchly et John Eckert et ne fut pleinement opérationnel qu’en 1946. Von Neumann intégra l’équipe en 1944
et publia un rapport sur la conception de l’EDVAC (un autre ordinateur électronique) en 1945.
Ce rapport décrit un schéma d’architecture de calculateur, organisé en trois éléments (unité arithmétique, unité de
commande et mémoire contenant programme et données). Il décrit aussi des principes de réalisation pour ces éléments,
notamment les opérations arithmétiques. Si ce dernier aspect dépend partiellement de la technologie de l’époque (et a
donc vieilli), le modèle d’architecture, qui marque une transition profonde avec les pratiques antérieures, reste d’une
étonnante actualité. Ce modèle, auquel reste attaché le nom de Von Neumann, est représenté par le schéma de la
figure 5. Il y a schématiquement quatre composants principaux :
— le processeur : qui se décompose en une unité de commande et une unité arithmétique et logique ;
— la mémoire : qui contient des instructions et des données ;
— les périphériques d’entrée-sortie : qui permettent une communication entre l’utilisateur et les machines (via
clavier, souris, écran,...) ;
— le bus : qui est le canal de communication entre la mémoire, le processeur et les périphériques.
La première innovation est la séparation nette entre l’unité de commande, qui est chargée d’organiser le flot des
instructions, et l’unité arithmétique, chargée de l’exécution proprement dite de ces instructions. La seconde innovation
est l’idée du programme enregistré : fini les rubans, cartes à trous... Les instructions et les données sont maintenant
enregistrées dans la mémoire 2 selon un codage conventionnel. Un compteur ordinal ou pointeur d’instruction (program
counter en anglais), contient l’adresse de l’instruction en cours d’exécution ; il est automatiquement incrémenté après
exécution de l’instruction, et explicitement modifié par les instructions de branchement (if, goto, jump...).
Figure 6 – Le circuit (sous forme de portes logiques) d’une unité arithmétique et logique sur des mots de 2 bits
L’unité de contrôle accède à la mémoire via le bus, et peut lire une case mémoire ou y écrire. Cependant cette
unité ne contient pas le programme à exécuter : les instructions à exécuter sont codées sous la forme d’une suite de
bits stockée en mémoire. Toutes les instructions sont réalisées dans l’ordre, mais les instructions de saut modifient cet
ordre.
2. À titre indicatif, la capacité de la mémoire de l’EDVAC était inférieure à 5 ko.
— une instruction de saut conditionnel modifie cet ordre si une certaine condition est vérifiée.
— une instruction de saut inconditionnel modifie cet ordre sans condition.
Les instructions for et while (qui n’existent pas en langage machine), peuvent être traduites par plusieurs ins-
tructions de saut conditionnelles et inconditionnelles.
La mémoire. La mémoire est une suite de chiffes binaires nommés bits, organisés en paquets de huit (les octets)
puis en mots mémoire de 64 bits 3 . Un mot en mémoire peut représenter plusieurs choses : une instruction, un entier...
La signification du mot dépend de l’utilisation qu’on en fait. La mémoire ne sert qu’à stocker ces mots, elle ne réalise
aucune opération et n’effectue aucun calcul. Chaque mot possède une adresse, avec cette adresse on peut lire un mot
ou alors écrire un autre mot à la place. Cette adresse est attribuée de manière aléatoire, d’où le nom de Random access
memory (RAM).
Les périphériques. De manière formelle il s’agit de mémoire supplémentaire dans laquelle le processeur peut écrire
pour donner des ordres au périphérique (afficher telle couleur sur tel pixel de l’écran) ou lire (réagir à telle touche
tapée sur un clavier).
— la mémoire morte : la RAM nécessite un apport constant d’énergie pour fonctionner, une simple coupure de
courant peut mettre en péril tous les calculs et programmes réalisés ; on sait de nos jours construire des mémoires
non volatiles permettant un accès en lecture mais pas en écriture (Read Only Memory ou ROM ) ; elles sont
utilisées pour stocker un programme particulier servant au démarrage de la machine (firmware ou BIOS ) ; cette
mémoire ne permet pas de stocker les données utilisateurs ;
— la mémoire de masse : pour stocker ces données utilisateurs on utilise de nos jours des disques durs (pour les
ordinateurs) ou une mémoire flash (pour les smartphones).
De plus, certains périphériques peuvent accéder directement à la mémoire sans passer par le processeur, on parle
alors de Direct Memory Access ou DMA, et certains calculs d’affichage sont laissés à un processeur spécialisé possédant
une mémoire vive importante présent sur la carte graphique. Les ordinateurs comportent maintenant des processeurs
multiples, qu’il s’agisse d’unités séparées ou de « cœurs »multiples à l’intérieur d’une même puce. Cela permet d’obtenir
une puissance de calcul plus élevée sans augmenter la puissance d’un processeur individuel qui est limitée par les
capacités d’évacuation de la chaleur dans des circuits de plus en plus denses.
Fréquence du micro-processeur. Aujourd’hui, les processeurs ont une fréquence de l’ordre de quelques GHz. On
peut garder comme ordre de grandeur qu’un processeur est capable de réaliser environ 109 opérations élémentaires
par seconde. Pour estimer le temps de calcul d’un programme écrit dans un langage de programmation de haut
niveau (comme Python), il est nécessaire de réduire ce nombre : on peut considérer qu’en pratique 107 opérations
« élémentaires » (opérations arithmétiques sur des petits entiers, modification ou accès à un élément d’une liste...)
sont réalisables par seconde.
Mémoire vive. La mémoire vive (RAM) est en quantité de l’ordre du Go (giga-octet) dans un ordinateur actuel.
Si, pour réaliser un calcul, un programme nécessite plus de ressources mémoire que la quantité de RAM disponible, on
assiste à un phénomène de « swap » : on est obligé d’utiliser également le disque dur, d’accès considérablement plus
long.
Mémoire de masse. La mémoire de masse est celle du disque dur : elle est peu rapide mais permet un grand
stockage de données. La capacité d’un disque dur grand public est de l’ordre du To (tera-octet).
Exemple. Considérons le problème de résolution d’un système linéaire (à coefficients flottants codés sur 64 bits) sur
un ordinateur standard. L’algorithme du pivot de Gauss est en O(n3 ) pour la résolution, le stockage de la matrice
nécessite une mémoire de taille O(n2 ) (comme on stocke des flottants 64 bits, il faut compter en fait 8 octets par
coefficients). Ainsi :
— On va dépasser la taille de la RAM pour des matrices de taille n × n avec n de l’ordre de 30000 (on a pris ici
une RAM d’un giga-octet).
— L’algorithme du pivot de Gauss, codé en Python, exécuté sur une matrice de taille 10000×10000, mettra plusieurs
heures pour s’exécuter (en comptant 107 opérations « Python » par seconde et une complexité exactement n3 ,
l’estimation donne 28 heures).
Il existe actuellement beaucoup de systèmes d’exploitations différents mais tous sont issus d’une des deux grandes
familles de systèmes d’exploitation :
0.2.1 Le multitâche
Nous avons vu précédemment qu’un des défauts de l’architecture de Von Neumann est que la machine ainsi réalisée
est monotâche. Le système d’exploitation permet de s’affranchir en apparence de cette limite et d’avoir ainsi plusieurs
programmes qui s’exécutent en même temps. Pour cela le système d’exploitation stocke en mémoire les différentes
instructions à exécuter.
Il lance une première instruction et dès qu’une entrée-sortie se produit ou qu’un certain temps par défaut (de
l’ordre de 100 ms) s’est écoulé, le système d’exploitation lance une autre instruction.
Imaginons qu’un utilisateur code en Python tout en écoutant de la musique. Le système d’exploitation commence
par exécuter le programme de lecture audio et envoie quelques secondes de son sur le périphérique dédié. Le temps
que ces quelques secondes soient passées, le système d’exploitation se met en attente. Au cours de cette attente une
lettre est tapée au clavier, le système d’exploitation exécute alors le programme de développement Python (Spyder par
exemple) et une lettre est affichée à l’écran. Le système d’exploitation repasse alors en attente, puis le périphérique
son indique que les quelques secondes de musique ont été jouées. Le système d’exploitation exécute de nouveau le
programme de lecture audio...
— shell graphique : sur les ordinateurs personnels, un shell graphique se présente sous forme d’une interface gra-
phique, permettant de lancer les programmes que l’utilisateur veut exécuter, par clic ou double-clic ;
— shell textuel (interprète de commandes) : ce type de shell interactif se présente sous la forme d’une ligne de
commande. L’utilisateur tape une commande sous la forme d’une ligne de texte qui est ensuite exécutée, puis le
shell rend la main à l’utilisateur.
Par exemple, pour ouvrir un fichier fichier.ods avec Libre Office, on peut avec le shell graphique cliquer dessus
(l’extension .ods indique au système que le fichier est à ouvrir avec Libre Office), ou encore taper la ligne de commande
loffice fichier.ods.
Les shells textuels n’ont pas disparu : sur tous les systèmes Unix, il existe des émulateurs de terminaux qui
permettent d’utiliser ces shells textuels. Leur usage demande un apprentissage des commandes mais pour un adminis-
trateur système c’est un outil indispensable pour faire exécuter des tâches à un ordinateur. Sur la figure 8, l’utilisateur
(moi) crée un nouveau répertoire dossier_exemple, puis s’y déplace. La commande ls permet de lister le contenu
d’un répertoire. On peut créer un fichier avec touch, ou écrire dans un fichier avec echo et >. La commande cat
permet d’afficher le contenu, la commande du (disk usage) donne la taille de tous les fichiers du répertoire courant
(en kilo-octets par défaut. Ici, il n’y a qu’un petit fichier !). La commande pwd (print working directory) indique le
répertoire courant.
Ces actions peuvent facilement être obtenues à la souris, avec un shell graphique. C’est beaucoup moins facile 5
avec la commande de la figure 9.
5. complètement impossible à ma connaissance, en fait.
Figure 9 – Une commande complexe en bash (shell linux) : le nombre de fichiers Python sur mon système contenant
la chaîne de caractères « matplotlib » est 1143.
— ls -l nous donne la liste (détaillée) des fichiers présents dans le répertoire courant et des informations. Ici il n’y
a qu’un fichier, qui m’appartient, et les droits sont marqués à gauche, sous la forme -rw-rw-r--. Concentrons
nous sur les deuxième, troisième et quatrième signes : le propriétaire du fichier à les droits en lecture (r comme
read) et en écriture (w comme write). On retrouve trois autres tels paquets de lettres, pour des groupes. Le
dernier paquet indique que les autres utilisateurs ont seulement un accès en lecture :
— echo "truc" >> fichier écrit à la suite d’un fichier, comme on le vérifie avec cat qui lit le fichier ;
— chmod -r fichier enlève les droits en lecture : cat n’est plus autorisée. On vérifie avec ls -l que le droit en
lecture (r) n’est plus présent ;
— On peut toujours écrire dans le fichier ;
— chmod +r fichier remet les droits en lecture : cat fonctionne à nouveau !
On peut écrire des fichiers que l’on peut exécuter, il faut également gérer les droits d’exécution. Montrons comment
écrire un programme autonome en Python (qu’on peut exécuter directement dans le shell). Un exemple simple est le
suivant :
#!/usr/bin/python3
print("Hello World !")
Seule la première ligne diffère par rapport aux scripts Python habituels : il spécifie la localisation du programme qui va
pouvoir comprendre le fichier. Ici, il s’agit de Python3. Sur mon système, il est accessible dans le répertoire /usr/bin/.
Voyons la gestion des droits d’accès sur la figure 11.
On vérifie qu’initialement, le fichier exemple_script.py a les mêmes droits que fichier : on ne peut pas l’exécuter.
La commande chmod +x le rend exécutable : on voit des x dans les droits, et d’ailleurs il apparaît en vert dans
l’arborescence. L’exécution nous gratifie du tant attendu « Hello World ! ».
Évidemment, sur un système de fichiers quelconque, seul celui ayant les droits d’administraeur peut gérer les droits
sur tous les fichiers du système.
Python est un langage de haut niveau, c’est-à-dire un langage de programmation orienté vers les problèmes à
résoudre, permettant d’écrire facilement des programmes à l’aide de mots usuels (en anglais) et de symboles mathéma-
tiques. A contrario, un langage de bas niveau se rapproche du langage machine (dit binaire) et permet de programmer
à un niveau très avancé, ce qui induit des temps de calculs réduits pour un problème donné par rapport à un langage
de haut niveau. La contrepartie dans l’utilisation d’un langage de bas niveau est la longueur du code qui est en général
bien plus importante.
C’est un langage de programmation impérative (boucles, tests conditionnels), orientée objets (hors programme
en classes préparatoires), permettant aussi l’utilisation de la programmation fonctionnelle. Il est mutli-plateformes,
c’est-à-dire qu’il peut être utilisé dans des environnements Unix, Mac-Os ou Windows, ou encore Android et iOS.
Pour travailler en Python, il suffit d’écrire de simples fichiers textes (voir section précédente) et de les interpréter.
Cependant, on utilise souvent un environnement de développement pour faciliter la programmation. Au lycée, on
utilisera au choix Pyzo, Spyder ou Idle.
À titre personnel, j’utilise Emacs, qui me permet aussi de rédiger le document que vous avez sous les yeux. Je ne
vous le conseille pas car il est un peu compliqué à prendre en main, à moins que vous vouliez vous orienter vers une
carrière d’informaticien.
Chapitre 1
Programmation en Python
Ce chapitre présente de manière détaillée les bases de la programmation Python. Il présente tout ce qui est au
programme (et un peu plus), à l’exception des modules usuels, qui feront l’objet d’un chapitre à part. La version de
Python utilisée est Python 3 (toutes les versions 3.x) : attention si dans votre système c’est une version 2.x qui est
installée, il y a quelques différences.
>>> 1+4
5
>>> 2.1+7
9.1
>>> 5/2
2.5
>>> 5//2*4.5
9.0
Les valeurs possèdent ce qu’on appelle un type : par exemple entier, flottant, booléen, chaîne de caractères, liste,
fonction... Le type détermine les propriétés formelles de la valeur (par exemple, les opérations qu’elle peut subir) et
matérielles (par exemple, la façon dont elle est représentée en mémoire et la place qu’elle occupe).
Pour connaître le type d’une expression après évaluation, il suffit de le demander à Python à l’aide de type :
>>> type(1+4)
<class 'int'>
>>> type(2.1+7)
<class 'float'>
>>> type(5/2)
<class 'float'>
>>> type("blabla")
<class 'str'>
>>> type(4<7)
<class 'bool'>
>>> type([0,1,2])
<class 'list'>
On retrouve ici des types simples : entier (int), flottant (float) et booléen (bool). Chacun de ces types va faire l’objet
d’un traitement particulier dans ce qui suit, de même que les types plus compliqués (chaînes de caractères, listes...)
un peu plus tard. On ne se préoccupera pas du mot clef class qui fait référence au caractère orienté objet du langage
Python.
Comme dans la plupart des langages de programmation, une expression en Python est soit :
— une constante comme 2 ou 3.5 ;
— un nom de variable comme x, i, ou compteur ;
1.1.2 Entiers
Constantes. Il n’y a pas grand chose à dire sur les entiers. On soulignera simplement qu’en Python, les entiers sont
non bornés et permettent donc de faire des calculs exacts, avec des entiers gigantesques.
Opérateurs. Les opérateurs sur les entiers sont précisés dans la liste ci-dessous :
opérateur + - * // % **
signification addition soustraction multiplication division entière modulo exponentiation
On notera bien que // produit une division entière 1 (quotient dans la division euclidienne). On ne peut pas évaluer
a//b si b est nul, et on fera attention si b est négatif ; en effet le comportement est un peu différent de la définition
vue en cours de mathématiques.
Règles de priorités. Certains opérateurs sont évalués avant les autres, dans l’ordre de priorité suivant :
1. Exponentiation.
2. Modulo.
3. Multiplication et division entières.
4. Addition et soustraction.
Sur les opérateurs de même priorité, c’est celui qui est le plus à gauche qui est évalué en premier 2 . Les parenthèses
permettent de changer ces priorités.
>>> 2+25%3*2**4
18
>>> (2+25%(3*2))**4
81
Autres bases. Ce paragraphe peut être ignoré en première lecture, il reprend les idées développées dans le chapitre
sur la représentation des nombres. Par défaut, la base utilisée est la base 10 (celle que l’on utilise tous les jours !). Il
est possible d’exprimer un entier dans les bases classiques en informatique : la base 2 (binaire), la base 8 (moins utile
aujourd’hui) et la base 16 (hexadécimal). Pour cela, on fait précéder la représentation du nombre dans ces bases du
préfixe 0b (binaire), 0o (octal) ou 0x (hexadécimal 3 ).
Inversement, on obtient la représentation en binaire, octal ou hexadécimal sous la forme d’une chaîne de caractères
(voir la suite) à l’aide des fonctions bin, oct et hex.
1. En Python 2, / utilisé sur des entiers donne le quotient dans la division euclidienne.
2
2. Une exception notable est l’exponentiation, cohérente avec l’usage en mathématiques. Par exemple 23 = 29 = 512 est ce qu’on
obtient avec 2**3**2 en Python, alors qu’on devrait obtenir 64 si la première exponentiation était évaluée en premier.
3. En hexadécimal, on a besoin de 15 chiffres pour les entiers de 0 à 15. On utilise les lettres de a à f pour les chiffres de 10 à 15. On a
bien 171 = 10 × 16 + 11 ou encore (exemple suivant) 200 = 12 × 16 + 8.
>>> bin(200)
'0b11001000'
>>> oct(200)
'0o310'
>>> hex(200)
'0xc8'
1.1.3 Flottants
Constantes. Les flottants sont représentés en mémoire sur 32 ou 64 bits suivant le système (plutôt 64 de nos
jours). Sur 64 bits, on a 1 bit de signe, 11 bits d’exposant et 52 bits de mantisse (voir le cours sur la représentation des
nombres). On tiendra compte du fait que seul un nombre fini de réels sont représentables en mémoire, ce qui ne permet
pas de faire des calculs exacts. En particulier, le plus petit nombre strictement positif représentable exactement en
flottant sur 64 bits est 2−1074 et le plus grand est légèrement inférieur à 21024 .
Opérateurs. Les opérateurs sur les flottants sont précisés dans la liste ci-dessous (on s’en servira rarement, mais on
peut également utiliser le modulo...) :
opérateur + - * / **
signification addition soustraction multiplication division exponentiation
Règles de priorités. De même que sur les entiers, certains opérateurs sont évalués avant les autres, dans l’ordre
de priorité suivant :
1. Exponentiation.
2. Multiplication et division.
3. Addition et soustraction.
Comme pour les entiers, les opérateurs de même priorité sont évalués de gauche à droite, et les parenthèses
permettent de changer ces priorités.
Conversion automatique. On remarque que la plupart des opérateurs sur les entiers et flottants sont les mêmes.
Lorsque l’on utilise l’un de ces opérateurs avec des entiers et des flottants, les entiers sont automatiquement convertis
en flottants (on pourrait forcer la conversion de l’entier n en flottant avec float(n)). C’est le cas également pour la
division flottante 4 utilisée avec des entiers.
>>> 4*3.1
12.4
>>> 3/4
0.75
1.1.4 Booléens
Constantes. Les booléens sont essentiels en informatique. Ce type comprend uniquement deux constantes : True et
False (Vrai et Faux) 5 . Ils sont principalement utilisés dans les structures de contrôle (voir section 1.3).
Opérateurs. Les opérateurs sur les booléens sont au nombre de trois. L’un (not) est un opérateur unaire (ne prenant
qu’un opérande), les deux autres (and et or) sont des opérateurs binaires (nécessitant deux opérandes). la liste suivante
présente les différents opérateurs booléens et leurs tables de vérité.
a b not a a or b a and b
False False False False
True
False True True False
True False True False
False
True True True True
Ce tableau est intuitif : not correspond à la négation. Pour que a and b soit vrai, il faut que a et b le soient tous
les deux. Pour que a or b soit vrai, il suffit que l’un des deux le soit. Attention : le « ou » français peut parfois avoir
le sens d’un ou exclusif, comme dans « fromage ou dessert ». Le or en informatique est toujours inclusif (si a et b sont
vrais, alors a or b aussi).
4. Attention encore, si vous travaillez en Python 2, vous obtiendez une division entière avec une simple barre /
5. Et pas "True" ou encore false !
Règles de priorité. L’ordre de priorité d’évaluation pour les opérations booléennes est le suivant :
1. not.
2. and.
3. or.
De même que pour les entiers et les flottants, on évalue ensuite de gauche à droite les opérateurs de même priorité,
et on peut user de parenthèses.
Opérateurs de comparaisons et booléens. On utilise rarement des booléens tels quels. Leur intérêt réside
dans les structures de contrôle conditionnelles que l’on verra en section 1.3. Ces structures font beaucoup usage de
l’évaluation d’expressions produisant des booléens, parmi lesquelles on trouve les opérations de comparaisons sur les
entiers/flottants :
Pour les évaluations des opérateurs binaires, les deux opérandes des opérateurs de comparaisons sont amenés à un
type commun avant l’évaluation de la comparaison (flottant dans le cas d’entier et flottant).
La priorité des opérateurs de comparaison est inférieure à celle des opérateurs arithmétiques : ainsi, l’expression
a==b+c signifie a==(b+c), ce qui est assez logique.
On peut également, comme sur beaucoup d’objets Python, utiliser les opérateurs == et != pour l’égalité et la
différence de booléens. Notons que si x est un booléen, il est parfaitement inutile d’écrire quelque chose comme
x==True : ce booléen est égal à x. De même, on préférera écrire not x que x==False.
Caractères paresseux des opérateurs and et or. On notera que dans une expression de la forme a and b, où a
et b sont des expressions, si a s’évalue en False, on n’a pas besoin d’évaluer b pour s’apercevoir que a and b s’évalue
en False. De même avec a or b si a s’évalue en True. Python respecte cette logique : si la partie gauche suffit à
déterminer si l’expression s’évalue en True ou False, il n’évalue pas la partie droite (on parle du caractère paresseux
des opérateurs).
C’est particulièrement utile lors de l’évaluation d’une expression dont la seconde partie pourrait produire une
erreur, mais dont la première sert de garde-fou : x>0 and log(x)>2 ne produit pas d’erreur, même si x est un nombre
négatif. En effet, dans ce cas x>0 s’évalue en False et on n’a pas besoin d’évaluer log(x)>2 qui produirait une erreur,
le log n’étant pas défini sur les nombres négatifs.
Raccourcis. Plutôt que d’écrire a<=b and b<=c, Python comprend très bien a<=b<=c. On n’abusera cependant pas
de ces raccourcis, pour écrire des choses illisibles comme a<b>=c.
1.2 Variables
1.2.1 Identificateurs
Un identificateur est une suite de lettres et chiffres, qui commence par une lettre, et qui n’est pas un mot réservé
du langage. Les mots réservés du langage Python sont par exemple if, else, def, return, True... Le caractère _
(underscore, ou « tiret du 8 ») est considéré comme une lettre. Ainsi, i, j, x, x2, compteur et taille_de_la_liste
sont des identificateurs corrects, contrairement à 4a, x{}, if ou encore taille de la liste. Les majuscules et
minuscules ne sont pas équivalents : x et X sont des identificateurs distincts. Même si les accents sont autorisés, on
veillera à ne pas en mettre dans les identificateurs pour ne pas faire dépendre la bonne exécution d’un programme de
l’encodage des caractères.
1.2.2 Variables
Une variable est constituée de l’association d’un identificateur à une valeur. Cette association est créée lors de
l’affectation, qui s’écrit sous la forme variable = expression. Attention : il ne faut pas confondre = (affectation)
avec == (test d’égalité). Le mécanisme de l’affectation est le suivant : l’expression à droite du signe égal est évaluée, puis
le résultat de l’évaluation est affecté à la variable. Cela n’a donc rien à voir avec le signe = des mathématiques. À la
suite d’une telle affectation, chaque apparition de la variable ailleurs que dans la partie gauche d’une autre affectation
représente la valeur en question. Cette association entre la variable et la valeur est valable tant qu’il n’y a pas de
nouvelle affectation avec cette même variable.
Dans la suite, on confondra allègrement l’identificateur, la variable (l’association de l’identificateur à une valeur)
et la valeur elle-même. Si un identificateur n’a pas été affecté (en toute rigueur il n’est donc pas un nom de variable)
son emploi ailleurs que dans le membre gauche d’une affectation est illégale et provoque une erreur. Par exemple :
>>> print(variable_inconnue)
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
NameError: name 'variable_inconnue' is not defined
Seul un identificateur correct peut figurer dans le membre gauche d’une affectation. Une syntaxe de la forme x+1=y
n’a aucun sens :
>>> y=5
>>> x+1=y
File "<stdin>", line 1
SyntaxError: can't assign to operator
L’erreur est explicite : on ne peut pas affecter à l’opérateur +. Un mécanisme qui sert souvent en informatique est
l’incrémentation d’une variable : on lui rajoute un certain nombre, souvent 1.
>>> x=4
>>> x=x+1 # le signe = n'a rien à voir avec celui des mathématiques !
>>> print(x)
5
Il y a un raccourci en Python pour cette opération : x+=1. On peut de même écrire x-=2 ou encore x/=3.
Enfin, lors de l’affectation x=y, la variable x prend la valeur de celle de y (l’évaluation de l’expression y donne
simplement la valeur stockée dans la variable y), mais x et y ne sont pas « liées » pour autant :
>>> y=2
>>> x=y
>>> y=5
>>> print(x)
2
L’indentation standard est de quatre espaces, ou une tabulation. Les éditeurs intelligents remplacent automatique-
ment une tabulation par quatre espaces.
Le point-virgule. Pour éviter de revenir à la ligne systématiquement entre deux instructions, on peut séparer les
instructions par des points virgules, par exemple a=2 ; b=4, qui réalise successivement l’affectation de a puis celle
de b.
if expression:
[instructions effectuées si expression s'évalue en True]
elif autre_expression:
[instructions effectuées si expression s'évalue en False et autre_expression en True]
else:
[instructions effectuées si expression et autre_expression s'évaluent en False]
Les expressions utilisées sont des expressions booléennes : leur évaluation doit produire un booléen : True ou False.
De telles expressions sont par exemple a>=4, ou bien not a==0 and b>=2 (a est non nul et b est supérieur ou égal à
2).
Dans une telle structure conditionnelle, les expressions booléennes sont évaluées les unes après les autres, de haut
en bas, jusqu’à ce que l’une d’entre elles s’évalue en True. Le bloc d’instructions correspondant (et seulement celui-ci)
est alors exécuté, puis on sort de la structure conditionnelle. Le bloc correspondant au else est exécuté seulement si
toutes les expressions conditionnelles situées au dessus se sont évaluées en False. Il est possible de mettre plusieurs
elif :
Voici un exemple, avec note une variable supposée contenir un flottant entre 0 et 20.
if note>=16:
print("Mention Très bien")
elif note>=14:
print("Mention Bien")
elif note>=12:
print("Mention Assez bien")
elif note>=10:
print("Mention Passable")
else:
print("Raté !")
Même si note contient un flottant supérieur à 16, on n’affichera à l’écran (effet de la fonction print) qu’une seule
ligne : la première telle que la condition note>=... soit réalisée, ou « Raté ! » si note est strictement inférieure à 10.
elif et else peuvent tous deux être omis. Dans une telle suite d’instructions au plus une (et exactement une si
else est présent) est exécutée : la première telle que l’expression booléenne associée s’évalue en True. Par exemple,
dans la séquence suivante, x est incrémenté de 1 s’il est supérieur ou égal à 2, et divisé par 2 s’il est strictement
inférieur à 0.
if x<0:
x=x/2
elif x>=2:
x+=1
Si x appartient à l’intervalle [0, 2[, il est inchangé. Il est parfaitement inutile 6 d’écrire quelque chose comme x=x dans
un bloc else.
Prenons un exemple complet un peu plus complexe, la résolution d’une équation polynômiale de degré 2 sur les réels,
en supposant que les variables a, b et c contiennent des flottants, avec a non nul.
Delta=b**2-4*a*c
if Delta<0:
print("Pas de racines !")
elif Delta>0:
r=sqrt(Delta)
x1=(-b-r)/(2*a)
x2=(-b+r)/(2*a)
print("Il y a deux racines distinctes, qui sont: ",x1,"et",x2)
else:
print("Il y a une racine double, qui est: ",-b/(2*a))
On laisse le lecteur se reporter au chapitre sur la représentation des nombres pour la pertinence de l’algorithme lorsque
le discriminant est calculé comme étant zéro.
Écriture en ligne. Il n’est en fait pas obligatoire de faire un saut de ligne après un if, elif ou else, en particulier
s’il n’y a qu’une instruction à écrire. Cela est valable également pour les boucles et les fonctions (voir la suite). Par
exemple le code suivant est équivalent à celui vu plus haut :
if note>=16: print("Mention Très bien")
elif note>=14: print("Mention Bien")
elif note>=12: print("Mention Assez bien")
elif note>=10: print("Mention Passable")
else: print("Raté !")
Personnellement, je trouve cela moins clair qu’avec des sauts de ligne, mais on le voit parfois dans les sujets de concours,
vous êtes prévenus !
Le mécanisme est le suivant : on évalue expression. Si le résultat est True, on effectue toutes les instructions du
bloc indenté, puis on recommence l’évaluation de expression. Sinon, on passe aux instructions situées après la boucle.
Par exemple, la séquence :
i=0
while i<10:
print(i)
i+=1 #un raccourci pour i=i+1
print("fini !")
affiche à l’écran tous les nombres entre 0 et 9, puis « fini ! ». En effet, lorsque i atteint 9, on l’affiche à l’écran, puis on
incrémente i (qui vaut 10 en bas de la boucle). On réévalue ensuite la condition, mais 10<10 s’évalue en False, donc
on sort de la boucle, et on affiche « fini ! » qui est une expression en dehors du corps de la boucle.
Notez bien que l’expression est évaluée uniquement en haut de la boucle : si elle s’évalue en True, on effectue toutes
les instructions du corps de boucle, et on réitère l’évaluation. La boucle suivante affiche les entiers de 1 à 10, puis
« fini ! ».
6. On le voit souvent dans les copies de concours...
i=0
while i<10:
i+=1
print(i)
print("fini !")
Il se peut très bien qu’à la première évaluation de l’expression, celle-ci soit False : dans ce cas on n’effectue jamais
le corps de boucle :
i=-1
while i>=0:
print("on n'affichera jamais ça.")
Enfin, on fera attention avec les boucles while, si on s’y prend mal, on crée un morceau de code qui boucle sans
fin :
while True: #l'expression s'évalue en True !
print("ce texte sera affiché, encore et encore !")
x=0.1
while x!=1:
x=x+0.1
On verra dans le chapitre sur la représentation des nombres qu’en arithmétique flottante, additionner 10 fois 0.1 ne
fait pas tout à fait 1 (le résultat est évidemment très proche, mais ne vaut pas exactement 1).
i=0
while i<=100:
[instructions]
i=i+1
Il est intéressant de raccourcir cette écriture, pour ne pas avoir à initialiser manuellement i ou écrire l’incrémentation
i+=1, limiter les erreurs possibles et rendre le code plus lisible. On utilise alors une boucle inconditionnelle (i prend
toutes les valeurs entières de 0 à 100 sans condition) : la boucle for.
Dans certains langages de programmation, celle-ci ne diffère conceptuellement pas d’une boucle while et est traduite
ainsi au moment de la compilation du programme. Par exemple en C, qui est un langage très populaire :
Une boucle for, en langage C Traduction à la compilation
i=0 ;
for (i=0; i<=100; i++) { while (i<=100) {
[instructions] [instructions]
} i++ ;
}
L’itérable est quelque chose que l’on peut itérer : en gros, c’est quelque chose qui fournit une séquence de valeurs.
La syntaxe for element in iterable signifie que la variable element doit prendre successivement toutes les valeurs
que fournit l’itérable. Pour chacune de ces valeurs, on exécute les instructions du corps de boucle. Bien souvent, on
utilisera le constructeur range qui fournit des suites (finies) d’entiers. La syntaxe est la suivante, tous les paramètres
m, n et p intervenant sont des entiers :
— pour n ≥ 0, range(n) fournit tous les entiers de 0 inclus à n exclus (attention, on s’arête donc à n − 1 !)
— on peut décider de commencer à un autre entier que 0 en précisant un autre paramètre : pour m ≤ n, range(m,n)
fournit tous les entiers de m inclus à n exclus.
for i in range(0,m,2):
print(i)
affiche à l’écran successivement tous les entiers pairs entre 0 et m − 1 (la borne m est exclue). La boucle suivante
affiche tous les entiers de n − 1 à 0, (dans l’ordre décroissant) :
for i in range(n-1,-1,-1):
print(i)
Petit conseil : apprendre par cœur la syntaxe range(n-1,-1,-1), elle sert souvent. Donnons un exemple un peu plus
complet : le calcul de 10!
x=1
n=10
for i in range(1,n+1):
x*=i #un raccourci pour x=x*i
On peut vérifier que la variable x contient bien 10! = 3628800 à l’issue de cette boucle.
L’itérable peut également être une liste (dans ce cas element prend successivement toutes les valeurs de la liste), ou
une chaîne de caractères (dans ce cas, element prend successivement comme valeurs tous les caractères de la chaîne),
ou encore un tuple (n-uplet)... Ces types seront examinés en section 1.4.
Donnons un petit exemple, montrant que Python peut faire beaucoup de choses (l’exemple n’est pas à retenir). Le
module itertools permet de faire de la combinatoire. Considérons le triplet (1, 4, 7). On peut facilement produire
toutes les permutations possible du triplet avec la fonction permutations du module itertools :
(1, 4, 7)
(1, 7, 4)
(4, 1, 7)
(4, 7, 1)
(7, 1, 4)
(7, 4, 1)
u=0
while u<100:
print(u)
u+=1 #un raccourci pour u=u+1
if u==5:
break
continue
print(1/0)
Ce code ne produit pas d’erreur et n’affiche que 6 entiers : 0, 1, 2, 3, 4 et 5. Dans le corps de boucle, la partie
print(1/0) n’est jamais exécutée (ce qui produirait une erreur) puisqu’elle se trouve après le continue. Lorsque u
atteint 5, on rentre dans le if et on sort de la boucle avec break.
Dans le cas de boucles imbriquées, c’est seulement la boucle interne contenant break ou continue qui est concernée.
On évitera de faire un usage abusif de ces instructions qui peuvent rendre le code difficilement compréhensible, mais
on pourra y recourir avec parcimonie.
N=1000
for a in range(1,N):
for b in range(a,N):
c2=a*a+b*b
if c2>=N**2:
break
elif round(c2**0.5)**2==c2:
print(a,b,round(c2**0.5))
On√a en fait utilisé round qui permet d’arrondir à l’entier le plus proche 7 , et vérifié si le carré de l’entier le plus proche
de a2 + b2 était a2 + b2 lui même. 878 triplets sont affichés à l’écran.
Accès aux éléments. Pour L une liste, sa longueur (nombre d’éléments, length en anglais) est accessible avec
len(L). En notant n cette longueur, les éléments sont indexés par les entiers de 0 à n − 1. Exemples :
Si on demande l’accès à un caractère d’indice négatif i compris entre −1 et −n, où n est la longueur de la liste, celui-ci
est considéré comme étant n + i :
>>> L[len(L)]
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
IndexError: list index out of range
Modification d’un élément. Étant donnée une liste L, on peut modifier l’élément d’indice i de L en le remplaçant
par l’élément de son choix. La syntaxe est la même que pour une affectation.
>>> L=list(range(1,6))
>>> L
[1, 2, 3, 4, 5]
>>> L[2]=10
>>> L
[1, 2, 10, 4, 5]
Slicing (tranchage). On peut créer une nouvelle liste en extrayant certains éléments d’une liste. Pour extraire les
éléments d’indice entre d inclus et f ≥ d exclu, on utilise L[d:f] : la liste obtenue est donc composée des éléments
L[d], L[d+1],..., L[f-1]. L’un ou l’autre de ces deux indices peut être omis, et même les deux (dans ce cas, d vaut
0 et f vaut la longueur de la liste). Ce mécanisme est tolérant envers les indices trop grands ou trop petits (attention,
les indices négatifs entre −1 et −n sont interprétés comme précédemment), et si d ≥ f , on obtient la liste vide.
>>> L
[1, 2, 10, 4, 5]
>>> L[3:4]
[4]
>>> L[4:3]
[]
>>> L[:4]
[1, 2, 10, 4]
>>> L[:8]
[1, 2, 10, 4, 5]
On peut également spécifier un pas, positif ou négatif. L’interprétation est la même que pour les listes et l’itérateur
range, on ne précisera donc pas ici.
>>> L[::2]
[1, 10, 5]
Méthodes sur les listes. Python est un langage orienté objet. À chaque classe d’objets (comme les listes) peuvent
s’appliquer plusieurs méthodes, qui modifient l’objet ou renvoient certaines de ces caractéristiques. Au programme en
classes préparatoires, on trouve seulement append et pop, qui permettent d’ajouter ou d’enlever un élément en fin de
liste. La syntaxe générale de l’utilisation d’une méthode sur un objet est la suivante : objet.methode(parametres).
Le tableau suivant récapitule les principales méthodes sur les listes. Le but est de présenter ce qu’on peut faire en
Python, et de voir que ces opérations ne sont pas toutes triviales pour le processeur. La colonne complexité ne peut
être comprise qu’après le chapitre dédié 8 . On note n la longueur de la liste L.
méthode description complexité
L.append(x) Ajoute x à la fin de L. O(1) (amorti)
L.extend(T) Ajoute les éléments de T à la fin de L (équivalent à L+=T). O(len(T )) (amorti)
L.insert(i, x) Ajoute l’élément x en position i de L, en décalant les suivants vers O(n − i) (amorti)
la droite.
L.remove(x) Supprime de la liste la première occurrence de x si x est présent, O(n).
sinon produit une erreur.
L.pop() Supprime le dernier élément de L, et le renvoie. O(1)
L.pop(i) Supprime l’élément d’indice i de L, en décalant les suivants vers O(n − i)
la gauche. Cette méthode renvoie l’élément supprimé.
L.index(x) Retourne l’indice de la première occurrence de x dans L si x est O(n)
présent, produit une erreur sinon.
L.count(x) Retourne le nombre d’occurrences de x dans L. O(n)
L.sort() Trie la liste L dans l’ordre croissant (en place). O(n ln(n))
L.reverse() Renverse la liste (en place) O(n).
Attention, ces méthodes ne renvoient en général rien : elles modifient l’objet. C’est le cas pour append, qui permet
d’ajouter en fin de liste un nouvel élément. Pour ajouter x a la fin de L, on écrit simplement L.append(x), et non
pas L=L.append(x). En effet, L.append(x) est une expression dont l’évaluation produit None, c’est-à-dire rien. Écrire
L=L.append(x) reviendrait à affecter None à la variable L, ce qui n’est pas a priori ce qu’on veut faire ! Voir la
section 1.5 pour des précisions sur None.
Listes et références. Ce point est important. Vous ferez l’erreur un jour, mais vous vous douterez du problème si
vous avez bien compris ce paragraphe. Prenons tout de suite un exemple :
>>> T=[0,2,3]
>>> U=T
>>> T[0]=1
>>> T.append(4)
>>> print(U)
[1, 2, 3, 4]
Si on modifie T, on modifie U. Le comportement semble bien différent des variables ! Essayons autre chose :
>>> T=[0,2,3]
>>> U=T[:]
>>> T[0]=1
>>> T.append(4)
>>> print(U)
[0, 2, 3]
Le comportement est plus sympathique. Il faut savoir que lorsqu’on crée une liste, la variable utilisée est ce qu’on
appelle une référence (ou un pointeur) vers l’emplacement mémoire où est stockée la liste. L’instruction U=T du premier
exemple stocke dans la variable U la référence stockée dans T. Autrement dit, l’emplacement mémoire désigné par T et
U est le même ! Lorsqu’on effectue l’instruction T[0]=1, on va modifier directement la mémoire (de même avec append),
et il est logique que ce changement soit visible lorsqu’on tape print(U), puisque cette action va chercher en mémoire
ce qu’indique U.
Dans le deuxième exemple, l’instruction U=T[:] est différente : on crée une liste dont les éléments sont les mêmes
que ceux de T, mais ailleurs en mémoire. Autrement dit, les références T et U pointent vers des endroits différents en
mémoire, et donc si on modifie l’une, l’autre n’est pas modifié.
8. Ajoutons que la complexité amortie (hors programme) a le sens suivant : si on fait plein de fois la même opération (par exemple
ajouter un élément à la fin d’une liste), le temps d’exécution sera en moyenne celui donné (par exemple, temps constant pour append).
Liste de listes. On utilisera couramment des listes qui contiennent des listes, en particulier pour représenter des
matrices. L’accès aux éléments se fait de manière similaire :
Pour terminer, faisons une mise en garde supplémentaire, concernant encore les références :
>>> T=[[0,2],[3,4]]
>>> U=T[:]
>>> U[0][0]=1
>>> print(T)
[[1, 2], [3, 4]]
Ici, on a pris soin de recopier les éléments de T. Mais comme ces éléments sont des références vers [0,2] et [3,4], le
problème reste le même que précédemment puisque ces listes-là n’ont pas été recopiés. Il aurait fallu écrire :
U=[A[:] for A in T]
Mais si T avait été une liste de listes de listes, le problème se serait encore posé. Faisons deux remarques :
— premièrement, on manipulera rarement des listes de listes de listes ;
— deuxièmement, il existe un module copy dont la fonction deepcopy permet de copier « en profondeur » un objet.
1.4.2 Tuples
Présentation. Un tuple ressemble beaucoup à une liste, mais on ne peut ni modifier ses éléments, ni lui en ajouter
ou en enlever. La structure mathématique associée est celle de n-uplet. On parle de structure immuable (ou statique,
ou encore non mutable). En contrepartie de cette rigidité les tuples sont très compacts (ils occupent peu de mémoire)
et l’accès à leurs éléments est rapide.
Pour la syntaxe, on crée un tuple en écrivant ses éléments, séparés par des virgules et encadrés par des parenthèses.
S’il n’y a pas d’ambiguïté, les parenthèses peuvent être omises (en pratique, dès que le nombre d’éléments du tuple
est au moins 2). Un tuple constitué d’un seul élément a doit être écrit a, ou (a,). Le tuple sans élément se note ().
Opérations sur les tuples. Faisons une brève session Python de démonstration, pour vérifier que les opérations
sur les listes sont valables pour les tuples :
>>> t=4, True, 0.5 ; v=(6,) ; w=((7,8),) # w est un tuple dont le seul élément est un tuple
>>> t+v
(4, True, 0.5, 6)
>>> t[1:]
(True, 0.5)
>>> t+w
(4, True, 0.5, (7, 8))
>>> len(t+w)
4
Comme on le voit, un élément d’un tuple peut être un tuple à son tour. Attention, les tuples sont immuables : on ne
peut modifier un élément. L’erreur ci-dessous est très explicite.
>>> t[0]=3
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
TypeError: 'tuple' object does not support item assignment
Déconstruction d’un tuple. On peut déconstruire un tuple par affectation simultanée à un tuple de variables de
la même taille, pour réaliser une affectation simultanée :
>>> couple=(1,2)
>>> (x,y)=couple
>>> print(x) ; print(y)
1
2
Notez que les parenthèses autour du tuple de variables sont facultatives et qu’on pourrait (ce qu’on fait en pratique)
écrire x,y=couple. Si le tuple de variables n’est pas de la même taille que le tuple à déconstruire, on obtient une erreur :
>>> a,b,c=couple
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
ValueError: need more than 2 values to unpack
>>> triplet=1,2,3
>>> x,y=triplet
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
ValueError: too many values to unpack (expected 2)
L’erreur indique à chaque fois que le tuple à droite n’est pas de la bonne taille, vis-à-vis du tuple de variables.
On peut maintenant expliquer un comportement spécifique à Python mais fort pratique pour échanger les contenus
de deux variables :
a,b=b,a
De même que précédemment, on construit d’abord le tuple qui contient les valeurs de b et a qu’on déconstruit ensuite
pour affecter le contenu aux variables a et b.
Concaténation, accès à des caractères, slicing. Comme pour les tuples, on peut concaténer deux chaînes de
caractères à l’aide de + pour en produire une troisième, la longueur de la chaîne est donnée par len, et l’accès aux
caractères est similaire.
Attention, les chaînes de caractères sont immuables : une fois créées, on ne peut pas les modifier, ou leur rajouter
des éléments. Il faut créer une nouvelle chaîne qu’on peut éventuellement réaffecter à la même variable.
>>> a='rateau'
>>> a[0]='b'
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
TypeError: 'str' object does not support item assignment
>>> a='b'+a[1:]
>>> a
'bateau'
La table des caractères ASCII. Les 128 caractères de la table ASCII standard comprennent les lettres minuscules
et majuscules non accentuées, les chiffres de 0 à 9, à peu près tous les caractères d’un clavier QWERTY (pas de lettres
accentuées !), et des caractères d’espacement 9 . À chaque caractère est associé un code entre 0 et 127 (donc représentable
sur 7 bits). En Python, les fonctions ord et chr permettent de passer d’un caractère à son numéro et réciproquement.
>>> ord('a')
97
>>> chr(97+25)
'z'
>>> ord('0')
48
>>> chr(48+9)
'9'
>>> ord('A')
65
>>> chr(65+25)
'Z'
On notera que les lettres minuscules (respectivement les lettres majuscules, les chiffres) sont codés par des numéros
contigus, avec 'a' (respectivement 'A', '0') ayant le plus petit numéro. Aujourd’hui, l’ASCII a été remplacé par
l’UTF-8, qui l’inclut. Les fonctions ord et chr fonctionnent en fait avec d’autres caractères, non ASCII.
>>> ord('à')
224
>>> chr(201)
'É'
Quelques méthodes sur les chaînes de caractères. Comme les listes, les chaînes de caracactères possèdent leurs
propres méthodes, qui ne sont pas exigibles mais peuvent faire l’objet de questions aux concours si la documentation
est rappelée. On en donne quelques-unes ici, les deux premières seront celles qui nous serviront le plus. Comme les
chaînes de caractères sont immuables, les méthodes ne modifient jamais la chaîne mais renvoie un nouvel objet.
méthode description
s.split(c) sépare la chaîne s autour du caractère c. Le résultat est une liste
de chaînes de caractères. Par ex. "une petite chaine".split(" ") donne
["une", "petite", "chaine"].
s.join(L) l’inverse de l’opération précédente. Par ex. "-".join(["a", "bc"]) donne "a-bc".
s.count(c) compte le nombre d’occurences du caractère c dans s.
s.find(c) indique la première position du caractère c dans s, ou -1 s’il n’y est pas.
s.rjust(n) rajoute à la fin de s autant d’espaces que nécessaire pour atteindre n caractères. Avec
s.rjust(n,c), on remplit avec le caractère c. De même avec ljust pour remplir au
début (right/left).
s.replace(s1,s2) remplace toutes les apparitions de la chaîne s1 dans s par la chaîne s2.
Caractères particuliers. Si la chaîne doit contenir un des caractères ' ou " cela fournit un critère pour choisir l’une
ou l’autre manière de l’écrire : '"Oui", dit-il' ou "C'est exact". Une autre manière d’éviter les problèmes avec le
caractère d’encadrement consiste à l’inhiber par l’emploi de \, comme dans la chaîne 'Il ajouta: "c\'est exact !"'.
L’encadrement par de triples guillemets ou de triples apostrophes permet d’indiquer des chaînes qui s’étendent sur
plusieurs lignes, et peut servir à ne pas trop réfléchir si la chaîne doit contenir les caractères ' ou ".
L’affichage basique d’une telle chaîne montre bien que les fins de ligne, représentées par le signe \n, ont été conservées.
L’affichage à l’aide de la fonction print fournit le résultat attendu :
>>> a
'Cette chaîne s'étend\n sur\n \n plusieurs lignes. C'est "beau".'
>>> print(a)
Cette chaîne s'étend
sur
Notez aussi que \t sert à encoder les tabulations. Le backslash étant lui-même un caractère spécial, on le fera précéder
d’un autre backslash s’il doit figurer dans la chaîne. Par exemple :
Chaînes de caractères comme commentaires. Pour commenter son code, on peut utiliser le caractère dièse # :
tout ce qui suit sur la même ligne est ignoré. Lorsqu’on envoie une suite d’instructions de l’éditeur vers la console,
une chaîne de caractères sera perçue comme telle, mais seule elle n’a aucune incidence sur le reste du programme,
tout comme une expression quelconque comme 10 ou 2+3. On peut donc utiliser les triples quotes pour commenter
facilement un morceau de code s’étendant sur plusieurs lignes.
Conversion. "42" est une chaîne de caractères, pas un entier. Ainsi "42"+5 n’a aucun sens 10 . int, float, str,...
permettent de convertir un type en un autre.
1.5 Fonctions
Les fonctions sont d’une importance capitale en informatique, et plus prosaïquement quasiment toutes les questions
des sujets de concours demandent d’écrire ou d’examiner des fonctions.
1.5.1 Motivation
Pn k
Pn k
Pn
Imaginons que l’on veuille calculer k=0 2 , k=0 3 ,... C’est-à-dire des sommes de la forme xk , pour
k=0P
n k
plusieurs x et n. On veut donc calculer plusieurs valeurs de la fonction de plusieurs variables (x, n) 7→ k=0 x .
L’idéal serait de définir cette fonction, ce qu’on peut faire :
La structure générale d’une déclaration de fonction en Python se fait avec le mot-clef def de la façon suivante :
Déclaration d’une fonction
def nom_fonction(a_1,a_2,..,a_k): # nom_fonction: nom de la fonction, a_1,..,a_k : arguments
""" Description de l'action de la fonction """ # spécification de la fonction
instruction 1
instruction 2
....
instruction p
# ici, on est hors de la définition de la fonction.
— La première ligne def nom_fonction(a_1,...,a_k) est l’en-tête de la fonction. Les éléments a_1,...,a_k
sont des identificateurs appelés arguments formels de la fonction et nom_fonction est le nom de la fonction.
Pour une fonction ne prenant pas d’arguments, on écrit simplement def fonction():, les parenthèses étant
indispensables. Le nom de la fonction est un identificateur qui suit les mêmes règles que les identificateurs de
variables.
— La seconde (qui est facultative et peut être sur plusieurs lignes) est une chaîne de caractères appelée chaîne de
documentation décrivant la fonction : ce que doivent respecter les paramètres passés en entrée, l’action effectuée
et la nature du résultat retourné.
— La suite d’instructions est le corps de la fonction.
— Le retour à une indentation au même niveau que def marque la fin de la fonction, tout ce qui est à ce niveau ne
fait plus partie de la fonction.
Attention, le rôle d’une définition de fonction n’est pas d’exécuter les instructions qui en composent le corps,
mais uniquement de mémoriser ces instructions en vue d’une exécution ultérieure (facultative !), provoquée par une
expression faisant appel à la fonction. Par exemple, définir la fonction qui suit ne provoque pas d’erreur.
def fonction_erreur():
print(1/0)
Appel d’une fonction. L’appel de la fonction nom_fonction présentée ci-dessus se fait par :
nom_fonction(e_1,e_2,...,e_k),
où e_1,...,e_k sont des expressions. Elles forment les arguments effectifs de l’appel à la fonction : lors de l’appel
e_1 (respectivement e_2,...,e_k) est évaluée, puis le résultat est affecté à a_1 (respectivement a_2,...,a_k) juste
avant l’exécution du corps de la fonction. Tout se passe comme si l’exécution de la fonction commençait par la suite
d’instructions d’affectation
a_1=e_1
a_2=e_2
...
a_k=e_k
et se poursuivait avec
instruction 1
instruction 2
...
instruction p
L’instruction return. Le corps de la fonction comprend bien souvent une ou plusieurs instructions de la forme
return resultat, où resultat est une expression. Lors du déroulement du corps de la fonction, si une telle instruction
est rencontrée, alors l’expression resultat est evaluée, l’exécution de la fonction est interrompue et la valeur de
resultat prend la place de nom_fonction(e_1,e_2,...,e_k) là où la fonction a été appelée. Prenons un exemple
simple :
def incremente(x):
return x+1
Le type « rien ». Si la fonction ne comprend pas de return ou qu’aucun return n’est rencontré lors de l’exécution,
la fonction ne renvoie rien. On dit parfois qu’elle fonctionne uniquement par effets de bord 11 , et c’est là une différence
fondamentale avec les fonctions en mathématiques. Il y a un type pour ça : NoneType, qui comporte une unique valeur :
None. La fonction suivante ne prend aucun paramètre en entrée 12 , se contente d’afficher 4 à l’écran, et ne renvoie rien :
elle agit par effets de bord.
def affiche4():
print(4)
Lors de l’évaluation de a=affiche4(), 4 est affiché à l’écran, on sort de la fonction (car on est arrivé en bas !) et a
prend la valeur None. Notez que return seul (sans rien derrière) est souvent fort utile pour interrompre une fonction.
La fonction en question renvoie alors None.
Différence entre print et return. Une erreur classique est de confondre print et return. return est une ins-
truction de sortie de fonction, print est une fonction Python, qui affiche l’argument passé en entrée à l’écran et qui ne
renvoie rien. Lorsqu’on teste une fonction dans la console, on ne voit pas vraiment la différence mais elle est pourtant
significative : une fonction sans return ne renvoie rien !
Prenons l’exemple de la fonction suivante, qui calcule un PGCD.
def PGCD(a,b):
"""Avec a et b>0, renvoie le PGCD de a et b."""
while b!=0:
a,b=b,a%b
return a
Éxecuté dans la console, on ne verrait pas de grande différence entre cette fonction et la même avec print à la
place de return. Si maintenant, on veut utiliser cette fonction pour calculer un PPCM 13 , on définit alors la fonction
suivante :
def PPCM(a,b):
"""Avec b>0, renvoie le PPCM de a et b."""
return a*b//PGCD(a,b)
L’appel PPCM(6,4) produit bien 12. Avec print a au lieu de return a dans la fonction PGCD, l’expression PGCD(6,4)
est remplacée par None, et l’évaluation a*b//PGCD(a,b) produit une erreur :
>>> PPCM(6,4)
2
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "<stdin>", line 3, in PPCM
TypeError: unsupported operand type(s) for //: 'int' and 'NoneType'
Remarquez que l’erreur est très explicite : l’opérateur // ne peut faire d’opération entre un entier (de type int, obtenu
ici par l’évaluation de 6*4) et un objet de type NoneType, c’est-à-dire None. Vous vous posez peut-être la question :
mais qu’est-ce que le 2 qui traîne ? Il provient de notre fonction PGCD, qui a été appelée par PPCM, s’est déroulée sans
accroc, et a bravement affiché à l’écran le PGCD de a et b, comme demandé puisqu’on a utilisé print.
Chaîne de documentation. Il est important de préciser ce que fait une fonction lorsqu’on l’écrit. La chaîne de
documentation ainsi que l’en-tête, sont accessibles lorsqu’on tape help(nom_fonction) :
>>> help(PPCM)
Help on function PPCM in module __main__:
PPCM(a, b)
Avec b>0, renvoie le PPCM de a et b.
11. Qui est une mauvaise traduction de l’anglais « side effects »...
12. Oui, c’est possible !
13. suivant la formule bien connue PGCD(a, b) × PPCM(a, b) = ab.
log2(...)
log2(x)
Il existe certaines règles qui régissent la rédaction des chaînes de documentation, mais il est inutile de s’embêter
avec ça 14 . Mettez une chaîne de caractères après l’en tête qui explique un peu ce que fait votre fonction et ce sera
déja très bien. Cette chaîne est bien sûr facultative.
>>> PGCD(8,3);
1
>>> a
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
NameError: name 'a' is not defined
On voit bien que a est inconnu en dehors de la fonction PGCD. Les paramètres des fonctions se comportent comme des
variables locales : on peut les modifier mais cette modification est interne à la fonction :
On parle de passage par valeurs : lors de l’appel à PGCD, les valeurs de a et b sont recopiées et les variables a et
b de la fonction ne sont pas les mêmes que les variables a et b qu’on a définies en dehors de la fonction.
A l’opposé de cela, les variables globales sont des variables créées à l’extérieur de toute fonction. Elles existent
depuis le moment de leur création, jusqu’à la fin de l’exécution du programme. Une variable globale peut être utilisée à
l’intérieur d’une fonction si elle n’est pas le membre gauche d’une affectation ou le nom d’un paramètre. Par exemple,
la fonction suivante ajoute le contenu de la variable (nécessairement globale !) n au paramètre x et renvoie le résultat
de l’addition.
def ajoute_n(x):
return x+n
Si n n’est pas défini au moment de l’appel à ajoute_n, on obtient bien sûr une erreur. En général, on réserve
l’usage des variables globales aux constantes d’un problème. Si on veut réaliser une simulation en cinétique des gaz, on
pourra commencer le script de simulation par R=8,3144621 (la constante universelle des gaz parfaits), et on pourra
librement utiliser R dans n’importe quelle fonction 15 .
Pour pouvoir affecter à une variable globale dans une fonction, cette variable doit faire l’objet d’une déclaration
explicite comme variable globale de la forme global variable_globale. Par exemple, imaginons que l’on veuille
14. Dans les exemples qui précèdent, je ne les ai pas respectées !
15. Il est quand même plus raisonnable de l’appeler constante_gaz_parfaits, comme ça on est sûr de ne pas se servir par mégarde d’une
variable locale du même nom !
maintenir un compteur, qui contient le nombre de fois où une certaine fonction a été appelée. On peut donc utiliser
une variable globale nombre_appels, qu’on incrémentera de 1 dans l’appel de la fonction. La fonction en question
commencerait donc par :
global nombre_appels
nombre_appels+=1
def ajoute_zero(T):
T.append(0)
>>> L=[3,4,7]
>>> ajoute_zero(L)
>>> print(L)
[3, 4, 7, 0]
On remarque que la fonction a eu un effet global sur la liste L (un effet de bord !). Lorsqu’on déclare une liste
(ici L), l’identificateur est en fait une référence (on parle aussi de pointeur) vers l’emplacement mémoire occupé par
la liste. Lorsqu’on passe une liste en paramètre d’une fonction, c’est la référence qui est utilisée. La méthode append
modifie ce qu’il y a en mémoire, et c’est pour cette raison que l’effet est visible en dehors de la fonction.
Le comportement est sensiblement différent si l’on définit ajoute_zero comme ceci :
def ajoute_zero(T):
T=T+[0]
>>> L=[3,4,7]
>>> ajoute_zero(L)
>>> L
[3, 4, 7]
Ici, on commence par créer la liste T+[0] en recopiant ailleurs en mémoire les éléments de T et en y ajoutant 0.
Après l’affectation T=, la référence T pointe maintenant vers cette nouvelle liste. Cette nouvelle référence est locale à
la fonction : la liste [3,4,7,0] n’existe que dans la fonction et est donc « détruite » en fin de fonction.
Remarquez qu’avec T+=[0], on obtient le même comportement qu’avec append. C’est parce que sur les listes, +=
est similaire à la méthode extend qui s’utilise comme suit : T.extend(T2) rajoute à la fin de la liste T le contenu de
la liste T2, la référence à T n’étant pas modifiée (voir les méthodes sur les listes).
>>> type(PPCM)
<class 'function'>
>>> print(PPCM)
<function PPCM at 0x7fd55b535268>
En fait, 0x7fd55b535268 est l’emplacement mémoire occupé par la fonction : il faut bien la stocker quelque part !
Le préfixe 0x indique que l’emplacement mémoire est codé en hexadécimal.
Les fonctions sont des objets comme les autres en Python. En particulier, il est possible de les passer comme
paramètres
Pn d’autres fonctions. Généralisons un peu l’exemple vu précédemment : on peut écrire une fonction qui
calcule k=0 g(xk ) pour tous paramètres x, n et g :
Dans ces exemples, cos est la fonction cosinus classique, qui se trouve dans le module math. Remarquez que lambda
permet de définir une fonction sans lui donner un nom : la syntaxe est lambda variable: expression. On a ici défini
la fonction identité, et on retrouve le même résultat qu’avec la version précédente de la fonction f .
Fonctions locales à d’autres fonctions. De la même façon que les variables définies dans une fonction sont locales,
on peut définir une fonction locale à une autre. Une variante (un peu stupide) de la fonction précédente est-celle ci :
def f(x,n,g):
def terme(k):
return g(x**k)
s=0
for k in range(n+1):
s+=terme(k)
return s
Ici, la fonction terme est locale à la fonction f : elle n’est pas définie en dehors de la fonction f. Remarquez que x
est utilisé comme « variable globale » de la fonction terme : c’est normal et tout à fait légitime. Python va chercher
en dehors de la fonction ce qu’il ne connaît pas. Même si x est également une variable définie en dehors de la fonction,
on considère le « plus petit contexte définissant x » : ici celui de la fonction f.
Arguments optionnels. Dans la définition d’une fonction, on peut déclarer certains arguments comme optionnels
en leur donnant une valeur par défaut, utiles s’ils ne sont pas précisés lors de l’appel de la fonction. C’est une possibilité
qu’on n’utilisera pas pour nos propres fonctions, mais utile pour comprendre beaucoup de fonctions internes à Python.
Prenons un exemple minimaliste, avec l’argument optionnel y.
def f(x,y=1) >>> f(0)
return x+y 1
>>> f(0,y=4)
4
1.6 Entrées/Sorties
Cette section est consacrée aux entrées/sorties. Il s’agit de récupérer des informations depuis le clavier ou un fichier,
et d’afficher des choses à l’écran ou dans un fichier.
>>> help(print)
Help on built-in function print in module builtins:
print(...)
print(value, ..., sep=' ', end='\n', file=sys.stdout, flush=False)
Remarquons que par défaut, les objets affichés sont séparés par des espaces (' '), et l’affichage se termine par un
retour chariot (\n), mais ceci peut être modifié :
Le champ file sert à spécifier la destination : c’est sys.stdout par défaut. stdout signifie standard output, c’est-à-dire
la sortie standard, qui est par défaut l’écran. flush est un peu compliqué à expliquer et pas vraiment utile pour nous,
mais disons que par défaut, Python n’envoie pas directement les éléments à imprimer sur la sortie standard, mais les
« stocke » temporairement. Cela fait gagner du temps.
La fonction input. À l’inverse de print, input permet de récupérer quelque chose depuis l’entrée standard, qui est
par défaut, le clavier :
>>> help(input)
Help on built-in function input in module builtins:
input(...)
input([prompt]) -> string
Cette fonction prend en paramètre optionnel une chaîne de caractères (prompt string dans la documentation),
l’affiche avant de lire une chaîne de caractères depuis l’entrée standard (standard input, par défaut le clavier). En
général, on affecte cette chaîne lue à une variable. Dans l’exemple ci-dessous, une chaîne a été entrée avec mes petites
mains au clavier. La saisie s’arête lorsqu’on appuie sur la touche Entrée.
Les fonctions de conversions de type permettent de convertir une chaîne de caractères en le type qui nous intéresse.
Une conversion de type se fait sous la forme t(x) où t est le type voulu et x l’objet à convertir. Lorsqu’on utilise input
ou lorsqu’on lit des informations dans un fichier, on convertit souvent des chaînes de caractères en d’autres types.
maladroit de copier le contenu du fichier dans un script Python, il vaut mieux séparer les données du script qui les
exploite. En particulier, même si les données changent (à la suite d’une nouvelle série de mesures, par exemple), le
script Python reste identique. Après manipulation, on peut ensuite vouloir réécrire nos données transformées vers un
autre fichier. Cette sous-section décrit la manipulation des entrées/sorties vers des fichiers, qui existent en dehors de
notre programme Python.
Du point de vue du programmeur, un fichier ouvert en lecture doit être vu comme un tube (pipe en anglais) par
lequel arrivent des données extérieures chaque fois que le programme les demande, de même qu’il faut voir un fichier
ouvert en écriture comme un tube par lequel s’en vont les données que le programme envoie. Remarquez qu’ainsi, le
clavier ou l’écran ne sont que des tubes particuliers.
Pour les fonctions Python, un fichier est une séquence de caractères : une fois qu’un fichier a été ouvert par un
programme, celui-ci maintient un marqueur (fictif) à la position courante, qui indique à tout moment où sera lu/écrit
le prochain octet. Toute opération de lecture ou d’écriture fait bouger ce pointeur vers l’avant.
fonction description
f=open(nom_du_fichier,'r') Ouvre le fichier nom_de_fichier (donné sous la forme d’une chaîne de carac-
tères indiquant son emplacement) en lecture (r comme read). Le fichier doit
exister et seule la lecture est autorisée.
f=open(nom_du_fichier,'w') Ouvre le fichier nom_de_fichier en écriture (w comme write). Si le fichier
n’existe pas, il est créé, sinon il est écrasé (vidé avant utilisation).
f=open(nom_du_fichier,'a') Ouvre le fichier nom_de_fichier en ajout (a comme append). Identique au
mode 'w', sauf que si le fichier existe, il n’est pas écrasé et ce qu’on écrit est
ajouté à partir de la fin du fichier.
f.close() Sur un fichier ouvert comme précédemment, le ferme. Cette ligne est impérative
pour les fichiers ouverts en écriture, puisque le fichier n’est réellement écrit
complètement qu’à la fermeture (c.f comportement de flush).
f.read() Lit tout le fichier d’un coup et le renvoie sous forme de chaîne de caractères (à
ne réserver qu’aux fichiers de taille raisonnable).
f.readlines() Pareil que précédemment, mais le résultat est une liste de chaînes de caractères,
chaque élément correspondant à une ligne. Attention, le saut de ligne \n est
présent à la fin de chaque chaîne.
f.readline() Lit une unique ligne du fichier et la renvoie sous forme de chaîne (avec \n au
bout). Le curseur de lecture (virtuel !) est placé en début de ligne suivante. En
pratique, on sait que l’on est arrivé en fin de fichier lorsqu’un appel à cette
méthode renvoie une chaîne de caractères vide.
f.write(s) Écrit la chaîne s à la suite du fichier.
f.writelines(T) Écrit l’ensemble des éléments de T dans le fichier f comme des lignes successives.
T est une liste, une séquence, un tuple... bref, un itérable.
Le tableau ci-dessus résume les principales fonctions pour le traitement des fichiers. f désigne un tube, qu’on pourra
considérer comme étant un fichier ouvert en lecture ou en écriture.
Mieux vaut un petit exemple qu’un long discours : le script suivant moyenne.py prend un fichier notes_eleves en
lecture et un fichier notes_eleves_triees en écriture. On suppose que le fichier notes_eleves est composé de lignes
de la forme nom; note, où nom est une chaîne de caractères donnant le nom de l’élève et note est une note (supposée
entière dans le script).
Le script moyenne.py
f=open('notes_eleves','r')
f2=open('notes_eleves_triees','w')
total=0
T=[]
lignes=f.readlines()
nombre=len(lignes)
for ligne in lignes:
c=ligne.split(';')
T.append((int(c[1]),c[0]))
total+=int(c[1])
T.sort()
T.reverse()
print("Le nombre d'élèves est de ",nombre,", avec une moyenne de ",total/nombre,".",sep="")
for u in T:
f2.write(u[1]+";"+str(u[0])+"\n")
f2.close()
Par exemple, l’exécution du script sur le fichier notes_eleves précédent affiche à l’écran :
Chapitre 2
Entiers, Flottants
Théorème 2.1. Soit N un entier strictement positif, alors il existe n strictement positif et des entiers a0 , . . . , an−1
tels que :
— pour tout i dans {0, . . . , n − 1}, ai appartient à {0, . . . , 9}, ce qu’on note (a0 , . . . , an−1 ) ∈ [[0, 9]]n ,
— an−1 6= 0,
Pn−1
et N = an−1 × 10n−1 + an−2 × 10n−2 + · · · + a0 × 100 = k=0 ak × 10k . De plus, l’entier n et les entiers (ai ) sont
uniques.
Généralisation à une base quelconque. L’écriture précédente se généralise aisément à une base quelconque :
Théorème 2.2. Soit N un entier strictement positif, et b un entier positif supérieur ou égal à 2. Alors il existe n
strictement positif et des entiers a0 , . . . , an−1 tels que :
— pour tout i dans {0, . . . , n − 1}, ai appartient à {0, . . . , b − 1}, ce qu’on note (a0 , . . . , an−1 ) ∈ [[0, b − 1]]n ,
— an−1 6= 0,
Pn−1
et N = an−1 × bn−1 + an−2 × bn−2 + · · · + a0 × b0 = k=0 ak × bk . De plus, l’entier n et les entiers (ai ) sont uniques.
On note un tel entier N dans la base b comme suit : N = an−1 an−2 · · · a1 a0 b . On va prouver ce théorème dans la
suite. Voyons d’abord quelques exemples, par exemple l’écriture de 17 dans toutes les bases entre 2 et 9 :
2
17 = 1 × 24 + 0 × 23 + 0 × 22 + 0 × 21 + 1 × 20 = 10001
3
= 1 × 32 + 2 × 31 + 2 × 20 = 122
4
= 1 × 42 + 0 × 41 + 1 × 20 = 101
5
= 3 × 51 + 2 × 30 = 32
6
= 2 × 61 + 5 × 60 = 25
7
= 2 × 71 + 3 × 70 = 23
8
= 2 × 81 + 1 × 80 = 21
9
= 1 × 91 + 8 × 90 = 18
Généralisation à des bases supérieures à 10. Hexadécimal. Pour représenter des nombres dans une base
supérieure à 10, il est nécessaire d’introduire de nouveaux symboles pour exprimer les chiffres entre 10 et b − 1. En
particulier, un exemple important en informatique est la base 16, appelée hexadécimale. Pour représenter les chiffres
manquants, on utilise les lettres de A à F :
lettre A B C D E F
signification 10 11 12 13 14 15
Avant de passer à la preuve du théorème 2.2, rappelons un résultat essentiel d’arithmétique : l’existence et l’unicité
du reste dans une division euclidienne.
Théorème 2.3. Soit N et M deux entiers, avec M > 0. Alors il existe deux entiers q et r tels que :
— N = qM + r,
— 0 ≤ r ≤ M − 1.
De plus, le couple (q, r) est unique.
Démonstration. L’ensemble E = {a ∈ Z | N − M a ≥ 0} est un sous-ensemble de Z. Il est non vide car tout entier
N N
inférieur à M est dans E. Il est de plus borné supérieurement car tout entier strictement supérieur à M n’est pas
dans E. Ainsi, E possède un plus grand élément, qu’on note q. Posons alors r = N − M q ≥ 0. Si r était supérieur
ou égal à M , alors (q + 1) serait dans E ce qui est absurde. Ainsi l’existence du couple (q, r) est démontrée. Pour
l’unicité, considérons un autre couple (q 0 , r0 ) satisfaisant les mêmes hypothèses. On a alors M (q − q 0 ) = r0 − r. Or
−(M − 1) ≤ r0 − r ≤ M − 1, donc r0 − r est un multiple de M strictement supérieur à −M et strictement inférieur à
M , donc nul. On en déduit l’unicité de r, puis de q.
Preuve du théorème 2.2. On montre par récurrence l’existence et l’unicité d’une telle écriture. Fixons b ≥ 2, et pour
N ≥ 1, posons P (N ) la propriété « N admet une écriture comme dans le théorème, et elle est unique ».
b
Initialisation : P (1), . . . , P (b − 1) sont vraies car pour N un des entiers parmi 1, . . . , b − 1, l’écriture N = N
convient. De plus, si N = an−1 an−2 · · · a1 a0 b est une autre écriture, comme an−1 > 0, nécessairement n = 1 car N est
b
strictement inférieur à b. Ainsi, N = N est la seule écriture convenable.
Hérédité : Soit N ≥ b, et supposons P (M ) pour tout entier M ∈ [[1, N − 1]]. Soit (q, r) le quotient et le reste dans la
division euclidienne de N par b. Puisque N ≥ b, q est un entier strictement positif, inférieur strictement à N . On peut
donc lui appliquer l’hypothèse de récurrence : il existe un entier p ≥ 1 tel que q s’écrive cp−1 · · · c0 b , avec ci ∈ [[0, b − 1]]
et cp−1 6= 0. Alors, en posant n = p + 1,
p−1
! n−1
!
X X
i
N = bq + r = b × ci b + r = ci−1 b + r = cn−2 cn−3 · · · c0 r b
i
k=0 k=1
on voit que le n-uplet (an−1 , . . . , a0 ) = (cn−2 , . . . , c0 , r) vérifie les conditions du théorème 2.2. De plus cette écriture
est unique : le dernier chiffre de N est nécessairement le reste de la division euclidienne de N par b, soit r. Les autres
chiffres sont donnés par l’écriture de q, qui est unique par récurrence. Ainsi, par principe de récurrence, P (N ) est
vraie.
Conclusion : P (N ) est vraie pour tout N ≥ 1 : l’existence et l’unicité sont démontrées.
Même si la preuve est un peu rébarbative, son application donne immédiatement un algorithme de changement de
base, qu’on va voir dans la sous-section suivante. Avant ça, un petit point culture.
Histoire. Voici une petite présentation non exhaustive des différentes bases ayant été utilisées. Aujourd’hui, on (l’hu-
manité) utilise la base 10 1 . Ça n’a pas toujours été le cas : les égyptiens, les mayas, les babyloniens, mésopotamiens
et d’autres ont utilisé les bases 20, 24 et 60. Les mésopotamiens n’utilisaient cependant pas 60 symboles différents :
chaque « chiffre » était lui même codé avec un certain nombre de chevrons (chacun comptant pour 10) et de clous
(chacun comptant pour une unité). En informatique 2 , la base 2 (binaire) apparaît naturellement : le 1 et le 0 corres-
pondent à une tension positive (supérieure à un certain seuil) ou une absence de tension (inférieure à un ce seuil) en
un point d’un circuit électrique. Comme les écritures en binaire sont plutôt longues (on a vu qu’il fallait 5 chiffres pour
représenter 17...), l’idée de raccourcir les écritures en utilisant des bases de la forme 2k a mené à l’hexadécimal, et plus
marginalement à l’octal (base 8). On verra qu’il est très facile de passer du binaire à l’hexadécimal (ou à l’octal) et
réciproquement.
Si l’on sait calculer dans la base de départ. Dans ce qui suit, vous pouvez considérer que la base de départ
est la base 10 : il nous faut simplement une base dans laquelle on sait faire une division euclidienne. On ne fera pas
explicitement mention de cette base. L’algorithme 2.4 reprend l’idée de la preuve du théorème 2.2.
En d’autres termes, on effectue des divisions euclidiennes tant que l’on ne tombe pas sur un quotient nul. La suite
des restes fournit les chiffres de l’écriture de N dans la base b, du moins significatif au plus significatif (c’est-à-dire
dans l’ordre inverse).
On a utilisé ici une boucle conditonnelle « Tant que », qui correspond en Python à une boucle while. Tant que
la condition est vérifiée (ici M 6= 0), on exécute le corps de la boucle. Reprenons l’exemple du nombre 1345 que l’on
veut convertir en hexadécimal. On effectue les divisions euclidiennes successives :
1345 = 16 × 84 + 1
84 = 16 × 5 + 4
5 = 16 × 0 + 5
Comme le dernier quotient est zéro, on s’arrête. La suite des restes successifs est 1, 4, 5, que l’on inverse. On obtient
16
bien 1345 = 541 .
En Python, on stocke la suite des restes dans une liste. À la fin de l’algorithme, on inverse la liste et on la renvoie.
Cela donne le code suivant :
def base10ab(N,b):
L=[] #une liste vide >>> base10ab(17,2)
M=N [1, 0, 0, 0, 1]
while M!=0: >>> base10ab(666,3)
r=M%b #reste dans la division euclidienne [2, 2, 0, 2, 0, 0]
M=M//b #quotient dans la division euclidienne >>> base10ab(1345,16)
L.append(r) #ajouter un élément à la fin d'une liste [5, 4, 1]
L.reverse() #on retourne la liste
return L
Remarque : en pratique, il est très courant de représenter un nombre dans une base b par la donnée de ses chiffres
16
du moins significatif au plus significatif : par exemple 1345 = 541 peut se représenter en hexadécimal par la liste
[1, 4, 5].PCette représentation est assez pratique, car à une liste de chiffres [a_0, a_1, ..., a_p] est associée
p
le nombre k=0 ak bk dans la base b. On appelle les deux représentations possibles big-endian (les chiffres les plus
significatifs en premier, on commence par « le gros bout ») et little endian 3 (on commence par les moins significatifs,
soit le « petit bout »). L’algorithme précédent donne la représentation big endian, pour obtenir la représentation en
little endian, il suffit de ne pas inverser la liste à la fin de l’algorithme. En interne sur un ordinateur, la représentation
utilisée (l’« endianness ») dépend du système d’exploitation. Les deux sont utilisées, mais la représentation « little
endian » est la plus répandue.
Si l’on sait calculer dans la base d’arrivée. Ici, on suppose que l’on sait faire les opérations + et × dans la
base d’arrivée, quePl’on pourra voir comme la base 10. Comment évaluer N = an−1 · · · a0 b dans cette base ? À partir
n−1
de l’écriture N = k=0 ak bk , on voit qu’il suffit d’évaluer les puissances de b (jusqu’à bn−1 ) dans la base d’arrivée, de
k
multiplier b par ak et de sommer. En supposant que 1 et b sont donnés sans calcul, cela nous fait 2n−3 multiplications :
3. Les termes big endian et little endian ont été popularisés par Dany-Cohen, en référence aux Voyages de Gulliver, le roman de
Jonathan Swift où il est question d’un décret visant à décider par quel bout on doit commencer à manger un œuf à la coque, le gros ou le
petit.
n − 2 pour calculer les bk et n − 1 pour multiplier chaque couple (ak ,bk ), la multiplication a0 × 1 étant gratuite. On
va voir un algorithme classique qui requiert environ moitié moins de multiplications : l’algorithme de Hörner. Celui-ci
repose entièrement sur l’identité suivante :
n−1
X
N= ak bk = a0 + b × (a1 + b × (a2 + b × (a3 + · · · + b × an−1 )) · · · )
k=0
Algorithme 2.5 : Écriture dans une base dans laquelle on sait calculer
Entrées : Un entier b ≥ 2 et un entier N donné par la liste de ses chiffres dans la base b : N = an−1 · · · a0 b
Sortie : L’évaluation de N dans la base ambiante
M ← 0;
pour chaque i allant de n − 1 à 0 par pas de −1 faire
M ← b × M + ai ;
retourner M
Comme on le voit, l’algorithme 2.5 est particulièrement court. On a utilisé ici une boucle inconditionnelle : i prend
successivement les valeurs n − 1, n − 2, . . . , 0. La structure en Python correspondante est for. Prenons un exemple :
16
convertissons N = 6ABC en base 10. Cela consiste à évaluer l’expression 12+16×(11+16×(10+16×6)). Allons-y :
Un cas particulier : l’une des bases est une puissance de l’autre. On a dit plus haut qu’il était facile de
passer du binaire à l’hexadécimal et réciproquement. En fait, c’est le cas si l’une des bases est b et l’autre b` , pour un
certain ` > 1.
16 2
Prenons tout de suite un exemple : N = 27324 s’écrit 6ABC mais aussi 110101010111100 . Comme 16 = 24 , il
suffit d’écrire la correspondance entre les 16 chiffres hexadécimaux et les chaînes de 4 chiffres en binaire (complétés
par des zéros à gauche). La correspondance est la suivante :
hexadécimal 0 1 2 3 4 5 6 7
binaire 0000 0001 0010 0011 0100 0101 0110 0111
hexadécimal 8 9 A B C D E F
binaire 1000 1001 1010 1011 1100 1101 1110 1111
16
Ainsi, les 16 bits de l’écriture de 6ABC en binaire sont bien donnés par les cases correspondant à 6, A, B et C
dans ce tableau, en enlevant le 0 inutile à gauche. Réciproquement, pour passer de la base 2 à la base 16, on regroupe
les bits par paquets de 4, en commençant par la droite, et en rajoutant éventuellement des zéros à la gauche du nombre,
2 16 2 16 2 16
et on utilise le tableau. Par exemple, 100101 s’écrit 25 car 0101 correspond à 5 et 0010 à 2 .
une correspondance entre les paquets de ` chiffres dans la base b et les chiffres
Dans le cas général, il suffit d’établir P
n−1
dans la base B = b` . En effet, soit N = k=0 ak bk un nombre exprimé dans la base b, avec ak ∈ {0, . . . , b − 1}. Quite
à ajouter des chiffres nuls au début de la représentation en base b, on suppose que n est un multiple de `, il s’écrit
donc n = ` × m. Alors :
Pn−1
N = ak bk
Pk=0
m−1 P`−1 j+i`
= i=0 j=0 aj+i` b (on découpe par paquets de ` chiffres)
Pm−1 i P`−1 j
N = i=0 B j=0 aj+i` b (car B = b` )
P`−1
Comme chaque aj+i` est entre 0 et b − 1 (ce sont les chiffres de N dans la base b), chaque somme Ai = j=0 aj+i` bj
P`−1
est entre 0 et j=0 (b − 1)bj = b` − 1 = B − 1. Autrement dit, les Ai sont des chiffres dans la base B = b` . On obtient
bien l’écriture de N dans la base B en regroupant les chiffres de N dans la base b par paquets de ` à partir de la
droite, et en faisant une transcription à l’aide d’une table de la forme :
base b base B = b`
b
0 · · · 00 0
b
0 · · · 01 1
.. ..
. .
b
10 · · · 0 b`−1
.. ..
. .
b
(b − 1) · · · (b − 1)(b − 1) b` − 1 = B − 1
Le premier chiffre Am−1 est bien non nul, pour peu qu’on ait rajouté tout juste le nombre de zéros à gauche (éven-
tuellement aucun) nécessaire pour que le nombre de chiffres de N dans la base b devienne un multiple de `.
Réciproquement, si on part d’un nombre dans la base B, il suffit de faire le processus inverse pour retrouver un
nombre dans la base b, quite à supprimer les chiffres nuls à gauche obtenus si le premier chiffre de N dans la base B
est strictement inférieur à b`−1 .
Additions. L’addition sur entiers naturels se fait comme sur les entiers en base 10 : il suffit de savoir comment
additionner deux chiffres et propager les retenues. C’est particulièrement facile en binaire, puisqu’il n’y a que 2
chiffres ! La table d’addition est la suivante :
+ 0 1
0 0 1
1 1 10
Le 10 signifie que le résultat fait 0 et qu’il faut ajouter un bit de retenue. L’addition se fait de droite à gauche,
comme à l’école primaire. Par exemple sur 6 bits (les 1 en exposants sont des retenues) :
1 01 01 1 0 1
+ 0 0 1 1 1 0
1 1 0 0 1 1
Dépassement de capacité sur entiers naturels. Il n’est pas exclu que la dernière addition génère une retenue
(on parle de retenue sortante). Dans ce cas, le résultat de l’addition des deux entiers de n bits ne tient pas sur n bits :
on parle alors de dépassement de capacité. Prenons un exemple sur 8 bits :
1 0 01 11 01 1 0 1
+ 1 0 0 0 1 1 1 0
1 0 0 1 0 0 0 1 1
Le 1 encadré correspond à la retenue issue de l’addition des deux derniers bits. Il faudrait donc 9 bits pour
représenter la somme. En effet, 149+142 vaut 291, qui dépasse 255 = 28 − 1, la valeur maximale représentable sur 8
bits. C’est exactement un tel dépassement de capacité (oui, sur 8 bits !) qui a causé le crash d’Ariane 5 en 1996 4 .
Retenue entrante
Bit 1
Bit 2
+ Résultat
Retenue sortante
Le chaînage se fait en connectant les retenues entrantes et sortantes des additionneurs successifs (on positionne la
retenue entrante initiale à 0). Les valeurs du résultat et de la retenue sortante dans un additionneur 1 bit en fonction
des deux bits d’entrée et de la retenue entrante sont données dans la tableau suivant.
Bit 1 0 0 0 0 1 1 1 1
Bit 2 0 0 1 1 0 0 1 1
Retenue entrante 0 1 0 1 0 1 0 1
Résultat 0 1 1 0 1 0 0 1
Retenue sortante 0 0 0 1 0 1 1 1
Représentation par valeur absolue. Une première idée pour représenter des entiers relatifs sur n bits est d’utiliser
le premier bit comme bit de signe, les autres bits étant dévolus à la représentation de la valeur absolue de l’entier.
Avec la convention que le bit de signe 1 est utilisé pour les nombres négatifs et 0 pour les nombres positifs, on obtient
par exemple sur 6 bits :
2 2
011010 = 26 et 100001 = −1.
4. En fait, l’accélération horizontale était codée comme un entier sur 8 bits, comme sur les versions précédentes des fusées Ariane.
Seulement, Ariane 5 étant beaucoup plus puissante, cette accélération pouvait atteindre la valeur 300, qui nécessite 9 bits sur entiers
naturels. Le dépassement de capacité a produit une valeur aberrante, qui a mené le logiciel à ordonner la destruction de la fusée.
Source : https://fr.wikipedia.org/wiki/Vol_501_d%27Ariane_5.
De cette façon, on représente l’ensemble des entiers de l’intervalle [[−(2n−1 − 1), 2n−1 − 1]], avec deux zéros. Le zéro
« positif » est 00 · · · 0, et le zéro « négatif » est 100 · · · 0. Le problème de cette représentation est qu’elle ne permet pas
d’effectuer facilement les additions.
Représentation en complément à 2. C’est la représentation des nombres relatifs la plus utilisée. Pour an−1 · · · a0
une séquence de n bits, on considère que ce nombre représente :
Pn−2 k
an−1 · · · a0 = k=0 ak 2P si an−1 = 0
n−1 n−2
−2 + k=0 ak 2k si an−1 = 1
Pn−2
Puisque la séquence k=0 ak 2k peut décrire tous les entiers naturels entre 0 et 2n−1 − 1, la représentation en
complément à 2 permet de représenter tous les nombres de l’intervalle [[−2n−1 , 2n−1 − 1]], de manière unique. Notez
qu’il est facile de voir si un nombre est positif ou strictement négatif dans cette représentation : il suffit de regarder
le bit de poids fort. S’il est nul, le nombre est positif, sinon, il est strictement négatif. En reformulant, on représente
N ∈ [[−2n−1 , 2n−1 − 1]] par :
la représentation de N sur n bits en entier naturel, si N ≥ 0
la représentation de 2n + N = 2n − |N | sur n bits en entier naturel, si N < 0.
Donnons tout de suite la table des entiers sur 4 bits pour clarifier les choses. Ici n = 4, donc on peut représenter
les nombres de −8 à 7.
suite de bits 0000 0001 0010 0011 0100 0101 0110 0111
signification sur entiers naturels 0 1 2 3 4 5 6 7
signification sur entiers relatifs 0 1 2 3 4 5 6 7
suite de bits 1000 1001 1010 1011 1100 1101 1110 1111
signification sur entiers naturels 8 9 10 11 12 13 14 15
signification sur entiers relatifs -8 -7 -6 -5 -4 -3 -2 -1
On observe bien que dans le cas où la suite de bits commence par un 1, on déduit sa signification sur entiers relatifs
en complément à 2 de celle sur entiers naturels par l’opération x 7→ −24 + x. Cette représentation devrait s’appeler
complément à 2n , mais est rentrée dans le langage courant sans référence au nombre de chiffres de l’entier représenté.
Remarque 2.6 (Entier naturel ou relatif ?). Une même suite de bits an−1 an−2 · · · a0 peut donc avoir deux significations
différentes. Savoir si elle représente un entier naturel ou un entier relatif 5 ne dépend pas de la mémoire (qui se contente
de stocker des bits), ni du processeur (qui se contente d’effectuer des opérations), mais du programme qui manipule
cette suite de bits.
Addition d’entiers relatifs. Montrons sur quelques exemples que, s’il n’y a pas dépassement de capacité, le résultat
de l’addition faite avec cette représentation comme avec des entiers naturels donne le bon résultat.
Pour chacun des couples (3,4), (-1,6) et (-2,-3), représentable sur 4 bits en tant qu’entiers relatifs, le résultat de
l’addition appartient à l’intervalle [[−8, 7]], il n’y a donc pas dépassement de capacité de l’addition sur entiers relatifs
avec 4 bits disponibles.
0 0 1 1 11 11 1 1 11 1 1 0
+ 0 1 0 0 + 0 1 1 0 + 1 1 0 1
0 0 1 1 1 1 0 1 0 1 1 1 0 1 1
Le chiffre encadré contient l’éventuelle retenue sortante. On voit que le résultat est correct, à condition de ne pas
tenir compte de cette retenue sortante. Montrons que le résultat est en effet correct :
Théorème 2.7. Soit n un entier strictement positif, et N et M deux nombres entiers appartenant à l’intervalle
[[−2n−1 , 2n−1 − 1]]. Si N + M appartient lui aussi à cet intervalle, alors la représentation sur entiers relatifs en
complément à 2 de l’entier N + M se déduit de celles de N et de M par addition sur entiers naturels, en ignorant
l’éventuel bit de retenue sortante.
— Supposons que N et M sont tous deux positifs ou nuls. Alors leur représentation sur entiers relatifs en complément
à 2 sur n bits correspond à celle sur entiers naturels, et le résultat de l’addition est celui de N + M comme entier
naturel sur n bits. Comme le résultat est supposé appartenir à [[−2n−1 , 2n−1 −1]], le bit de poids fort de la somme
est zéro, et correspond bien à la représentation sur entiers relatifs en complément à 2 sur n bits de N + M .
— Supposons N ≥ 0 et M < 0. Remarquez que dans ce cas, la somme N + M appartient forcément à l’intervalle
[[−2n−1 , 2n−1 −1]] : il ne peut y avoir dépassement de capacité en additionnant deux nombres de signes contraires.
L’addition sur entier naturels correspond à l’entier 2n + N + M . Deux cas sont à distinguer :
— Si N + M ≥ 0, alors 2n correspond à la retenue sortante : si on l’ignore on obtient bien N + M comme
entier positif en représentation sur entiers relatifs en complément à 2.
— Si N +M < 0, alors 2n +N +M correspond précisément à la représentation sur entiers relatifs en complément
à 2 de N + M .
Dans les deux cas, le résultat est correct.
— Si N < 0 et M ≥ 0, le résultat est correct : il suffit de reprendre le raisonnement précédent en échangeant N
et M .
— Enfin, si N et M sont tous deux strictement négatifs, l’addition correspond à l’addition sur entiers naturels de
2n + N + 2n + M ≥ 2n . Il y a donc nécessairement une retenue sortante et l’ignorer revient à considérer l’entier
naturel 2n + N + M , qui correspond bien à la représentation sur entiers relatifs en complément à 2 de N + M
puisque N + M est strictement négatif
Comme on l’a dit dans la preuve, le dépassement de capacité (c’est-à-dire que N + M n’appartient pas à l’intervalle
[[−2n−1 , 2n−1 − 1]]) ne peut se produire que si N et M sont de même signe. Voici deux exemples de dépassement sur
4 bits donnés par les couples (5,6) et (-8,-1) :
01 1 0 1 1 0 0 0
+ 0 1 1 0 + 1 1 1 1
0 1 0 1 1 1 0 1 1 1
Remarque 2.8. On aurait pu affiner le théorème précédent en montrant de plus qu’il y a dépassement de capacité, si et
seulement si les deux dernières retenues (la retenue sortante et la retenue sur le bit de poids fort) sont différentes. Vous
pouvez vérifier sur les exemples. En pratique, c’est comme cela que fonctionne l’additionneur d’une unité arithmétique
et logique d’un processeur : l’additionneur est réalisé en connectant des additionneurs 1 bits, de plus on peut détecter les
dépassements de capacité sur entiers naturels (la retenue sortante vaut 1) et sur entiers relatifs (la retenue sortante
est différente de la dernière retenue). Le programme qui a lancé l’opération peut récupérer ces informations pour
éventuellement prendre en compte le dépassement de capacité, par exemple pour avertir l’utilisateur.
2.2.3 En pratique.
Dans un ordinateur, on utilise maintenant des registres de 32 ou 64 bits, ce qui autorise la représentation d’entiers
relatifs dans les intervalles [[−231 , 231 − 1]] ou [[−263 , 263 − 1]]. Si le résultat d’un calcul ne rentre pas dans l’intervalle,
le résultat est erroné.
Par exemple, dans un langage de bas niveau comme le C, le type int correspond à des entiers relatifs codés sur 32
bits. Le calcul et l’affichage des puissances de 3 successives produit le résultat (tronqué) suivant :
3^18=387420489
3^19=1162261467
3^20=-808182895
Que se passe-t-il ? On a l’encadrement suivant : 319 < 231 − 1 < 320 . Le calcul de 320 produit donc un dépassement
de capacité, ce qui explique le résultat aberrant 6 . Fort heureusement, il est possible de calculer avec des entiers plus
longs en C, mais voila la preuve qu’il faut faire attention : on n’a pas eu droit à un message d’erreur !
Et en Python ? En Python, les entiers sont non bornés. Par exemple, Python n’a aucun mal à calculer et afficher 7
correctement 44444444 . Les longs entiers sont en fait codés par paquets de bits de longeur fixée, et il peut y avoir
un nombre potentiellement infini de paquets (limité par la mémoire, naturellement). Tout ceci se fait de manière
transparente pour l’utilisateur, on n’aura donc pas à se soucier des dépassements de capacité lorsqu’on manipulera des
entiers.
6. Pas si aberrant que ça : le résultat obtenu pour 320 est exactement 320 − 232 !
7. Ce que je ne ferai pas ici, il y a quand même plus de 16000 chiffres !
Sur vos calculatrices. Dépendant de votre modèle, le nombre de bits maximal est différent, et bien qu’assez élevé,
est limité. Vous pouvez faire une boucle, calculant par exemple les puissances de 3 jusqu’à 10000 pour voir si vous
obtenez une erreur ou un résultat faux.
Certaines sont exactes, comme la vitesse de la lumière dans le vide (c’est ainsi qu’on définit le mètre aujourd’hui),
d’autres ont été mesurées. Lorsqu’on fait un calcul en physique, les résultats des mesures ne sont connus qu’avec
une certaine précision. L’important est donc de pouvoir représenter des réels d’ordres de grandeur très différents, en
gardant une précision suffisante pour chacun. La représentation scientifique utilisée ci-dessus s’y prête bien : on garde
un certain nombre de chiffres significatifs, et on peut représenter des nombres très petits (en valeur absolue) ou très
grands en jouant sur l’exposant dans la puissance de 10, qui peut être négatif ou positif.
Avec un nombre de bits fixés, il n’est pas possible de représenter tous les réels, mais seulement un nombre fini
d’entre eux. Ceux-ci sont appelés nombres flottants, ce sont tous des dyadiques. Il y a trois cas à distinguer :
— lorsque les bits E0 , . . . , Ee−1 ne sont ni tous nuls ni tous égaux à 1, on parle de flottant normalisé : c’est donc
le plus courant ;
— lorsque E0 = · · · = Ee−1 = 0, on parle de flottant dénormalisé ;
— le cas E0 = · · · = Ee−1 = 1 est utilisé pour représenter les infinis et les NAN (voir la suite).
8. Les chiffres sont tirés de Wikipédia. On choisit d’utiliser la syntaxe anglo-saxonne dans ce cours, la virgule étant notée par un point.
9. Tout cela sera précisé en cours de mathématiques.
x = S × M ×2E − D
où :
— S = (−1)s ∈ {±1} est le signe de x, représenté par le bit s, avec la convention 0 pour un nombre positif et 1
pour un nombre négatif.
— M est la mantisse. C’est, pour un flottant normalisé, un nombre appartenant à l’intervalle [1, 2[. La partie entière
2
(1) est
Pmimplicite et non représentée, si bien que les m bits de mantisse s’interprètent en M = 1.M1 · · · Mm =
1 + k=1 Mi × 2−i .
2 Pe−1
— E − D est l’exposant. Les e bits s’interprètent comme l’entier naturel E = Ee−1 · · · E0 = k=0 Ek × 2k , appelé
exposant décalé. Puisque les Ei ne sont ni tous nuls ni tous égaux à 1, l’exposant décalé E est un entier de
l’intervalle [[1, 2e − 2]]. Le décalage D ne dépend que du nombre de bits e, et a pour valeur D = 2e−1 − 1. Ainsi
E − D ∈ [[−2e−1 + 2, 2e−1 − 1]].
Classiquement, on utilise une représentation des flottants en simple précision (32 bits) ou double précision (64 bits).
Maintenant que les processeurs ont tous 64 bits, c’est plutôt la double précision qui s’impose. Notons qu’on trouve
également des représentations avec plus de bits, pour une plus grande précision. Même si les entiers e et m changent,
le principe est toujours le même.
On donne dans le tableau suivant le nombres de bits dévolus à la mantisse et à l’exposant décalé dans les repré-
sentations sur 32 et 64 bits :
Donnons comme exemple la représentation du nombre 21.625 sur 32 bits. Ce nombre est un dyadique, qui s’écrit :
2.3.3 Exceptions
Cette sous-section n’est pas au programme, mais est intéressante quand même. Lorsque l’exposant décalé E n’est
constitué que de 0 ou que de 1 (donc est égal à 0 ou 2e − 1, où e est son nombre de bits), l’interprétation du nombre
n’est pas la même que ci-dessus.
E = 0 : nombre dénormalisé. Si E est nul, avec la représentation normalisée on aurait un nombre de la forme
2
S × 1. · · · } ×2− D . Autrement dit, le plus petit nombre positif représentable serait 2− D , obtenu avec des bits de
| {z
mantisse
mantisse tous nuls. Il est plus intéressant de se rapprocher de zéro. Ainsi, si l’exposant décalé E est nul, on ne suppose
2 2
plus que la mantisse est 1.M1 · · · Mm , mais au contraire 0.M1 · · · Mm . En faisant ainsi, on crée par contre un fossé
entre le plus petit nombre normalisé positif (21−D ), et le plus grand nombre que l’on peut obtenir avec exposant nul :
2
0.1111 · · · × 2− D , qui est très proche de 2− D . Pour compenser ceci, on suppose que le décalage pour un nombre
dénormalisé est donné par D0 = D −1 = 2e−1 − 2 au lieu de D = 2e−1 − 1. L’interprétation d’un nombre dénormalisé
est donc, puisque E est nul :
2
(−1)S × 0.M1 · · · Mm × 21−D
Un cas particulier (compatible avec ce que l’on vient de dire) : si tous les bits Mi sont nuls, on représente zéro. Il y a
donc deux zéros, l’un positif et l’autre négatif.
E = 2e − 1 : infinis et NAN. Les nombres ayant un exposant décalé E égal à 2e − 1 sont utilisés pour représenter les
infinis et les
√ NAN. NAN signifie « not a number », et est utilisé pour les calculs produisant des erreurs, par exemple le
calcul de −1. Les infinis sont utilisés pour exprimer le fait qu’un calcul dépasse le plus grand nombre représentable
par valeur positive (on obtient alors +∞), ou le plus petit par valeur négative (on obtient alors −∞).
La règle est la suivante : si les bits représentant la mantisse sont nuls, c’est un infini (+∞ ou −∞ suivant le bit de
signe), sinon, c’est un NAN.
a=1. #La virgule est nécessaire pour travailler avec des flottants et non des entiers.
for i in range(1000): #3**1000 est trop grand pour être représentable !
a*=3
b=-a
c=a+b
2.3.4 Arrondis
En général, un calcul faisant intervenir deux nombres flottants sur n bits ne donne pas un nombre représentable
exactement sur n bits. Il suffit par exemple de prendre un nombre décimal non dyadique, comme 1/10 = 0.1. Celui ci
2
s’écrit 1.100110011001100 · · · × 2−4 . (La périodicité du développement n’est pas un hasard, c’est le cas pour tous les
rationnels). La mantisse n’ayant qu’un nombre fini de bits, il est nécessaire de couper ce développement infini. Ainsi,
la représentation par un flottant de 0.1 ne sera qu’une approximation. Elle est obtenue en prenant le flottant le plus
proche 10
Le fait que les réels ne soient représentés qu’approximativement fait que les égalités mathématiques ne tiennent
plus avec des flottants. Voici trois exemples de ce qu’on peut obtenir en Python (sur 64 bits) :
Pour le premier exemple, 0.1 n’est représenté en mémoire que sous forme arrondie. La boucle à pour objet de
calculer 10 × 0.1 en faisant 10 additions. Les erreurs d’approximation se cumulent, et au final on obtient un résultat
très proche de 1, mais qui n’est pas 1 (j’obtiens 1 − 2−53 ).
10. Le lecteur voulant des précisions sur les règles d’approximation pourra se reporter à l’adresse : http://fr.wikipedia.org/wiki/IEEE_
754.
Pour le deuxième, l’explication est la suivante : sur 64 bits, il y a 52 bits de mantisse. Le plus petit flottant
strictement supérieur à 21000 est donc (1 + 2−52 ) × 21000 . Ainsi, 21000 + 1 est indiscernable de 21000 . Plus exactement
le résultat de l’addition 21000 + 1 est arrondi au flottant le plus proche, à savoir 21000 lui même. D’où l’égalité a==a+1
qui peut paraître choquante !
Pour le dernier exemple, les opérations + et - ayant même priorité, elles sont évaluées de gauche à droite. Or ici
1 + 2−53 est arrondi au flottant le plus proche, à savoir 1 lui-même. Donc dans l’exemple, a+b-c vaut exactement zéro.
Par contre, a-c+b vaut b, car a et c sont tous deux égaux (à 1).
Il ne faut surtout pas croire à la lecture de ces exemples que les résultats obtenus via des opérations sur les nombres
à virgule sont complètement faux en informatique. Néanmoins, il faut être conscient que dans le monde des flottants,
les égalités mathématiques ne sont plus vérifiées « qu’à ε près », à cause des erreurs d’arrondi et de l’impossibilité de
représenter de manière exacte les réels. La leçon à retenir des exemples et la suivante : sauf cas particuliers bien précis,
On se contentera d’un test de la forme |a − b| < , où est un « petit » flottant, dépendant du problème. Par
exemple, pour tester si un réel x est une racine d’un polynôme P , on se contentera par exemple de |P (x)| ≤ 2−20 .
Pour conclure, considérons le code Python suivant, qui résout une équation du second degré en donnant les racines
réelles.
def trinome(a,b,c):
assert a!=0, "ce n'est pas un trinôme du second degré!"
Delta=b**2-4*a*c
if Delta<0:
print("Pas de racines !")
elif Delta>0:
r=sqrt(Delta)
x1=(-b-r)/(2*a)
x2=(-b+r)/(2*a)
print("Il y a deux racines distinctes, qui sont: ", x1, "et", x2)
else:
print("Il y a une racine double, qui est: ", -b/(2*a))
>>> trinome(1,-1,-1)
Il y a deux racines distinctes, qui sont: -0.6180339887498949 et 1.618033988749895
√
On obtient des valeurs approchées très correctes de 1±2 5 . Cherchons maintenant les racines du polynôme x2 + 2−600 x.
On travaille sur 64 bits, ainsi les coefficients et les racines (0 et −2−600 ) sont tous représentables de manière exacte
par un flottant.
>>> trinome(1,2**(-600),0)
Il y a une racine double, qui est: -1.204959932551442e-181
L’explication est simple : le discriminant du trinôme, qui est 2−1200 , n’est pas représentable sur 64 bits. Il est
arrondi à zéro, ce qui explique le déroulement : le discriminant étant trop petit pour être représentable, le programme
conclut à l’existence d’une racine double alors qu’il y a deux racines distinctes, très proches. Voici un dernier exemple
avec le polynôme (x − 0.1)2 = x2 − 0.2x + 0.01 :
>>> trinome(1,-0.2,0.01)
Il y a deux racines distinctes, qui sont: 0.09999999868291098 et 0.10000000131708903
Ici « l’erreur » est légèrement différente : les coefficients du polynôme ne sont pas représentables exactement, et
le discriminant du polynôme « flottant » est non nul, ce n’est pas du à une erreur d’arrondi dans l’opération. Le
programme renvoie donc deux racines distinctes, assez proches de 0.1.
Ce code fonctionne très bien dans la plupart des situations, seulement il faut garder à l’esprit que les coefficients
sont représentés à un petit ε près, de même que le résultat du calcul des racines.
Chapitre 3
Analyse d’algorithmes
Introduction
Le but de ce chapitre est d’étudier de manière théorique les algorithmes. On va donner les outils permettant de
répondre aux trois questions suivantes :
— l’algorithme s’arrête-t-il un jour ?
— est-ce qu’il fait bien ce qu’il est sensé faire ? Autrement dit, est-il correct ?
— combien de temps met-il à s’exécuter ?
Le premier point s’appelle la terminaison de l’algorithme, le deuxième sa correction et le dernier sa complexité.
Revoyons la notion d’algorithme en informatique.
Définition 3.1. Un algorithme est une fonction qui prend des données en argument, effectue une séquence finie non
ambiguë d’instructions, et renvoie un résultat.
Étendons un peu cette définition en donnant une liste de points caractérisant un algorithme, par Donald Knuth 1 :
— finitude : « Un algorithme doit toujours se terminer après un nombre fini d’étapes. »
— définition précise : « Chaque étape d’un algorithme doit être définie précisément, les actions à transposer doivent
être spécifiées rigoureusement et sans ambiguïté pour chaque cas. »
— entrées : « des quantités qui lui sont données avant qu’un algorithme ne commence. Ces entrées sont prises dans
un ensemble d’objets spécifié. »
— sorties : « des quantités ayant une relation spécifiée avec les entrées. »
— rendement : « [. . . ] toutes les opérations que l’algorithme doit accomplir doivent être suffisamment basiques pour
pouvoir être en principe réalisées dans une durée finie par un homme utilisant un papier et un crayon. »
Pour décrire un algorithme, on lui donne en général un nom, on précise quels sont les paramètres (les entrées)
et le résultat (les sorties) qu’il est sensé renvoyer. On précise aussi de quelle manière il agit sur son environnement :
modification de la mémoire, affichage éventuel à l’écran, etc... Tout ceci constitue la spécification de l’algorithme. Dans
nos algorithmes, outre les opérations d’affectations, d’entrée/sortie et de manipulations des variables, on peut trouver
des blocs simples :
— boucles for ;
— boucles while ;
— blocs conditionnels if, elif,...,else.
Ce découpage en blocs simples est essentiel.
3.1 Terminaison
Pour montrer qu’un algorithme termine quel que soit le jeu de paramètres passé en entrée respectant la spécifi-
cation, il faut montrer que chaque bloc élémentaire décrit ci-dessus termine ! Or, les boucles for et les instructions
conditionnelles terminent forcément. Le seul souci pourrait venir d’une boucle while.
1. L’un des meilleurs informaticiens de tous les temps ! La liste proposée est tirée de Wikipédia.
Si, avant la boucle while, la variable n contient un entier positif, cette boucle s’arrêtera au bout de n étapes. Par
contre, si elle contient un entier strictement négatif, c’est la catastrophe : n prendra une infinité de valeurs, toutes
strictement négatives.
Prenons un exemple un peu plus intéressant et concret : le calcul de la puissance. Pour x un entier (ou un flottant),
et n un entier naturel, on peut partir de y = 1 et multiplier n fois y par x. C’est l’idée du code suivant.
Algorithme d’exponentiation
def expo(x,n):
""" La fonction prend en entrée un entier (ou flottant) x et un entier naturel n, et retourne x^n"""
y=1
for i in range(n):
y*=x
return y
Une autre idée consiste à utiliser la décomposition en binaire de l’entier n. Prenons un exemple : on souhaite
2
calculer x11 . 11 s’écrit en binaire 1011 . À partir de x et en procédant par élévations au carré successives, il est facile
p 2
de calculer les x2 : ici ce sont x, x2 , x4 et x8 . Comme 11 = 1011 , il suffit de multilplier x8 , x2 et x pour obtenir x11 .
L’algorithme de multiplication suivant ce schéma porte le nom d’algorithme d’exponentiation rapide. On montrera par
la suite qu’il est bien plus efficace que l’algorithme d’exponentiation naïf vu précédemment.
Expliquons son fonctionnement : il suit de près l’algorithme permettant de récupérer les bits d’un entier par division
successives par 2. Cet algorithme permet de récupérer les bits 1 par 1, en commençant par les bits de poids faibles. En
p
utilisant une variable annexe que l’on élève au carré à chaque étape, on calcule successivement les x2 . Il suffit alors
2p
de multiplier une variable (z dans le code suivant) initialisée à 1 par les x qui conviennent (donnés par les bits de
n) pour obtenir xn . Voici le code Python :
Algorithme d’exponentiation rapide
def expo_rapide(x,n):
""" La fonction prend en entrée un entier (ou flottant) x et un entier naturel n, et retourne x^n"""
y=x
z=1
m=n
#Inv: z*y^m=x^n
while m>0:
#Inv
q,r=m//2,m%2 # quotient et reste dans la division euclidienne de m par 2.
if r==1:
z*=y # on multiplie z par y, le résultat est affecté à z.
y*=y # on met y au carré, le résultat est affecté à y.
m=q
#Inv
#Inv
return z
La fonction suppose que l’entier n est positif dans sa spécification. Observons maintenant le code : la condition du
while porte sur m, qui doit être strictement positif pour qu’un tour de boucle s’effectue. Si on supprime tout ce qui
n’a pas trait à la modification de la variable m dans le code, on retient :
m=n
while m>0:
q=m//2
m=q
m
Ainsi, les valeurs prises par m sont positives et strictement décroissantes à chaque itération de la boucle (car 2 <m
pour tout entier strictement positif m) : ainsi, m fini par être nul et la boucle se termine.
Définition 3.2. Un variant de boucle est une quantité positive, à valeurs dans N, dépendant des variables de la boucle,
qui décroît strictement à chaque passage dans la boucle.
Dans l’exemple précédent, le variant de boucle est à peu près évident, et ce sera en général le cas pour nos
algorithmes. Prenons un autre exemple, si L est une liste, la boucle suivante permet de calculer de manière un peu
bête 2 la somme des éléments de L.
s=0
while L!=[]: #Tant que L est non vide
s+=L[0]
L=L[1:] #L[1:] est la liste constituée de tous les éléments de L, sauf le premier.
La boucle se termine lorsque la liste L est vide. La quantité qui décroît est ici la longueur de la liste L. Pour conclure
sur cette section, signalons qu’il n’est parfois pas du tout évident de montrer (ou d’infirmer) qu’une boucle termine.
Il est conjecturé que la fonction suivante termine quelle que soit l’entier strictement positif passé en argument, mais
personne n’a été capable de le prouver 3 ! Remarquez que la fonction en elle-même n’a aucun intérêt, c’est simplement
le fait qu’elle termine (ou non) quel que soit le paramètre respectant la spécification qui est intéressant.
def syracuse(n):
""" n entier strictement positif """
m=n
while m!=1:
if m%2==0:
m=m//2
else:
m=3*m+1
return 1
3.2 Correction
Pour montrer qu’un algorithme est correct, il s’agit de montrer que quels que soient les paramètres vérifiant sa
spécification, l’action de l’algorithme correspond à ce qui est attendu. Reprenons notre découpage en blocs. Pour
montrer la correction de l’algorithme, il s’agit de montrer que chacun des blocs effectue une action bien précise. Pour
les blocs conditionnels (if, elif,...,else), il n’y a en général pas grand chose à dire de plus que le bloc lui-même. En
revanche, analyser les boucles for et while est essentiel, car l’action de ces boucles n’est pas forcément évidente en
première lecture. La notion essentielle pour montrer la correction des boucles est celle d’invariant de boucle 4 .
Définition 3.3. Un invariant de boucle est une propriété dépendant des variables de l’algorithme, qui est vérifiée à
chaque passage dans la boucle.
La définition précédente est un peu vague, mais on va donner une explication plus précise pour chacune des boucles
for et while, la situation étant légèrement différente.
while m>0:
#Inv
q,r=m//2,m%2
if r==1:
z*=y
y*=y
m=q
#Inv
2. En terme d’efficacité, cet algorithme est mauvais : chaque instruction L=L[1:] demande de recopier en mémoire tous les éléments de
la liste, sauf le premier. Cela a un coût très important !
3. C’est la fameuse conjecture de Syracuse, toujours ouverte.
4. À ne pas confondre avec le variant de boucle...
for i in range(n):
[instructions qui ne modifient ni i, ni n]
ce qui signifie que i prend successivement les valeurs 0, 1, 2, jusqu’à n − 1. On autorisera aussi range(m,n), ce qui
fait que i commence à m. Ce qu’on va dire s’étend naturellement aux boucles de la forme for i in range(m,n,p)
avec un pas p différent de 1. Python autorise également la formulation for x in L, où L est une liste (L peut être un
itérateur quelconque, comme range(n)). Dans ce cas on peut également parler d’invariant mais c’est plus complexe :
en pratique il est nécessaire de faire appel à l’indice de x dans la liste : finalement on se ramène à une boucle de la
forme for i in range(len(L)) et accès aux éléments via L[i].
Le tableau suivant présente une boucle while équivalente à une boucle for. L’invariant de la boucle while, qui a
priori dépend de i (donc noté Invi dans la suite), est identique dans la boucle for. Les différences sont les suivantes
(pour une boucle sur range(n)) :
— on montre que Inv0 est vraie avant la boucle ;
— on montre de la même façon que si la propriété est vraie en haut du corps de la boucle, elle l’est en bas du corps
de boucle. Seulement, puisque le passage i=i+1 est effectué tout seul par la boucle for, on montre dans celle-ci
que pour tout i ∈ {0, . . . , n − 1}, si Invi est vraie en haut du corps de la boucle, Invi+1 est vraie en bas du corps
de boucle.
— On conclut en sortie de boucle que Invn−1+1 = Invn est vrai.
Boucle while Boucle for équivalente
i=0 #Inv(0)
#Inv(0) for i in range(n):
while i<n: #Inv(i)
#Inv(i) [instructions qui ne modifient ni i, ni n]
[instructions qui ne modifient ni i, ni n] [les mêmes que dans le while]
i+=1 #Inv(i+1)
#Inv(i) #Inv(n)
#Inv(n)
Comme notre fonction somme est correcte, on en déduit par exemple la correction de la fonction moyenne qui suit,
prenant en entrée une liste que l’on suppose non vide : il suffit de sommer les éléments et de diviser par le nombre
d’éléments.
Calcul de la moyenne des éléments d’une liste
def moyenne(L,x):
""" La fonction prend en entrée une liste non vide L de flottants ou d'entiers,
et retourne la somme de ses éléments"""
assert not L==[],"la liste est vide !"
return somme(L)/len(L)
Il faut savoir adapter cet algorithme si l’on recherche le minimum, ou encore l’indice du maximum, etc...
Terminons cette section par la recherche d’un élément dans une liste, ce qui nous permet de préciser un point :
si dans la boucle se trouve une instruction de sortie (return par exemple) : on ne tient plus vraiment compte de
l’invariant. Dans l’algorithme qui suit, on cherche si x se trouve dans la liste L. Si on trouve un indice i tel que
L[i]==x, on sort immédiatement de la fonction en renvoyant True, ce qui est correct. Sinon, l’invariant est vérifié en
bas de la boucle.
Algorithme de recherche dans une liste
def recherche(L,x):
""" La fonction prend en entrée une liste L et un élément x,
et retourne True si x est dans L, False sinon."""
for i in range(len(L)):
#Inv(i): x ne se trouve pas dans L[0:i].
if L[i]==x:
return True
#Inv(i+1)
return False
Notez que si l’on sort de la boucle, (sans être sorti de la fonction avec return), cela signifie que Inv(len(L)) est
vrai : x ne se trouve pas dans L[0:len(L)]=L. On renvoie alors False et la fonction est correcte.
— La terminaison de l’algorithme repose sur celle de la boucle while : la quantité d − g est à valeurs dans N et
décroît strictement à chaque itération de la boucle : l’algorithme termine.
— La correction repose elle aussi sur celle de la boucle while. On se rend compte facilement qu’elle admet l’invariant
indiqué : si L[m] est égal à x, on renvoie simplement True et la fonction est correcte. Sinon, si L[m]<x, comme
la liste est triée cela signifie que x ne peut se trouver qu’à un indice strictement supérieur à m et strictement
inférieur si L[m]>x.
— Après la boucle, comme g ≥ d (en fait, g = d), l’invariant assure que x ne se trouve ni dans L[0:g] ni dans
L[d:len(L)] donc en fait pas dans L. On renvoie False et la fonction est correcte.
3.3 Complexité
3.3.1 Introduction et tri par sélection
On sait maintenant prouver que nos algorithmes terminent et renvoient le bon résultat. La dernière question est
la suivante : quel temps mettent-ils à s’exécuter ? À titre introductif, le tableau qui suit présente le temps en secondes
du calcul de 5n pour différents n (une puissance de 10), avec les algorithmes expo et exo_rapide présentés plus haut.
Les tests ont été réalisés sur la même machine, et les deux algorithmes calculent la même chose. Comment expliquer
la différence d’efficacité entre le premier et le second lorsque n commence à être un peu grand ? Comptons simplement
le nombre de multiplications nécessaires à chacun des algorithmes, en fonction de n. L’algorithme expo réalise une
multiplication à chaque tour de boucle for, donc n au total. Pour l’algorithme d’exponentiation rapide, c’est un peu
plus compliqué, et on va simplement donner une majoration. Au pire, l’algorithme effectue deux multiplications à
chaque passage de la boucle while. Le nombre de tours de boucle effectués correspond au nombre de chiffres de n
dans la base 2, qui est de l’ordre de ln(n) 2 ln(n)
ln(2) (ceci est expliqué plus bas), on fait donc de l’ordre de ln(2) multiplications.
Prenons un deuxième exemple, le tri d’une liste. On se donne une liste, composés d’entiers ou de flottants (ou
plus généralement d’éléments que l’on peut comparer avec <=, comme les chaînes de caractères par exemple), et on
désire trier la liste, dans l’ordre croissant. Les algorithmes de tri sont au programme de deuxième année, mais voyons
quand même l’un des plus simples, le tri par sélection. L’idée consiste à parcourir la liste pour repérer l’élément le
plus petit, qu’on vient placer (par un échange) en première position dans la liste. On recommence le procédé à partir
de la deuxième case de la liste pour trouver le plus petit élément dans la portion restante, que l’on vient placer en
deuxième position, et ainsi de suite. Suivant cette idée, l’algorithme s’obtient facilement à l’aide de deux boucles for.
Le code Python est donné ci-dessous.
def tri_selection(L):
n=len(L)
for i in range(0,n-1):
#Inv(i): L[0:i] est trié et ses éléments sont plus petits que les autres éléments de L.
imin=i
minimum=L[i]
for j in range(i+1,n):
#Inv2(j): minimum=L[imin] est le plus petit élément de L[i:j].
u=L[j]
if u<minimum:
imin=j
minimum=u
#Inv2(j+1)
if imin!=i:
L[i],L[imin]=L[imin],L[i]
#Inv(i+1)
On laisse en exercice le soin de vérifier que les invariants de boucle sont corrects, et en déduire que l’algorithme trie
bien la liste. Remarquez que la fonction ne renvoie rien : la liste est triée en place (et la fonction travaille par effets de
bords). Le graphique qui suit montre le temps d’exécution sur des listes de tailles variables (entre 100 et 2000, par pas
de 100), pour trier une liste constituée d’entiers tirés aléatoirement dans l’intervalle [[0, 10000]] (les tests sont effectués
plusieurs fois, on présente une moyenne).
0.25 0.25
Tri par sélection n 7→ a · n2 + b · n + c
0.2 0.2
0.15 0.15
secondes
secondes
0.1 0.1
5 · 10−2 5 · 10−2
0 0
0 500 1,000 1,500 2,000 0 500 1,000 1,500 2,000
n n
Figure 3.2 – Temps pour trier une liste de taille n et approximation par une fonction polynomiale.
On remarque que le temps de calcul coïncide (approximativement) avec la fonction polynômiale de degré 2 donnée
par x 7→ ax2 + bx + c, avec a = 6.01 × 10−8 , b = −1.25 × 10−6 et c = 1.72 × 10−3 . Les constantes (en particulier a),
dépendent de la machine utilisée, ici il s’agit de mon ordinateur personnel. Avec un super-calculateur de la NSA, on
aurait eu un coefficient dominant beaucoup plus faible. On peut aussi effectuer cet algorithme à la main, sur papier,
avec un crayon à papier et une gomme : dans ce cas a risque d’être assez élevé. Ce qui est important, c’est que le
temps de calcul semble varier comme un polynôme de degré 2 en n, ce qui est inhérent à l’algorithme et non pas au
langage dans lequel il est écrit, à l’implémentation ou encore à la machine sur laquelle il est exécuté. Pouvions nous
prévoir ceci ? La réponse est oui.
Dans la boucle for interne, on exécute un nombre constant d’opérations élémentaires (comparaisons, affectations),
donc le temps d’exécution de la boucle interne peut-être majoré par une constante ci . Ces opérations sont effectuées
n − i − 1 fois. Outre cette boucle for interne, la boucle externe réalise un nombre constant d’opérations élémentaires,
dont le temps total peut-être majoré par une constante ce . En plus de la boucle for externe, l’algorithme réalise
également quelques opérations élémentaires (affectation, entrée, sortie), dont le temps est également majoré par une
constante ca . Finalement, le temps d’exécution de l’algorithme est majoré par :
n−2 n−1 n−2
X X X n(n − 1)
ca + ce + ci = ca + (n − 1)ce + ci (n − 1 − i) = ca + (n − 1)ce + ci
i=0 j=i+1 i=0
2
En développant, on retrouve bien un polynôme de degré 2. On pourrait de même minorer le temps total par une
fonction similaire, ce qui explique le comportement quadratique du tri.
Définition 3.4. La complexité est la mesure de l’efficacité d’un programme pour un type de ressources :
— complexité temporelle : temps de calcul.
— complexité spatiale : espace mémoire.
En pratique, la complexité temporelle est plus importante que la complexité spatiale. L’étude de la complexité
d’une fonction consiste à estimer son coût en ressource en fonctions des entrées. Pour différencier deux entrées entre
elles, on compare en général leur taille. Essentiellement pour nous, les entrées seront constituées d’entiers, de flottants
ou de listes. Pour les listes, la donnée pertinente est la taille. Pour les entiers, cela dépend du contexte. Pour un entier
n, on peut en effet exprimer la complexité d’une fonction dépendant de n en fonction :
— de l’entier n lui-même.
— ou de son nombre de chiffres (sa taille), correspondant à log2 (n) (car l’entier est représenté en binaire). Notez
que la base du log ne compte pas vraiment, on verra qu’on ne tient en général pas compte des constantes
multiplicatives.
Le choix dépendra en général du contexte : par exemple pour exprimer la complexité d’une fonction qui renvoie
l’écriture en base 2 d’un nombre exprimé en base 10, on se dirigerait plus naturellement vers log2 (n). Pour calculer
n! mod q où q est un nombre fixé, la donnée pertinente est n lui-même. À notre niveau, même si l’on manipule des
entiers dont la taille peut varier, on ne tiendra en général pas compte de leur taille.
Coûts. Concentrons-nous d’abord sur la complexité en temps. L’exécution d’un algorithme est une séquence d’opé-
rations nécessitant plus ou moins de temps. Pour mesurer ce temps, on considère certaines opérations comme élé-
mentaires : par exemple faire une opération arithmétique de base (addition, multiplication, soustraction, division...),
lire ou modifier un élément d’une liste, ajouter un élément à la fin d’une liste, affecter un entier ou un flottant, etc...
Estimer le coût en temps d’une fonction sur une entrée de taille donnée signifie estimer le nombre de ces opérations
élémentaires effectuées par la fonction sur l’entrée. La complexité en mémoire consiste à estimer la mémoire nécessaire
à une fonction pour son exécution, en plus de celles des entrées.
Complexité dans le pire cas. Considérons le problème de rechercher un élément dans une liste. Que ce soit dans
l’algorithme de recherche dans une liste non triée ou de recherche dichotomique dans une liste triée, il se peut que
l’on tombe tout de suite sur l’élément : dans ce cas le nombre de d’opérations effecuées par l’algorithme est constant.
Pour comparer deux algorithmes, le plus intéressant est en général de comparer ce qu’il se passe dans le pire cas, c’est
à dire la complexité maximale obtenue sur un jeu de paramètres de taille fixée respectant la spécification. Pour le
problème de la recherche dans une liste, cela correspond par exemple au cas où l’élément cherché n’est pas dans la
liste. À l’occasion (plutôt en deuxième année), on pourra comparer deux algorithmes vis à vis du meilleur cas, et du
cas moyen, ce dernier requérant une distribution de probabilités sur les entrées possibles. Pour le problème du calcul
de xn en fonction de n (et x), il n’y a ici qu’un seul cas à considérer.
Complexité asymptotique et notations de Landau. Supposons pour simplifier que l’algorithme dont on veut
calculer la complexité ne prenne qu’un seul paramètre en entrée. Tout d’abord, lorsque l’on s’intéresse à la complexité
C(n) (n est la taille de l’entrée) d’une fonction, c’est bien souvent pour les grandes valeurs de n qu’il est pertinent de
connaître C(n), pour comparer vis à vis d’autres fonctions réalisant le même calcul. On cherche donc un comportement
asymptotique de n, qu’on rapportera aux fonctions usuelles : logarithmes, puissances, exponentielles... Ensuite, on ne
cherchera pas systématiquement un équivalent : celui-ci est souvent difficile à obtenir et n’est pas le plus important. Si
2
deux fonctions nécessitent respectivement environ 9n ln(n) et n2 opérations élémentaires, on retiendra que la première
nécessite de l’ordre de n ln(n) opérations, ce qui est bien meilleur que la seconde qui en requiert de l’ordre de n2 .
Rappelons les notations de Landau. Soit f et g deux fonctions N → R∗+ . On note :
— f (n) = O(g(n)), si il existe un entier n0 tel que g(n) est non nul pour n ≥ n0 et fg(n) (n)
est bornée.
n≥n0
Maintenant que nous avons le bagage mathématique nécessaire, expliquons comment estimer la complexité d’une
fonction. On explique ici comment obtenir une majoration (notation O), ce qui sera notre préoccupation principale
lorsque l’on parlera de complexité.
— Les opérations d’affectations, entrée/sortie de fonctions, opérations arithmétiques élémentaires... sont comptées
avec un coût constant (qu’on note O(1).)
— La complexité d’une boucle est égale à la somme des complexités de chaque tour de boucle. On peut en particulier
majorer cette complexité par le nombre de tour de boucles multiplié par la complexité maximale d’un tour de
boucle. En général cela est suffisant pour estimer correctement la complexité, mais attention toutefois, parfois
cela conduit à la surestimer.
— La complexité d’une disjonction conditionnelle if,elif,...,elif,else est majorée par le maximum des com-
plexités de chaque cas.
— L’appel à une fonction compte comme le coût de cette fonction sur les paramètres avec lesquels elle est appelée :
attention à ne pas oublier ces coûts !
Le logarithme en base 2. Vous savez que ln est la fonction réciproque de exp, définie par ln(ex ) = x pour tout
x > 0. Pour a > 1, on définit la fonction x 7→ ax par ax = exp(x ln(a)). Sa fonction réciproque est donc x 7→ ln(x)
ln(a) , que
l’on note usuellement loga (prononcer« log en base a »). En chimie, le logarithme en base 10 est utilisé pour définir le
pH, en informatique c’est le logarithme en base 2 qui est le plus utilisé. La figure 3.3 présente les logarithmes usuel,
en base 2 et en base 10. Une propriété du logarithme en base 2 est la suivante : si x vérifie 2n ≤ x < 2n+1 − 1, alors
n ≤ log2 (x) < n + 1, donc n = blog2 (x)c. Autrement dit, un nombre entier strictement positif x nécessite 1 + blog2 (x)c
bits pour être représenté sur entiers naturels.
Algorithmes linéaires. Les algorithmes de recherche dans une liste ou de calcul de la somme des éléments d’une liste
ont une complexité O(n), où n est la taille de la liste. En effet, ces algorithmes sont basés sur une boucle for exécutée
n fois, qui consiste à parcourir la liste. C’est pareil pour le calcul de la moyenne des éléments d’une liste, puisqu’on
ne fait qu’un nombre fini d’opérations élémentaires en plus de l’appel à la fonction somme. De même, l’élévation à la
puissance de façon naïve a un coût de O(n) opérations élémentaires (en fait exactement n multiplications)
Algorithme d’exponentiation rapide. Cet algorithme de calcul de xn effectue autant de tours de boucle que n
a de chiffres en binaire, et chaque tour de boucle se fait avec une complexité constante. On en déduit une complexité
O(log2 (n)). Remarquez que la base du logarithme importe peu car les logarithmes dans deux bases distinctes ne
diffèrent que d’une constante multiplicative, ignorée par la notation O, on peut donc noter la complexité O(log n) sans
préciser la base.
Algorithme de recherche dichotomique dans une liste triée. Là aussi chaque tour de boucle se fait avec une
complexité constante, il reste à estimer le nombre de tours de boucle effectués. Notons n la taille de la liste et di et
gi les valeurs des variables d et g après i tour de boucle, et ti = di − gi . Initialement, d0 = n et g0 = 0, donc t0 = n.
Distinguons les cas :
j k
— si d prend la valeur m après un tour de boucle supplémentaire, on a di+1 = di +g 2
i
≤ di +g
2
i
et gi+1 = gi , donc
di −gi ti
ti+1 = di+1 − gi+1 ≤ 2 = 2 ;
j k
di +gi di +gi +1 gi +di
— si g prend la valeur m + 1 après un tour de boucle supplémentaire, on a gi+1 = 1 + 2 ≥ 2 (car 2
est un entier ou un demi-entier) et di+1 = di , donc ti+1 ≤ di −g2i −1 ≤ t2i ;
Ainsi, on vérifie aisément par récurrence que tk ≤ 2nk , et ce terme est donc nul pour k > log2 (n). Comme la boucle
s’arrête lorsque d − g = 0, on conclut que le nombre d’opérations effectuées est O(log n).
il existe un indice i entre 0 et len(s)-len(m) (inclus), tel que pour tout j entre 0 et len(m)-1, s[i+j] est égal
à m[j].
On voit se dessiner une idée d’algorithme : il suffit de faire parcourir à i toutes les valeurs entre 0 et len(s)-len(m),
et ensuite incrémenter un compteur j commençant à 0, tant que s[i+j] est égal à m[j]. Si j atteint len(m), on a
trouvé un tel motif, sinon on recommence avec le i suivant. Voici le code Python correspondant à cette idée :
Algorithme de recherche de motif dans une chaîne de caractères
def recherche_motif(m,s):
""" La fonction prend en entrée deux chaînes de caractères m et s,
et retourne True si m apparaît comme sous-chaîne de s, False sinon."""
lm=len(m)
ls=len(s)
for i in range(0,ls-lm+1):
#Inv(i): m n'apparaît pas comme motif de la sous-chaîne s[0:i+lm-1]
j=0
#Inv2: Les sous-chaînes m[0:j] et s[i:i+j] sont égales
while j<lm and m[j]==s[i+j]:
#Inv2
j+=1
if j==lm:
return True
#Inv(i+1)
return False
Montrons que l’algorithme est correct. On notera `m et `s les longueurs des chaînes m et s.
Tout d’abord, on n’essaiera jamais d’accéder à un élément d’une chaîne au delà de sa longueur : en effet, on essaie
d’accéder à m[j] que si j < `m , en vertu du caractère paresseux du and : si j < `m est faux (donc j ≥ `m ), alors
on n’a pas besoin d’évaluer m[j]==s[i+j]. De même, on n’accède à s[i+j] qu’avec i < `s − `m + 1 et j < `m donc
i + j < `s .
L’algorithme termine bien, car la boucle while interne termine à chaque fois : `m − j est une quantité qui reste
positive et décroît strictement à chaque passage dans la boucle.
L’invariant proposé pour la boucle while interne est correct : il est vrai avant la boucle puisque les chaînes m[0:0]
et s[i:i] sont vides. Si on est encore dans la boucle cela signifie que les deux chaînes considérées coïncident sur un
caractère supplémentaire.
Pour la boucle externe, l’invariant proposé est correct car il repose sur l’invariant de la boucle while. En sortie de
boucle while, l’invariant est vrai : si j = `m alors m est un motif de s (en effet, m=s[i:i+lm]), et on renvoie True, donc
la sortie de la fonction est correcte. Sinon, on est sorti de la boucle while parce que m[j] était différent de s[i+j] et
m et s[i:i+lm] ne coïncide pas, et l’invariant est vrai en bas de la boucle.
Ainsi, si l’on atteint le bas de la boucle for, cela signifie que m n’apparaît pas comme motif de s[0:ls-lm+1+lm-1]
qui est égal à s[0:ls] donc à s. On renvoie False et la fonction est correcte.
Examinons le coût de la fonction : la boucle while interne réalise au plus `m tours de boucle à chaque étape.
La boucle for fait exactement (`s − `m + 1) étapes (si `s ≥ `m , sinon 0), on en déduit une complexité totale de
O(1 + `m (`s − `m + 1)) (le 1 devant est fait pour que la formule soit vraie même si `m = 0, dans ce cas on ne fait pas
grand chose mais le coût n’est pas nul). On peut majorer cette complexité par O(1 + `m `s ).
Remarque : Une remarque pour terminer. En Python, il est tout à fait possible de calculer la somme des éléments
d’une liste, faire une recherche dans une liste, trier une liste, chercher un motif... à l’aide des commandes suivantes. Il
faut avoir à l’esprit que ce ne sont pas opérations élémentaires, et ne pas oublier qu’elles cachent un travail important
pour le processeur 5 !
5. La commande x in L est une recherche linéaire dans la liste. Le lecteur intéressé pourra vérifier que notre algorithme de recherche
dichotomique est bien plus efficace sur une liste triée que l’instruction Python x in L, sur des listes assez grosses (j’obtiens un facteur
10000 dans le temps d’exécution sur une liste de taille 107 ). Il ne faut pas croire qu’une instruction d’une ligne s’exécute rapidement !
On peut utiliser également une fonction Python pour la recherche dichotomique, avec une légère modification d’une
fonction importée du module bisect.
Algorithme de recherche dichotomique (Python)
import bisect
def cherche_dicho_Python(L,x):
i=bisect.bisect_left(L,x)
return i<len(L) and L[i]==x
Deuxième partie
Analyse numérique
Chapitre 4
Puisque les réels ne sont représentés en machine que sous la forme de flottants, ils ne sont connus que de manière
approchée. De plus, la somme ou le produit de deux flottants est également approchée. On va voir dans ce chapitre
comment les erreurs se propagent, et on étudiera par l’exemple les phénomènes d’instabilité numérique, en essayant
de voir comment limiter les effets néfastes de l’approximation.
où les Mi ∈ {0, 1} sont les bits de la mantisse, stockés de manière contigue. L’exposant (décalé) et le signe sont
également représentés en interne, contrairement au 1 précédant la mantisse. La finitude de m (nombre de bits de la
mantisse) implique que les réels ne sont représentés que de manière approchée. Pour x un réel non nul qui n’est ni
trop grand, ni trop petit en valeur absolue (pour que l’exposant associé à son développement en base 2 tienne sur le
nombre de bits alloués), en considérant x̃ le flottant le plus proche, on s’aperçoit que :
• x − x̃ est compris entre −1/2 × 2−m × 2E et +1/2 × 2−m × 2E , donc n’est connu qu’à ∆x = |x − x̃| ≤ 2−m−1 × 2E
près. Cette quantité s’appelle la précision absolue avec laquelle est connue x.
−m−1
• Pour raisonner dans les calculs, ce qui est important est la précision relative, à savoir ∆x
|x| ≤ 2 : on note que
la précision relative ne dépend pas de l’exposant, ainsi simplement doubler un nombre ne change pas la précision
relative avec laquelle il est connu.
Dans la suite, on notera ε = 2−m−1 cette précision relative. Donnons deux valeurs :
• Pour des flottants représentés sur 32 bits, on a 23 bits de mantisse, donc une précision relative 2−24 ' 6 × 10−8 ;
• pour des flottants représentés sur 64 bits, on a 52 bits de mantisse, donc une précision relative 2−53 ' ×10−16 ;
valeur absolue de la différence entre la « vraie » somme x + y et le résultat calculé sous forme de flottant x]
+ y, on a
∆(x + y) ≤ ε(|x| + |y|), avec ε la précision relative.
Démonstration. Admise.
Il n’est pas dur de se convaincre que la précision relative multipliée par la somme des valeurs absolues majore
l’erreur : pour effectuer la somme, on décale le plus petit pour réaliser l’opération bit par bit : on perd juste les bits
les moins significatifs, comme en base 10 :
Faisons l’addition de 123.4567 et 45.67834 avec 7 chiffres significatifs :
1 2 3 . 4 5 6 7
4 5 . 6 7 8 3 4
1 6 9 . 1 3 5 0 4
Le dernier chiffre sur 7 chiffres significatifs est perdu, on a donc une erreur de 4 × 10−5 . Or ici, avec 7 chiffres
significatifs, on a une précision relative de 5 × 10−7 (on a seulement 6 chiffres de mantisse), et 169.13504 × 5 × 10−7 '
8.4 × 10−5 majore bien l’erreur commise.
Cumulation d’erreurs. En général, lorsqu’on effectue des calculs en série, les opérandes x et y eux-mêmes ne sont
connus qu’à ∆x et ∆y près. On effectue donc la somme x0 + y 0 avec |x0 − x| = ∆x et |y 0 − y| = ∆y. L’erreur sur
cette somme est majorée par ε(|x0 | + |y 0 |) ≤ ε(|x| + |y| + ∆x + ∆y). En négligeant les termes de la forme ε∆x, on
obtient que l’erreur entre le résultat obtenu en effectuant x0 + y 0 par rapport à la « vraie » somme x + y se majore par
ε(|x| + |y|) + ∆x + ∆y.
PN
Somme sur plusieurs termes. Considérons ici une somme i=1 ui de termes positifs, qu’on cherche à estimer.
On peut (mathématiquement) sommer dans n’importe quel sens, mais qu’en est-il sur des flottants ?
Supposons que l’on somme dans l’ordre « naturel » ici. On effectue donc les opérations sk = uk + sk−1 avec
Pk
sk = i=1 ui . D’après la proposition précédente, on a donc une erreur sur sk qui est majorée par εsk (les termes sont
supposés positifs).
Ainsi, l’erreur cumulée est majorée par
n
X
εsk = ε((n − 2)u1 + (n − 2)u2 + · · · + un )
k=2
(la somme commence à 2 car s1 = u1 est sans erreur). On en déduit un principe simple :
Lorsqu’on effectue une somme de plusieurs termes, il est préférable de sommer d’abord les
termes les plus petits en valeur absolue.
P+∞ k
Exemple. Illustrons ceci par un exemple. Vous savez peut-être que exp(x) = k=0 xk! . Cette série converge très
PN xk
vite vers sa limite, donc pour N assez grand, k=0 k! donne une bonne approximation. On définit ci-dessous deux
fonctions exponentielles, faisant la somme jusqu’à 100. C’est largement suffisant pour dépasser la précision relative
2−52 si on ne s’éloigne pas trop de 0, on devrait donc calculer le flottant le plus proche de exp(x) de manière exacte.
Dans un sens, et dans l’autre
from math import factorial,exp
def exp_1(x):
s=0
for i in range(101):
s+=x**i/factorial(i)
return s
def exp_2(x):
s=0
for i in range(100,-1,-1):
s+=x**i/factorial(i)
return s
Comparons les deux fonctions avec la valeur donnée par Python pour e :
>>> exp(1)-exp_1(1)
-4.440892098500626e-16
>>> exp(1)-exp_2(1)
0.0
Dans la deuxième somme, on a sommé les termes les plus petits en premier : ceux de « la fin » de la série. Cet
exemple n’est pas forcément le plus pertinent car on reste quand même très proche de la précision relative. Prenons
en un autre.
Pn n(n+1)(2n+1)
Exemple. Vous savez probablement 1 que k=1 k2 = 6 . Là encore, on peut sommer les termes indiffé-
remment dans un sens ou dans l’autre.
def somme(n):
s=0.
for i in range(1,n+1):
s+=i*i
return s
def somme2(n):
s=0.
for i in range(n,0,-1):
s+=i*i
return s
def somme_exacte(n):
return n*(n+1)*(2*n+1)//6
Remarquez le s=0. dans chacune des deux fonctions, pour forcer Python à travailler avec des flottants (si on avait
mis s=0, il aurait travaillé avec des entiers, représentés de manière exacte...). Comparons la sortie des deux fonctions
de sommation avec la formule exacte (qui donne le résultat exact, puisque c’est un entier) :
>>> N=10000000
>>> somme(N)-somme_exacte(N)
382074880.0
>>> somme2(N)-somme_exacte(N)
920649728.0
L’erreur reste du même ordre de grandeur, mais on est là aussi plus précis lorsqu’on somme les plus petits termes
d’abord (ce qui correspond à somme).
Pn
Exemple. Un dernier exemple : on sait que k=1 1/k = ln(n) + γ + o(1), où γ est une constante 2 . Comparons
n→+∞
encore la précision obtenue suivant l’ordre de sommation, en comparant avec la valeur γ ' 0.5772156649015328606
donnée par Wikipedia. Pour ne pas avoir à sommer trop de termes, on se limite à une représenation sur 32 bits, que
l’on peut avoir en travaillant explicitement avec des flottants 32 bits de Numpy (format float32).
import numpy as np
def approx_gamma(n):
s=np.float32(0.)
for i in range(1,n+1):
s+=np.float32(1/i)
return s-log(n)
def approx_gamma2(n):
s=np.float32(0.)
for i in range(n,0,-1):
s+=np.float32(1/i)
return s-log(n)
gamma=0.5772156649015328606
>>> approx_gamma(10**6)-gamma
-0.035368244045005715
>>> approx_gamma2(10**6)-gamma
-7.4664943443214504e-05
Cumulation d’erreurs. De même qu’avec la somme, si x et y ne sont connus que de manière approchée à ∆x
et ∆y près, alors en négligeant les termes de la forme ∆x∆y ou ε∆x (qui sont « d’ordre 2 »), on obtient ∆(xy) ≤
|y| ∆x + |x| ∆y + ε |xy|.
Erreur sur le produit. Pour des réels (xi )1≤i≤n représentés sans erreurs, on montre facilement comme pour la
somme que l’erreur commise sur le produit est ∆(x1 · · · xn ) ≤ (n − 1)ε |x1 · · · xn |. Cette estimation ne dépend pas de
l’ordre choisi pour les facteurs !
>>> 1+10**-15-1
1.1102230246251565e-15
Rappelons que l’évaluation se fait de gauche à droite pour l’opérateur +. Lors du calcul de 1 + 10−15 , on perd
beaucoup d’information sur le 10−15 , qui est très proche de la précision relative ε (on travaille sur 64 bits). On
soustrait ensuite 1, très proche de 1 + 10−15 , pour obtenir une erreur de plus de 10% sur le résultat théorique 10−15 .
Exemple. Évaluation du nombre dérivé. On va prendre l’exemple de la fonction f : x 7→ exp(x), dont on souhaite
estimer le nombre dérivé en 1. On le connaît : c’est e lui même ! Mais chercher une approximation va nous permettre de
vérifier l’erreur commise. On approche donc e = exp0 (1) par ϕ(h) = exp(1+h)−e
h , et il faut choisir h petit pour estimer
précisément exp0 (1). Mathématiquement, on a intérêt à prendre h le plus petit possible, mais ce n’est pas le cas en
informatique :
>>> def phi(h): return (exp(1+h)-e)/h
...
>>> phi(2**-52)
4.0
>>> e
2.718281828459045
Pour h plus petit, c’est encore pire, car exp(1 + h) et e sont indiscernables lorsqu’ils sont arrondis en flottants (sur
64 bits), on obtient donc 0. D’un point de vue informatique, on a intérêt à choisir h grand pour minimiser l’erreur
commise par la soustraction de deux flottants qui seraient trop proches :
>>> phi(0.001)
2.7196414225332255
On a déja trois chiffres significatifs en prenant 10−3 , mais pour savoir quel h est le meilleur, faisons une petite analyse
réalisant un compromis entre les deux erreurs.
h2 e ×h
• Comme exp(1 + h) ' e ×(1 + h + 2 ), l’erreur mathématique commise est de l’ordre de 2 ;
• D’un point de vue informatique, l’erreur commise dans la soustraction exp(1 + h) − e est majorée par ε(exp(1 +
h) + e) ' 2 e ε, donc on obtient une erreur d’approximation majorée par 2 he ε .
• On a donc intérêt à avoir e ×h 2eε
2 ≤ h (car la deuxième estimation n’est qu’une majoration de l’erreur, alors que
la première est un équivalent), les deux devant être assez proches. On obtient h2 ≤ 4ε, donc h ≤ 2−25.5 , car
ε = 2−53 . Essayons :
>>> e
2.718281828459045
>>> phi(2**-25)
2.7182818800210953
>>> phi(2**-26)
2.718281865119934
C’est mieux ! Le lecteur suspicieux pourra vérifier que notre raisonnement est très bon : ϕ(2−26 ) donne la valeur
de e la plus précise parmi les f (2−i ).
Remarques.
— Le h « optimal » dépend de la fonction à approcher, mais pas tant que ça : pour f une fonction deux fois dérivable
en x, dont on cherche à approcher f 0 (x) par la méthode ci-dessus, on trouve une erreur mathématique de l’ordre
de h2 |f 00 (x)| et une erreur informatique majorée par 2|f (x)|ε
h . Si |f 00 (x)| et |f (x)| sont de l’ordre de 1, on trouve
un h optimal sensiblement égal à celui trouvé pour exp.
— Pour approcher le nombre dérivé f 0 (x) d’une fonction f en x, une formule bien meilleure est f (x+h)−f
2h
(x−h)
,
car l’erreur mathématique est plus faible. On peut faire la même étude que précédemment avec la fonction
exponentielle, et trouver un h optimal :
>>> def f(h): return (exp(1+h)-exp(1-h))/(2*h)
...
>>> e
2.718281828459045
>>> f(2**-18)
2.7182818284491077
On essaiera au maximum d’éviter les sommations dans lesquelles des termes proches en
valeur absolue se compensent.
P+∞ k
Exemple. Reprenons notre calcul de l’exponentielle par la formule exp(x) = k=0 xk! , qu’on tronquera encore à
k = 100. On veut ce coup-ci calculer exp(−10) (le reste de la série est beaucoup plus petit que ε exp(−10), avec ε la
précision relative sur 64 bits).
P100 k
Dans la somme k=0 (−10) k! , les deux termes les plus grands en valeur absolue sont donnés pour k = 9 et k = 10,
10 9
avec (−10)
10! = − (−10)
9! ' 2755.731922398589. Comme exp(−10) est de l’ordre de 10−5 on a une perte de l’ordre de 9
chiffres significatifs si on évalue la somme telle quelle.
En effet, en reprenant la fonction exp_2 donnée plus haut :
>>> exp_2(-10)
4.5399929291534136e-05
>>> from math import exp ; exp(-10)
4.5399929762484854e-05
Là encore, le remède est simple et utilise le principe évoqué plus haut : on utilise simplement la relation exp(−x) =
1
exp(x) .
>>> 1/exp_2(10)
4.539992976248484e-05
Un calcul d’intégrale menant à une suite récurrente. On souhaite calculer une approximation numérique de
l’intégrale suivante :
1
xn dx
Z
In =
0 10 + x
Parmi plusieurs méthodes possibles, on peut chercher une relation de récurrence entre deux termes successifs de la
suite. On obtient facilement :
1 1
xn−1 (10 + x − 10) dx
Z Z
1 11 1
I0 = [ln(10 + x)]0 = ln et In = = xn−1 dx − 10In−1 = − 10In−1
10 0 10 + x 0 n
Observons la suite des valeurs données par Python avec ce calcul itératif, en supposant que l’on souhaite calculer
I18 de manière approchée :
I_0=0.09531017980432493
I_1=0.04689820195675065
I_2=0.031017980432493486
I_3=0.023153529008398455
I_4=0.018464709916015454
I_5=0.015352900839845474
I_6=0.013137658268211921
I_7=0.011480560175023635
I_8=0.010194398249763648
I_9=0.009167128613474629
I_10=0.008328713865253717
I_11=0.007621952256553738
I_12=0.00711381076779595
I_13=0.005784969245117427
I_14=0.013578878977397152
I_15=-0.06912212310730485
I_16=0.7537212310730486
I_17=-7.478388781318721
I_18=74.83944336874276
Si le calcul semble réaliste au début, cela devient très vite n’importe quoi. En effet, In est de manière évidente
compris entre 0 et 1/10. Bien que la récurrence soit mathématiquement correcte, on peut expliquer ce comportement
désastreux. Même en supposant que les 1/n soient calculés exactement, on s’aperçoit qu’une erreur (absolue) sur In−1
est multipliée par 10 lors du calcul de In .
1 1
Un remède simple ici consiste à renverser la récurrence, en utilisant plutôt la relation In−1 = 10 n − In . Il faut
donc partir de plus loin, si l’on souhaite obtenir I18 . Pour ce faire, il nous faut une approximation de In qu’on peut
calculer assez grossièrement :
1
xn dx
Z
1
In ' =
0 10 10(n + 1)
En partant de I35 ' 1/360, on obtient :
I_35=0.002777777777777778
I_34=0.0025793650793650793
I_33=0.0026832399626517275
I_32=0.002761979034037858
I_31=0.0028488020965962146
I_30=0.002940926241953282
I_29=0.0030392407091380056
I_28=0.0031443517911551653
I_27=0.003256993392313055
I_26=0.003378004364472398
I_25=0.0035083534097066064
I_24=0.0036491646590293397
I_23=0.0038017502007637325
I_22=0.003967651066880149
I_21=0.004148689438766531
I_20=0.004347035818028109
I_19=0.0045652964181971895
I_18=0.004806628252917123
Remarquez que quad fournit également un terme d’erreur. On est donc très précis avec notre renversement de récur-
rence. Comme ici, l’erreur sur In−1 est à peu près celle sur In divisée par 10 (sans compter l’approximation sur 1/n),
on obtient théoriquement une valeur de I18 à 10−17 près. On aurait pu estimer beaucoup plus grossièrement le terme
de départ, à condition de partir d’un peu plus loin : on obtient le même résultat sur I18 en partant de l’approximation 4
I50 ' 1020 .
Suites définies par une relation de récurrence de la forme un+1 = f (un ). Dans la même veine que l’étude
précédente, on peut se demander comment évoluent les erreurs dans un calcul d’une suite (un ) définie par une récurrence
de la forme un+1 = f (un ). Donnons une estimation de l’erreur relative ∆u n+1
|un+1 | d’un terme en fonction du précédent.
Si x̃ et proche de x, alors f (x̃) ' f (x) + f 0 (x)(x̃ − x). L’erreur absolue est donc multipliée par |f 0 (x)|. Ce qui nous
intéresse est plutôt l’erreur relative, qu’on calcule comme suit :
|f (x) − f (x̃)| xf 0 (x) ∆x
∆f (x)
' '
|f (x)| |f (x)| f (x) |x|
0
La quantité κ(x) = xff (x)
(x)
se nomme le conditionnement. Si, lors du calcul de termes de la suite (un )n∈N , on se
trouve dans un intervalle sur lequel κ(x) > 1, il faudra faire attention car les erreurs relatives seront dilatées.
4. Oui, c’est extrèmement grossier !
u0 = 2
u1 = 0.6931471805599453 κ(u0 ) = 1.4426950408889634
u2 = 0.36651292058166435 κ(u1 ) = 2.7284167729011495
u3 = 1.00372150430231 κ(u2 ) = 0.9962922939417376
u4 = 0.003714596637805006 κ(u3 ) = 269.2082337615291
u5 = 5.595485183341199 κ(u4 ) = 0.17871551210200434
u6 = 1.7219600553126855 κ(u5 ) = 0.5807335640073329
u7 = 0.5434632090539631 κ(u6 ) = 1.8400509608382805
u8 = 0.6097932673451253 κ(u7 ) = 1.6399000342423082
u9 = 0.49463528524799216 κ(u8 ) = 2.0216915974739575
u10 = 0.7039345854609151 κ(u9 ) = 1.4205865440539907
u11 = 0.3510698455206566 κ(u10 ) = 2.8484360384667697
u12 = 1.0467700852248318 κ(u11 ) = 0.9553196199576278
u13 = 0.04570931391055714 κ(u12 ) = 21.8773793445418
u16 = 0.11929171903512947 κ(u15 ) = 8.382811548767407
u24 = 1.0009714389923408 κ(u23 ) = 0.9990295037855239
u25 = 0.0009709674508406605 κ(u24 ) = 1029.9006409887409
De temps en temps, un est très proche de 1, et le conditionnement est grand. Si ici l’erreur est encore faible (le
produit des conditionnements rencontrés reste bien inférieur à 1016 ) ; très vite, les valeurs calculées ne seront plus
pertinentes. Malheureusement, il n’y a pas vraiment de solution au problème ici !
Chapitre 5
On souhaite ici résoudre numériquement des équations sur les réels. On se limite à des équations à une seule
variable, de la forme f (x) = 0, où f est une fonction qu’on supposera au minimum continue. On va principalement
décrire deux algorithmes pour résoudre cette équation :
— la méthode dichotomique, qui fonctionne à tous les coups, et permet d’avoir une précision (nombre de bits
significatifs) linéaire en le nombre d’itérations effectuées ;
— la méthode de Newton ; beaucoup plus efficace, car la précision double à chaque itération (on dit que la méthode
est quadratique). Malheureusement, les conditions suffisantes d’application de la méthode sont assez draconiennes
et pas forcément vérifiées en pratique.
Il existe en Python des fonctions du package numpy pour ces deux méthodes. Mais il est très intéressant de les
programmer en pratique, d’autant que c’est exigible aux concours.
5.1 Motivation
Vous connaissez déja des méthodes formelles de résolution d’équations sur les réelles, par exemple la résolution
des équations polynomiales de degré 2. Beaucoup d’exercices en classe préparatoire consistent à donner les solutions
explicites à des équations numériques impliquant les fonctions usuelles (fonctions trigonométriques, exponentielles et
logarithmes). Dans ce chapitre, on va travailler avec des méthodes de résolution approchée (numérique). Pourquoi
résoudre des équations avec des méthodes numériques ? Deux raisons à cela :
— premièrement, parce que dans les sciences expérimentales et numériques, les données ne sont pas connues avec
une précision infinie, il est donc inutile de chercher une solution exacte à nos équations : une solution approchée
convient très bien et s’obtient en général plus rapidement ;
— deuxièmement, il n’est pas toujours possible de résoudre formellement les équations. Par exemple, il est impossible
en général de résoudre formellement les équations polynomiales de degré supérieur ou égal à 5 1 . Et même si
il existe des méthodes formelles 2 pour résoudre les équations polynômiales de degré inférieur à 4, on peut
s’interroger sur la pertinence pratique de savoir que l’unique solution réelle de l’équation
def dichotomie(f,a,b,eps):
"""Retourne une approximation d'un zéro de f par la méthode de la dichotomie.
f supposée continue sur [a,b], à valeurs dans R, telle que f(a)f(b)<=0
Calcul x tel que x soit un zéro de f à eps>0 près."""
fa=f(a)
fb=f(b)
assert fa*fb<=0
#Inv: f(a)f(b)<=0
while b-a>2*eps:
m=(a+b)/2
fm=f(m)
if fa*fm<=0:
b,fb=m,fm
else:
a,fa=m,fm
return (a+b)/2
Correction. Admettons temporairement la terminaison de l’algorithme et montrons que la proposition f (a)f (b) ≤ 0
évoquée est bien un invariant de la boucle while :
— La proposition est vraie avant la boucle (on le suppose !)
— Si elle est vrai en haut de la boucle, alors on considère m = a+b2 . Si f (a)f (m) ≤ 0, alors on affecte la valeur m à
b, donc la proposition est vérifiée en bas de la boucle. Sinon, c’est que f (a)f (m) > 0. Mais alors f (m)f (b) est du
même signe que f (m)f (b) × f (a)f (m) = f (m)2 f (a)f (b) ≤ 0 (en effet, f (m)2 est positif). Par suite, en affectant
à a la valeur m, la proposition f (a)f (b) ≤ 0 est bien vérifiée en bas de la boucle.
Ainsi, f (a)f (b) ≤ 0 est un invariant de boucle, et est en particulier vrai après la boucle, donc f admet un zéro sur
l’intervalle [a, b]. Or, après la boucle, on a b − a ≤ 2ε, donc a+b
2 est à distance inférieure ou égale à ε d’un zéro de f .
L’algorithme renvoie donc bien une approximation d’un zéro de f à ε près.
√
Exemple. Prenons un exemple classique, le calcul approché de 2. En affichant les valeurs successives prises par m
dans le programme précédent, on obtient :
Terminaison et complexité. Dans la même veine que la recherche dichotomique dans un tableau trié, l’intervalle
sur lequel on travaille après k itérations de la boucle while est de longueur b−a 2k
(ici, les valeurs de a et b sont celles
passées en entrée de la fonction). On s’arrête lorsque b−a k ≥ log2 b−a − 1. Si ε = 2−p
2k
≤ 2ε, inégalité vérifiée pour ε
(pour avoir p bits significatifs), l’algorithme s’arrête dès que le nombre d’itération de la boucle atteint ou dépasse
p + log2 (b − a) − 1, ce qui montre du même coup la terminaison. Lorsque a et b sont fixés, il nous faut donc de l’ordre
de p étapes pour avoir p bits significatifs : on dit que la méthode est d’ordre 1. En supposant que chaque appel à f
ait un coût constant O(1), la complexité est donc en O(p).
La méthode de la dichotomie (bisection en anglais), est implémentée dans le sous-module scipy.optimize du
module scipy (pour scientific python). Les modules ne sont pas à connaître, mais il est bon de savoir que ça existe
déja !
y
f (a)
a0 a x
Il faut savoir écrire l’itération effectuée : la tangente à f en a a pour équation y − f (a) = f 0 (a)(x − a). Par suite,
son intersection avec l’axe des abscisses est donnée par x = a − ff0(a) (a) . La méthode de Newton avec un nombre fixé
d’itérations est alors très facile à écrire :
def Newton(f,g,x0,n):
"""Retourne une approximation d'un zéro de f par la méthode de Newton.
f: fonction dérivable.
x0: un point pas trop éloigné d'un zéro de f
g: dérivée de f
n: nombre d'itérations
La méthode marche en particulier si f C1, convexe sur un voisinage de x0,
de dérivée strictement positive."""
x=x0
for i in range(n):
x=x-f(x)/g(x)
return x
Dans le code précédent, g est la dérivée de f , donnée en paramètre, et N est le nombre d’itérations. Donnons√un
petit exemple : f : x 7→ x2 − 2. En partant du réel 5, on obtient en 6 itérations une très bonne approximation de 2.
Au départ, la convergence est un peu lente, mais très vite on double le nombre de chiffres significatifs à chaque étape.
Voici les itérations effectuées (on a ajouté un print dans la fonction) :
On atteint très vite la valeur calculée par Python, ce qui est remarquable ! Il est possible de démontrer qu’effecti-
vement la méthode donne rapidement une approximation d’un zéro de f sous certaines hypothèses.
Théorème 5.1. Soit f une fonction [a, b] → R, de classe C n sur [a, b], et n + 1 fois dérivable sur ]a, b[. Alors il existe
ξ ∈ [a, b] tel que :
n
X f k (a) (b − a)n+1 n+1
f (b) = (b − a)k + f (ξ)
k! (n + 1)!
k=0
Démonstration. Remarquons que pour n = 0, on obtient le théorème des accroissements finis. La preuve consiste
également à appliquer le théorème de Rolle à une fonction bien choisie. Puisque b 6= a, on peut choisir K tel que
n
X f k (a) (b − a)n+1
f (b) = (b − a)k + K
k! (n + 1)!
k=0
Pn f k (a) (x−a)n+1
Considérons maintenant la fonction Φ définie sur [a, b] par Φ(x) = f (x) − k=0 k! (x − a)k − (n+1)! K. Par le
0 (n)
choix effectué sur K, on a Φ(b) = 0. Mais on a aussi Φ(a) = Φ (a) = · · · = Φ (a) = 0. On peut donc appliquer n + 1
fois le théorème de Rolle à Φ, Φ0 , . . . , Φ(n) :
— il existe c1 ∈]a, b[ tel que Φ0 (c1 ) = 0 ;
— il existe c2 ∈]a, c1 [ tel que Φ00 (c2 ) = 0 ;
— ...
— il existe cn+1 ∈]a, cn [ tel que Φ(n+1) (cn+1 ) = 0 ;
En notant ξ = cn+1 ∈]a, b[, on a 0 = Φ(n+1) (ξ) = f (n+1) (ξ) − K. Donc K = f (n+1) (ξ) et on en déduit le théorème.
Lien avec l’itération de Newton. Notons z une solution de f (z) = 0, et appliquons la formule de Taylor-Lagrange
pour n = 1, en un point a quelconque, en supposant que f est de classe C 2 sur [a, b]. On obtient pour un certain ξ
entre z et a :
(z − a)2 00
0 = f (z) = f (a) + (z − a)f 0 (a) + f (ξ)
2
Maintenant, en supposant f 0 (a) non nul, et en notant N (a) le point obtenu par application de la méthode de Newton
depuis a, on peut quantifier la distance entre N (a) et z en fonction de celle entre a et z :
f (a) |(a − z)f 0 (a) − f (a)| |f (a) + (z − a)f 0 (a)| (z − a)2 |f 00 (ξ)|
|N (a) − z| = a − z − 0 =
= =
f (a) |f 0 (a)| |f 0 (a)| 2 |f 0 (a)|
00
f (ξ)
Si la quantité 2f 0 (a) reste bornée supérieurement par une constante strictement inférieure à 1 au cours des
itérations, la discussion précédente montre que la méthode de Newton converge vers un zéro de f , et ce rapidement,
pour peu que le point de départ soit suffisamment proche de z. Plus précisément, on a le théorème suivant :
Théorème 5.2. Soit I un intervalle fermé, et f une fonction définie sur I, de classe C 2 sur I, et où f 0 ne s’annule
pas. Supposons que z soit un zéro de f sur l’intervalle I. Soit M2 une majoration de |f 00 | et m1 > 0 une minoration
M2
de |f 0 | sur I. Alors, en posant K = 2m 1
, si x0 est un point de I vérifiant K|x0 − z| < 1, la méthode de Newton avec
n
point de départ x0 converge vers z. De plus, en notant (xn )n∈N la suite des itérés obtenus, K|xn − z| ≤ (K|x0 − z|)2 .
Démonstration. En reprenant la discussion précédente, on a, en notant N (a) le point obtenu à partir de a avec la
méthode de Newton :
(z − a)2 M2
|N (a) − z| ≤
2m1
M2
Posons K = 2m 1
, alors |N (a) − z| ≤ K(z − a)2 , ce qu’on peut aussi écrire K |N (a) − z| ≤ (K(z − a))2 . Par une
n
récurrence immédiate, il vient K |xn − z| ≤ (K |x0 − z|)2 .
Commentaire. Ce théorème et sa démonstration ne sont pas à connaître. Il faut simplement retenir que sous de
n
bonnes hypothèses, la méthode de Newton fonctionne, et est très efficace. De l’inégalité K|xn − z| ≤ (K|x0 − z|)2 , on
voit que log2 (|xn − z|) ≤ 2n log2 (K|x0 − z|) − log2 (K), ce qui signifie que la précision de l’approximation xn ' z est
de l’ordre de 2n bits. Contrairement à la méthode dichotomique (où pour p étapes, on a environ p bits significatifs),
ici pour p étapes, on en a de l’ordre de 2p : la convergence est très rapide ! On dit que la méthode est d’ordre 2.
Boucle while et condition d’arrêt. Il est possible de changer la boucle for en boucle while pour tester si on est
assez près d’un zéro de f . Pour cela, on peut prendre comme condition d’arrêt |f (a)| < ε ou encore que la distance
entre deux termes successifs est plus petite que ε. Mais attention, la méthode de Newton ne converge pas forcément !
Estimation de la dérivée. Si on n’a pas d’expression de la dérivée (ce qui arrive si f est le résultat d’un calcul
compliqué...), alors on peut remplacer le nombre dérivé de f en a par f (a+ε)−f ε
(a)
, avec ε petit, ou mieux encore par
f (a+ε)−f (a−ε)
2ε . La difficulté consiste à faire le bon choix sur ε : un petit ε apporte plus de précision, mais un trop petit
ε engendre de l’instabilité numérique car le numérateur est la différence de deux termes très proches. Le lecteur se
reportera au chapitre précédent pour avoir un « bon choix » de ε.
Méthode de la sécante. Une autre méthode consiste à se donner un deuxième point au départ x1 , et remplacer à
chaque étape f 0 (xn ) par f (xxnn)−f (xn−1 )
−xn−1 . Là encore, il ne faut pas pousser trop loin les itérations sous peine d’instabilité.
Cette dernière méthode a pour nom la méthode de la sécante, qui converge aussi vers un zéro de f si tout se passe
bien. La convergence est un peu moins rapide qu’avec la méthode de Newton, mais reste bien plus rapide qu’avec la
méthode dichotomique.
Fonctions à valeurs vectorielles. Contrairement à la méthode dichotomique, la méthode de Newton s’étend à des
fonctions de Rk → Rk (avec k ≥ 2), la dérivée étant remplacée par la différentielle 3 , qui se doit d’être inversible pour
que la méthode fonctionne.
En Python. La méthode de Newton s’effectue en Python avec la fonction fsolve du package scipy.optimize.
La réponse est sous forme de tableau numpy, car cela marche aussi avec des fonctions vectorielles. Si fprime n’est
pas précisée, alors elle sera estimée 4 .
3. hors programme !
4. C’est dans la documentation ! « By default, the Jacobian will be estimated. ». La matrice jacobienne est la matrice de la différentielle,
c’est-à-dire peu ou prou un généralisation de la dérivée en dimension supérieure à 1. La méthode de Numpy s’applique donc aussi avec des
fonctions vectorielles.
Chapitre 6
On décrit ici un algorithme pour résoudre numériquement des systèmes linéaires. Après une phase d’introduction,
on s’en remet au formalisme matriciel. On décrit les algorithmes permettant les opérations de base (transvections et
échanges de lignes), puis l’algorithme du pivot en lui-même, dont on donne la complexité. Enfin, on montre quelques
exemples montrant que du aux approximations avec des flottants, la réponse de l’algorithme n’est pas forcément à
croire aveuglément.
6.1 Introduction
Prenons un système 3 × 3 que l’on veut résoudre :
x+y+z = 2 (L1 )
x − y + 2z = 9 (L2 )
2x − y + z = 7 (L3 )
Pour résoudre le système et éliminer la variable x dans les deux dernières équations, on commence par réaliser les
opérations L2 ← L2 − L1 et L3 ← L3 − 2 × L1 . On obtient alors le système :
x + y + z = 2 (L1 )
−2y + z = 7 (L2 )
−3y − z = 3 (L3 )
Maintenant que le système est sous forme triangulaire, on va pouvoir effectuer une phase de remontée pour déterminer
la solution : on calcule z dans la dernière équation, puis y en utilisant la valeur de z que l’on vient de déterminer, puis
enfin la valeur de x avec la première équation :
x+y+z = 2 x+y+z = 2 x = 1
−2y + z = 7 y = −2 y = −2
z = 3 z = 3 z = 3
On a vu que la résolution se fait en deux phases : mise du système sous forme triangulaire, et phase de remontée.
Pour la première phase, l’opération principale consiste à ajouter à une ligne une autre ligne, multipliée par un certain
facteur : cette opération s’appelle une transvection. Remarquez qu’il faut faire la même opération sur le vecteur
colonne Y . Ajoutons à cela une autre opération : l’échange de deux lignes. Nous n’en avons pas eu besoin dans
l’exemple introductif, mais si nous étions par exemple partis du système
y+z = 2 (L1 )
x − y + 2z = 9 (L2 )
2x − y + z = 7 (L3 )
il aurait été impossible d’éliminer x dans les deuxième et troisième équation puisque le coefficient devant x est
nul dans la première. Pour ce faire, il suffit d’échanger la première ligne avec une des deux autres, ce qui se traduit
matriciellement par l’échange de deux lignes de la matrice A et des lignes correspondantes du vecteur colonne Y .
Écrivons maintenant les deux fonctions transvection et echange ainsi décrites. Elles fonctionnent pour des ma-
trices rectangulaires de tailles quelconques.
Fonction de transvection
def transvection(A,i,j,mu):
"""On ajoute à la ligne i de A mu fois la ligne j. """
m=len(A[0]) #m est le nombre de colonnes de A.
for k in range(m):
A[i][k]+=mu*A[j][k]
Fonction d’échange
def echange_lignes(A,i,j):
"""On échange les deux lignes i et j de A."""
A[i],A[j]=A[j],A[i]
Remarquez que dans la fonction d’échange, on ne manipule pas les coefficients : A[i] et A[j] sont toutes deux des
références vers des listes en mémoire, on construit le tuple de références (A[j],A[i]) qu’on déconstruit pour affecter
la première composante à A[i] et la deuxième à A[j]. Cette opération se fait donc en temps constant. La fonction de
transvection est par contre linéaire en m, le nombre de colonnes de A.
Le système (S1 ) ne possède aucune solution : en effet, si on soustrait deux fois la première ligne à la deuxième, on
obtient l’équation 0 = −1. A contrario, le système (S2 ) en possède une infinité : tous les couples (x, y) de la forme
(t, 2 − t).
L’algorithme du pivot de Gauss consiste à mettre peu à peu le système sous forme triangulaire. Supposons que
ceci soit déja partiellement éffectué. On a alors une matrice A de la forme (les ? sont des coefficients qui peuvent être
arbitraires) :
λ0 ? ? ? ? ··· ? ?
0 λ1 ? ? ? ··· ? ?
0 0 λ2 ? ? ··· ? ?
.. .. .. ..
.. .. .. ..
. . . . . . . .
0 0 ··· 0 λi ? ··· ?
0 0 ··· 0 ? ? ··· ?
.. .. .. .. .. .. ..
. . ··· . . . . .
0 0 ··· 0 ? ? ··· ?
où λ0 , . . . , λi−1 sont tous non nuls. On cherche maintenant à « mettre des 0 en dessous de λi », ce qui revient à éliminer
une variable des équations en dessous de celle associée à i. Si λi est non nul, c’est possible : il suffit de réaliser des
a
transvections de la forme Lj ← Lj − λj,i i
Li , pour tout j entre i + 1 et n − 1. Sinon, il faut aller chercher une ligne
en dessous où le coefficient en colonne i est non nul, pour procéder d’abord à un échange de lignes avec la ligne i. Ce
coefficient existe toujours si le système possède une solution et une seule. En fait, la réciproque est vraie dans le sens
où si le système ne possède pas une unique solution, on trouvera lors de la mise sous forme triangulaire un certain i
pour lequel la colonne est remplie de zéros en dessous de l’indice i inclus.
Bref, il existe un coefficient en dessous de λi inclus, qui est non nul. On a dit que si λi était nul, il fallait procéder
à un échange de lignes. Rappelons qu’il ne faut pas tester l’égalité entre deux flottants, sauf très bonne raison.
Il se peut en effet que λi soit très petit, mais non nul. Procéder à des transvections pour mettre des 0 en dessous est
catastrophique du point de vue de la proximité de la solution qu’on va obtenir avec la solution exacte, puisqu’on est
amené à faire des multiplications par 1/λi . Une méthode simple pour y remédier (bien qu’elle puisse aussi être mise en
défaut dans certains cas) consiste à effectuer un échange de lignes systématique entre la ligne d’indice i et celle située
en dessous, qui possède le plus grand coefficient en valeur absolue dans la colonne i (sauf si c’est la ligne i elle-même).
Cette méthode porte le nom du pivot partiel. Écrivons donc une fonction recherchant quel est l’indice de la ligne
située en dessous de i inclus, possédant le plus grand coefficient en valeur absolue dans la colonne i.
def indice_pivot(A,i):
"""Recherche de la ligne d'indice >= i possédant le plus grand élément en colonne i"""
n=len(A)
i_max=i
for j in range(i+1,n):
if abs(A[j][i])>abs(A[i_max][i]):
i_max=j
return i_max
On a maintenant tout ce qu’il nous faut pour décrire la première partie du pivot : la mise sous forme triangulaire. On
donne ici un algorithme à part, intéressant en soit.
Algorithme 6.1 : Ḿise d’une matrice sous forme triangulaire par opérations sur les lignes
Entrées : Une matrice A de taille n × n
pour chaque i allant de 0 à n − 1 faire
j ← indice_pivot(A,i);
si j 6= i alors
echange_ligne(A, i, j)
pour chaque j allant de i + 1 à n − 1 faire
transvection(A, j, i, −A[j][i]/A[i][i])
Remarquez que la complexité d’une transvection étant en O(n), la complexité d’une mise sous forme triangulaire
d’une matrice carrée de taille n × n est donc en O(n3 ).
Dans l’algorithme du pivot pour résoudre AX = Y , on effectue ces opérations, en effectuant les mêmes transvections
sur Y que sur A. La seconde phase est celle de la remontée. Comme son nom l’indique, il suffit de calculer les
composantes de X en commençant par la dernière. Posons A = (ai,j )0≤i,j≤n−1 avec ai,j = 0 pour i > j. En posant X
le vecteur colonne de composantes x0 , . . . , xn−1 , le produit AX s’écrit :
Pn−1
a0,0 x0 + j=1 a0,j xj
a0,0 a0,1 ··· ··· a0,n−1 x0 Pn−1
0 a1,1 a1,2 ··· a1,n−1 x1 a1,1 x1 + j=2 a1,j xj
0 0 a2,2 ··· a2,n−1 x2 a x + n−1 a x
P
× = 2,2 2
j=3 2,j j
.. .. .. ..
. ··· .
··· ··· . .
0 ··· ··· 0 an−1,n−1 xn−1 an−1,n−1 xn−1
Pn−1 Pn−1
Pour tout i entre 0 et n−1, on tire de l’égalité ai,i xi + j=i+1 ai,j xj = yi l’expression xi = a1i,i yi − j=i+1 ai,j xj ,
qui ne fait intervenir que les xj avec j > i. On a donc tout ce qu’il faut pour résoudre le système.
Avant de l’écrire, concluons par une fonction permettant de réaliser la copie d’une matrice. En effet, a priori on
ne veut pas toucher à la matrice de départ A, ni au vecteur colonne Y .
Copie d’une matrice
def copie_matrice(A):
return([A[i][:] for i in range(len(A))])
En terme de complexité, la phase la plus coûteuse est de mettre le système sous forme triangulaire : on a déja vu
que cette étape était en O(n3 ). La copie des matrices est en O(n2 ) (nombre de coefficients), de même que la phase de
remontée : en effet on effectue une boucle de n étapes, et il y a O(n) opérations à effectuer à l’intérieur.
>>> A=[[1,1,1],[1,-1,2],[2,-1,1]]
>>> Y=[[2],[9],[7]]
>>> print(pivot_gauss(A,Y)
[[1.0], [-2.0], [3.0]]
Notez qu’ici, la solution est exactement la bonne, puisqu’on a travaillé tout au long du calcul uniquement avec des
flottants exactement représentables (dyadiques). Ce n’est pas le cas en général. Le code suivant produit une matrice
A générée aléatoirement avec des entiers entre 0 et 50, et un vecteur Y dont la coordonnée d’indice i est la somme des
coefficients de la ligne i de A.
Si le système AX = Y possède une unique solution (et c’est le cas avec forte probabilité), c’est nécessairement le
vecteur colonne dont toutes les composantes sont égales à 1 (donc représentables exactement en flottants !) Comme
on peut le voir, la solution calculée est proche, mais pas exactement celle-ci :
>>> print(X)
[[0.9999999999999989], [0.9999999999999992], [1.0000000000000007], [1.0000000000000009], [0.9999999999999988]]
Notez que si l’on avait travaillé avec des fractions donc sur Q, on aurait pu résoudre le système exactement. En fait,
sur Q, le test d’égalité à zéro est légitime, et on pourrait parfaitement écrire un algorithme de résolution de système
fonctionnant aussi avec des systèmes qui ne sont pas de Cramer, pouvant dire si le système n’a aucune solution ou
donner une paramétrisation de l’ensemble des solutions dans le cas où il en a une infinité.
Normalement, si le système n’a pas de solution, une division par zéro se produira. Remarquez qu’un système peut
ne pas avoir de solutions, bien que le programme en donne une :
>>> A=[[0.1,0.1,0.1],[0.3,0.2,0.1],[0.4,0.3,0.2]]
>>> Y=[[2],[9],[7]]
>>> print(pivot_gauss(A,Y))
[[-3.602879701896395e+16], [7.205759403792797e+16], [-3.6028797018964e+16]]
Cela vient du fait que le coefficient en bas à droite après mise sous forme triangulaire est sensé être nul, mais ne
l’est pas tout à fait du aux erreurs d’approximations (1/10 n’est pas représentable exactement en flottants). Voici à
quoi ressemble la matrice après mise sous forme triangulaire :
Enfin, il se peut que le système ait une solution, mais que les erreurs d’approximations font qu’on tombe sur 0.
Par exemple, le système suivant
x + (1 + 10−15 )y + z = 1 (L1 )
(1 − 10−15 )x + y + 2z = 0 (L2 )
z = 0 (L3 )
possède une unique solution, mais lorsque l’on utilise notre pivot, on obtient :
>>> A=[[1,1+10.**(-15),1],[1-10**(-15),1,2],[0,0,1]]
>>> Y=[[1],[0],[0]]
>>> print(pivot_gauss(A,Y))
[...]
mu=-A[j][i]/A[i][i]
ZeroDivisionError: float division by zero
Les coefficients en 10−15 n’ont pas été choisis au hasard. Rappelez vous (voir le chapitre numéro 2), que la repré-
2
sentation d’un flottant normalisé sur 64 bits est de la forme (−1)s × 1.m1 m2 · · · m52 × 2E , c’est à dire que l’on a que
52 bits de mantisse. Or 10−15 = 1000−5 ' (2−10 )5 = 2−50 . Autrement dit, 1 + 10−15 et 1 sont très proche en machine,
et on est quasiment à la limite entre le flottant 1 et celui immédiatement supérieur.
Lorsqu’on résout le système à la main, on obtient en faisant l’opération L2 ← L2 − (1 − 10−15 )L1 :
x + (1 + 1015 )y + z = 1 (L1 )
10 y + (1 + 10−15 )z = 0 (L2 )
−30
z = 0 (L3 )
Or, il se trouve que 10−30 est calculé comme 1 − (1 + 10−15 )(1 − 10−15 ) et donc est arrondi à zéro. En effet, du
point de vue des flottants, (1 + 10−15 )(1 − 10−15 ) = 1, car on n’a pas assez de bits de mantisse pour distinguer 1 et
2−k
P52
1 − 10−30 . En effet, le plus grand flottant strictement inférieur à 1 est k=02 = 1 − 2−53 , et 1 − 10−30 ' 1 − 2100
−53
est beaucoup plus proche de 1 que de 1 − 2 , donc il est arrondi à 1.
Ce genre de cas se produit lorsqu’on est très proche d’une matrice non inversible (ceci sera revu en cours de
mathématiques), à savoir ici la matrice
1 1 1
1 1 2 .
0 0 1
6.6 En Python
Pour résoudre un système linéaire en Python, on utilise Numpy, et plus précisément son sous-module linalg (pour
linear algebra, c’est-à-dire algèbre linéaire). Une matrice est simplement représenté par un tableau Numpy. La fonction
fsolve prend en entrée une matrice carrée inversible A, et un vecteur Y , et renvoie la solution de AX = Y :
3 1 2 9
En effet, on a bien × = .
1 2 3 8
Deux remarques :
— Python est souple : si on lui donne un tableau Numpy « simple » comme second membre, il peut calculer quand
même, comme on le voit ci-dessous. Si on lui donne le second membre comme une matrice Numpy de taille n × 1
(dans la lignée du cours), il renvoie la solution sous la même forme.
— Sans surprise, Python a les mêmes problèmes que nous avec les nombres flottants :
>>> np.linalg.solve([[0.1,0.1,0.1],[0.3,0.2,0.1],[0.4,0.3,0.2]], [2, 9, 7])
array([ -4.11757680e+16, 8.23515360e+16, -4.11757680e+16])
>>> A=np.array([[1,1+10.**(-15),1],[1-10**(-15),1,2],[0,0,1]])
>>> Y=np.array([1, 0, 0])
>>> np.linalg.solve(A,Y)
[...]
raise LinAlgError("Singular matrix")
numpy.linalg.linalg.LinAlgError: Singular matrix
Chapitre 7
7.1 Introduction
Le but de ce chapitre est de présenter quelques méthodes de calcul approché d’intégrales. De manière similaire à
la problématique de la résolution d’équations numériques, il y a notamment deux motivations pour chercher de telles
méthodes :
— les fonctions usuelles (fonctions trigonométriques, exponentielles, logarithmes...) qu’on manipule possèdent sou-
vent des primitives que l’on peut exprimer à l’aide des fonctions usuelles. Cependant, ce n’est pas toujours le
cas : il est par exemple impossible d’exprimer une primitive de x 7→ exp(x2 ) à l’aide des fonctions usuelles. Pour
R1
estimer une intégrale comme 0 exp(x2 ) dx, il est donc nécessaire de recourir à des méthodes numériques ;
— si une fonction n’est connue que par ses valeurs prises en certains points (par exemple issus d’une série de mesures
physiques), le calcul exact d’intégrales n’a pas de sens et on ne peut que chercher une estimation de l’intégrale
d’une fonction « raisonnable » passant par ces points (ou s’en approchant suffisamment).
De plus, les idées développées ici nous seront utiles pour aborder la résolution numérique d’équations différentielles.
En effet, une équation différentielle (d’inconnue la fonction x) de la forme
x(t0 ) = x0
x0 (t) = f (x(t), t)
Rt
peut se réécrire x(t) = x(t0 )+ t0 f (x(u), u) du. Les méthodes développées dans ce chapitre s’appliqueront avec quelques
adapatations pour le calcul approché de valeurs de la fonction x.
Avertissement. Dans la suite, on notera [a, b] un « petit » intervalle, sur lequel on applique une méthode élémen-
taire, ou un « gros » intervalle, qu’on découpe en morceaux pour appliquer une méthode élémentaire. En pratique, le
découpage en morceaux se fera avec une subdivision régulière.
Rb
Méthode élémentaire. Une méthode élémentaire de quadrature de a
f (t) dt se présente sous la forme
Z b N
X −1
f (t) dt ' (b − a) ωi f (ξi )
a i=0
où les ξi sont des points de l’intervalle [a, b] et ωi des réels, qu’on appelle les poids.
Définition 7.1. Une méthode d’intégration est dite d’ordre n si elle est exacte pour tout polynôme de degré inférieur
ou égal à n et inexacte pour un polynôme de degré n + 1.
Rb PN −1
Autrement dit, par linéarité par rapport à f des deux quantités a f (t) dt et (b − a) i=0 ωi f (ξi ), une méthode
élémentaire est d’ordre n si et seulement si :
Z b N
X −1 Z b N
X −1
j
pour tout 0 ≤ j ≤ n, j
x dt = (b − a) ωi ξi et x n+1
dt 6= (b − a) ωi ξin+1
a i=0 a i=0
Rb
Proposition 7.2 (Méthode d’ordre 0). Puisque a
1 dt = (b − a), la méthode est d’ordre au moins zéro si et seulement
PN −1
si i=0 ωi = 1, ce qu’on supposera par la suite.
y
y y
f (b)
f ( a+b
2 )
f (a)
a a+b b x
a b x a b x 2
Figure 7.1 – Méthode des rectangles élémentaire : à gauche, à droite et au point milieu
Méthode composée. Ces trois méthodes de quadrature élémentaire donnent des méthodes de quadrature compo-
sée : on découpe l’intervalle [a, b] en morceaux égaux, et on applique la méthode des rectangles à gauche/à droite/du
point milieu sur chacun d’eux. Soit n un entier strictement positif, et soit h = b−a n , qu’on appelle le pas. On écrit
Rb Pn−1 R a+(k+1)h R a+(k+1)h
donc a f (t) dt = k=0 a+kh f (t) dt et on applique la méthode élémentaire à chacune des a+kh f (t) dt. Ce
principe d’approximation est connu dans le cours de mathématiques comme « sommes de Riemann ».
R a+(k+1)h
Rectangles à droite, quadrature composée. Il suffit juste de prendre a+kh f (t) dt ' h × f (a + (k + 1)h) à
la place de h × f (a + kh) dans la formule précédente. Pour le code Python, on peut réutiliser le même, en commençant
avec x = a + h au lieu de x = a.
def int_rec_droite(f,a,b,n):
h=(b-a)/n
somme=0
x=a+h
for k in range(n):
somme+=f(x)
x+=h
return h*somme
R a+(k+1)h
Point milieu, quadrature composée. De même, on prend ici a+kh
f (t) dt ' h × f (a + kh + h/2)
def int_rec_milieu(f,a,b,n):
h=(b-a)/n
somme=0
x=a+h/2
for k in range(n):
somme+=f(x)
x+=h
return h*somme
On peut se demander si, lorsque n tend vers l’infini, la méthode des rectangles permet de se rapprocher de la
valeur exacte de l’intégrale. La réponse est oui, vous connaissez 1 le théorème suivant sous le nom des « sommes de
Riemann ».
Théorème 7.3 (Sommes de Riemann). Soit f une fonction continue de [a, b] → R. Lorsque n tend vers l’infini, la
méthode des rectangles composée obtenue en découpant l’intégrale en n morceaux converge vers l’intégrale de f entre a
et b. c’est-à-dire
n−1 Z b
b−a X
f (ξk,n ) −→ f (t) dt
n n→+∞ a
k=0
k(b−a) (k+1)(b−a)
avec ξk,n un point quelconque de l’intervalle [a + n ,a + n ].
2
Démonstration. Évaluons la différence entre la somme et l’intégrale :
n−1 Z b n−1
X Z a+(k+1)(b−a)/n
b−a X
f (ξk,n ) − f (t) dt = [f (ξk,n ) − f (t)] dt
n a a+k(b−a)/n
k=0 k=0
D’après le théorème de Heine, une fonction continue sur un segment y est uniformément continue. Fixons ε > 0. Alors,
il existe η > 0, tel que pour tout couple (x, y) ∈ [a, b], si |x − y| < η, alors |f (x) − f (y)| ≤ ε. Soit n0 assez grand tel
que b−a
n0 < η. Alors pour tout n ≥ n0 :
b − a n−1
X Z b n−1
X Z a+(k+1)(b−a)/n
f (ξk,n ) − f (t) dt ≤ |f (ξk,n ) − f (t)| dt
n
k=0 a
k=0 a+k(b−a)/n
n−1
X Z a+(k+1)(b−a)/n n−1
X b−a
≤ ε dt = ε
a+k(b−a)/n n
k=0 k=0
b − a n−1
X Z b
f (ξk,n ) − f (t) dt ≤ (b − a)ε
n
k=0 a
1. ou le verrez bientôt, avec des hypothèses plus fortes pour les PCSI.
2. Les PCSI peuvent ignorer cette démonstration, hors programme.
avec les ξi formant un ensemble de N ≥ 2 points régulièrement répartis sur l’intervalle [a, b], c’est-à-dire a = ξ0 <
ξ1 < · · · < ξN −1 = b, et ξi+1 − ξi = Nb−a
−1 pour tout i < N − 1. Le problème est de chercher quels poids (ωi ) prendre
pour que l’ordre de la méthode soit le plus élevé possible. Comme on a N points ξi , il est naturel d’espérer qu’avec les
bons poids (ωi ) la méthode soit d’ordre N − 1 au moins : l’exactitude sur les fonctions polynomiales de degré inférieur
ou égal à N − 1 impose N contraintes linéaires en les (ωi ), dont on peut raisonnablement espérer qu’elles donnent un
système ayant une unique solution.
Avant d’écrire ce système linéaire pour trouver ces ωi , simplifions un peu le problème. Par changement de variable
a+b b−a
t= 2 + u 2 , on se ramène de l’intervalle [a, b] à l’intervalle [−1, 1]. En effet,
b 1
b−a b−a
Z Z
a+b
f (t) dt = f +u du
a −1 2 2 2
Une formule de quadrature élémentaire sur l’intervalle [−1, 1] avec les points ξ régulièrement espacés est de la forme :
Z 1 N
X −1
g(v) dv ' 2 ωi g(ξi )
−1 i=0
Utiliser cette méthode donne immédiatement une formule avec points régulièrement espacés sur l’intervalle [a, b], et
elle est exacte sur [−1, 1] pour les fonctions polynomiales de degré au plus d si et seulement si elle l’est sur [a, b] ; les
fonctions polynomiales de degré borné par d étant stables par changement de variables affine. On cherche donc une
formule de quadrature élémentaire sur l’intervalle [−1, 1].
Pour que la formule soit exacte sur les fonctions polynomiales affines (de degré au plus 1), on doit donc avoir :
Z 1 Z 1
1 dt = 2 (ω0 + ω1 ) et t dt = 2 (−ω0 + ω1 )
−1 −1
R1 R1
Puisque −1 1 dt = 2 et −1 t dt = 0, ce système est très simple à résoudre et donne une unique solution : ω0 = ω1 = 21 .
On comprend a posteriori le nom de méthode des trapèzes avec le dessin de la figure 7.2.
Méthode composée. À partir de la méthode élémentaire, on tire immédiatement une méthode composée : soit n
Rb
un entier strictement positif, on découpe l’intégrale a f (t) dt en morceaux sur lesquels on applique la méthode des
trapèzes, on a donc avec h = b−an :
Z b n−1
X Z a+(k+1)h
f (t) dt = f (t) dt
a k=0 a+kh
n−1
h X
' (f (a + (k + 1)h) + f (a + kh))
2
k=0 !
Z b n−1
f (a) + f (b) X
f (t) dt ' h + f (a + kh)
a 2
k=1
f (b)
f (a)
a b x
def int_trapezes(f,a,b,n):
"""On approche l'intégrale de f sur [a,b] par des trapèzes"""
h=(b-a)/n
somme=(f(a)+f(b))/2
x=a+h
for k in range(1,n):
somme+=f(x)
x+=h
return h*somme
Ordre de la méthode. Étudions maintenant l’ordre de la méthode : il est d’au moins 1 puisque la méthode est
exacte sur les fonctions affines. Un dessin permet de se convaincre qu’elle est inexacte sur les fonctions polynomiales
de degré 2, ou alors un simple calcul :
Z 1 3 1
t 2 1 1
t2 dt = = alors que 2 (−1)2 + 12 = 2
−1 3 −1 3 2 2
Pour que la méthode soit d’ordre au moins deux, il faut que l’égalité soit vérifiée pour f = t 7→ tk avec 0 ≤ k ≤ 2. On
en déduit le système suivant :
ω0 + ω1 + ω2 = 1
−ω0 + ω2 = 0
ω0 + ω2 = 31
1
dont l’unique solution est ω0 = ω2 = 6 et ω1 = 23 .
Ordre de la méthode. La méthode est donc au moins d’ordre 2. En fait, elle est exacte également pour la fonction
t 7→ t3 , car cette fonction impaire vérifie
Z 1
t3 dt = 0 = 2 ω0 × (−1)3 + ω1 × 03 + ω2 × 13
−1
On vérifie facilement qu’elle est par contre inexacte pour la fonction t 7→ t4 car
Z 1
2 2
t4 dt = 6= 2 ω0 × (−1)4 + ω1 × 04 + ω2 × 14 =
−1 5 3
La méthode est donc d’ordre exactement 3.
Méthode composée. Comme d’habitude, on fixe maintenant un entier n > 0, et on découpe l’intervalle [a, b] pour
appliquer la méthode de Simpson sur les petits intervalles [a + kh, a + (k + 1)h], avec h = b−a
n . On obtient la formule
suivante :
Z b n−1
X Z a+(k+1)h
f (t) dt = f (t) dt
a k=0 a+kh
n−1
X 1 2 1
' h f (a + kh) + f (a + kh + h/2) + f (a + (k + 1)h)
6 3 6
k=0 !
Z b n−1 n−1
f (a) + f (b) 1 X 2X
f (t) dt ' h + f (a + kh) + f (a + kh + h/2)
a 6 3 3
k=1 k=0
Code Python. Une fois la formule établie, il est facile de l’implémenter. Le code suivant reprend la formule précé-
dente.
def int_simpson(f,a,b,n):
h=(b-a)/n
x=a
y=a+h/2
s1=0
s2=f(y)
for i in range(n-1):
x+=h
y+=h
s1+=f(x)
s2+=f(y)
return h*((f(a)+f(b))/6+s1/3+2*s2/3)
Il est un peu complexe, car on a cherché à minimiser le nombre d’appels à f en suivant la formule précédemment écrite.
Bien sûr, un code Python qui se contenterait d’appliquer la méthode élémentaire sur chacun des petits intervalles serait
tout aussi valable, mais ferait deux fois plus d’appels à la fonction.
R1
1 1 1 ··· 1
ω0
dt
R 1−1
ξ0 ξ1 ξ2 ··· ξN −1 ω1
t dt
R 1−1 2
ξ02 ξ12 ξ22 ··· 2
ξN
ω2
1
M =
−1
X=
et Y = −1
t dt
.. .. .. .. 2
.. ..
. . . ··· . .
.
ξ0N −1 ξ1N −1 ξ2N −1 ··· N −1
ξN −1 ωN −1 R 1 N −1
t dt
−1
La matrice M est la matrice de Van der Monde associée aux ξi : ce genre de matrice se retrouve souvent en mathé-
matiques, et si vous ne l’avez pas encore croisée, ça viendra. Un résultat classique est que c’est une matrice inversible
(car les ξi sont distincts) : le système possède donc une unique solution. On appelle « méthode de Newton Cotes à N
points » la méthode obtenue en utilisant les poids solution du système.
Proposition 7.4. La méthode de Newton-Cotes à N points est d’ordre au moins N − 1, et au moins N si N est
impair.
Démonstration. Le premier point est clair : les poids sont solution du système donc la méthode est d’ordre au moins
N − 1. Ensuite, montrons que l’unique solution X = (ωi ) du système précédent est symétrique, c’est-à-dire que
ωN −1−i = ωi pour tout i ∈ [[0, N − 1]]. Tout d’abord, les ξi vérifient ξN −1−i = −ξi pour tout i ∈ [[0, N − 1]]. Par
suite, si on considère le vecteur X e = (ωN −1−i ) obtenu par renversement des coordonnées de X, on remarque que
la multiplication d’une ligne de M d’indice pair 2k par X̃ donne le même résultat que la multiplication par X, car
ξi2k = ξN
2k
−i−1 . De plus, la multiplication d’une ligne de M d’indice impair 2k + 1 par X donne :
e
N
X −1 N
X −1 N
X −1
ξi2k+1 ωN −1−i = (−ξN −1−i )2k+1
ωN −i−1 = − ξi2k+1 ωi
i=0 i=0 i=0
R1
On obtient donc − 12 −1
t2k+1 dt, or cette intégrale est nulle. Ainsi, X e est également solution du système. Or cette
solution est unique, donc X = X e et les coefficients ωi sont bien symétriques.
PN −1
Revenons à l’ordre de la méthode pour N impair : puisque les coefficients de X sont symétriques, on a i=0 ξiN ωi =
Pb 2 c−1 N
N
N N
(ξi + ξN −1−i )ωi + ξb N c ωb N . Or cette somme est nulle car ξN −1−i = −ξi et N impair, et de plus ξb N c = 0.
2 c
i=0 2
2
R1 N
Cette somme nulle correspond à −1 t dt, donc la méthode est bien d’ordre au moins N .
PN −1 PN −1
Si les ωi sont tous positifs, on a
PN −1 i=0 |ωi | = i=0 ωi = 1. Mais si les (ωi ) ne sont pas tous positifs, on a
i=0 |ωi | > 1. Voila pourquoi il faut privilégier les méthodes à poids positifs : si les ωi ne sont pas tous de même
signe, l’erreur est potentiellement dilatée.
Notation. Dans ce qui suit, pour g une fonction continue sur l’intervalle [a, b], on notera kgk∞ la norme infinie de
g, c’est à dire kgk∞ = supt∈[a,b] |g(t)|. Cette borne supérieure est bien définie et est en fait un maximum, puisqu’une
fonction continue sur un segment est bornée et y atteint ses bornes.
Lemme 7.6 (Formule de Taylor-reste intégral). Soit f une fonction de classe C n sur un intervalle [a, b], avec n ≥ 1.
Alors pour x ∈ [a, b], on a :
n−1 x
(x − a)k (k) (x − t)n−1 (n)
X Z
f (x) = f (a) + f (t) dt
k! a (n − 1)!
k=0
Le lemme 7.7 donne une estimation de l’erreur commise dans la méthode élémentaire des rectangles à gauche pour
f de classe C 1 . On en déduit immédiatement le résultat suivant pour la méthode composée :
Proposition 7.8. Soit f de classe C 1 sur [a, b]. En appliquant la méthode des rectangles à gauche sur l’intervalle [a, b]
découpé en n morceaux, on commet une erreur bornée par :
Z
b n−1
X (b − a)2
f (t) dt − h f (a + kh) ≤ kf 0 k∞
2n
a
k=0
b−a
avec h = n .
R
a+(k+1)h h2 (b−a)2
Démonstration. Il suffit d’appliquer le lemme précédent à a+kh f (t) dt − hf (a + kh) ≤ kf 0 k∞ = kf 0 k∞
2 2n2
et de sommer les n termes après une inégalité triangulaire.
Remarque 7.9. Ceci est une nouvelle démonstration de la convergence des sommes de Riemann, dans le cas C 1 .
Proposition 7.11. Soit f de classe C 2 sur [a, b]. En appliquant la méthode du point milieu sur l’intervalle [a, b]
découpé en n morceaux, on commet une erreur bornée par :
Z n−1
b X (b − a)3
f (t) dt − h f (a + kh + h/2) ≤ kf 00 k∞
24n2
a
k=0
b−a
avec h = n .
b−a
Démonstration. Il suffit d’appliquer le lemme précédent, en découpant en n petits intervalles de longueur h = n .
f (b)−f (a)
Démonstration. Posons ϕ la fonction x 7→ f (a) + b−a (x − a). Cette fonction affine coïncide avec f en a et en b,
f (a)+f (b)
et son intégrale sur [a, b] est précisément (b − a) 2 . Comme ϕ00 = 0, on a (f − ϕ)00 = f 00 , et donc il suffit de
montrer le lemme pour f une fonction qui s’annule en a et en b : on suppose désormais que c’est le cas. Admettons
00
temporairement que pour tout x ∈ [a, b], il existe cx ∈ [a, b] tel que f (x) = (x − a)(x − b) f (c 2
x)
. On a alors après
calcul : Z
b Z b 3
dt = (b − a) kf 00 k
00
1
f (t) dt ≤ kf k∞ (t − a)(t − b)
∞
a 2 12
a
Il reste à démontrer le point admis, c’est le lemme suivant :
Lemme 7.13. Soit f de classe C 2 sur [a, b], telle que f (a) = f (b) = 0. Alors pour tout x ∈ [a, b], il existe cx ∈ [a, b]
00
tel que f (x) = (x − a)(x − b) f (c2
x)
.
Démonstration. Déja le lemme est évident si x = a ou x = b. Supposons maintenant a < x < b. Introduisons la
(t−a)(t−b)
fonction ϕ : t 7→ f (t) − (x−a)(x−b) f (x). On a ϕ(a) = ϕ(b) = ϕ(x) = 0. Trois applications du théorème de Rolle
00
2f (x)
prouvent qu’il existe cx ∈]a, b[ tel que ϕ00 (cx ) = 0. Or ϕ00 (t) = f 00 (t) − (x−a)(x−b) ⇒ f (x) = (x − a)(x − b) f (cx )
2 .
En appliquant le lemme 7.12 sur l’intervalle [a, b] découpé en n morceaux, on obtient la proposition suivante :
Proposition 7.14. Soit f de classe C 2 sur [a, b]. En appliquant la méthode des trapèzes sur l’intervalle [a, b] découpé
en n morceaux, on commet une erreur bornée par :
Z n−1
!
b f (a) + f (b) X (b − a)3
f (t) dt − h + f (a + kh) ≤ kf 00 k∞
2 12n2
a
k=1
b−a
avec h = n .
b) Erreur dans la méthode de Simpson. Reprenons les idées du lemme 7.12, pour obtenir une majoration de
l’erreur commise dans la méthode de Simpson.
Proposition 7.15. Soit f de classe C 4 sur [a, b]. En appliquant la méthode de Simpson sur l’intervalle [a, b] découpé
en n morceaux, on commet une erreur bornée par :
Z !
b n−1 n−1 (b − a)5
f (a) + f (b) 1 X 2X
(4)
f (t) dt − h + f (a + kh) + f (a + kh + h/2) ≤
6 3 3 2880n4
f
a ∞
k=1 k=0
b−a
avec h = n et f (4) la dérivée quatrième de f .
Démonstration. On reprend les mêmes idées que développées précédemment : il suffit de s’intéresser à une fonction C 4
définie sur un petit intervalle [a, b]. On veut montrer que
Z
b
(b − a)5
(4)
f (a) + f (b) 2 a+b
f (t) dt − (b − a) + f ≤
6 3 2 2880
f
a ∞
Appliquer trois fois le théorème de Rolle donne l’existence de trois points distincts de a, b, c et x en lesquels ϕ0
s’annule. De plus ϕ0 (c) = 0 car f 0 (c) = 0. On fait encore un usage intensif du théorème de Rolle : on construit
trois points distincts annulant ϕ00 , deux points annulant ϕ000 , et enfin un point cx ∈]a, b[ tel que ϕ(4) (cx ) = 0. Or
24
ϕ(4) (t) = f (4) (t) − (x−a)(x−b)(x−c)2 f (x).
|(x−a)(x−b)(x−c)2 |
f (4)
. Il reste à intégrer le polynôme (positif !) t 7→ −(t −
Ainsi, pour tout x ∈ [a, b], |f (x)| ≤ 24 ∞
a)(t − b)(t − c)2 entre a et b, ce qu’on fait facilement avec une petite intégration par parties :
0
z }| {
b 3 b
Z b
(t − c)3
−
Z
(t c)
−(t − a)(t − b) × (t − c)2 dt = −(t − a)(t − b) + (2t − a − b) dt
a 3 a a 3
Z b b
2 2 2
= (t − c)4 dt = (t − c)5 = 2 × (b − a)5
3 a 15 a 15 × 25
Z
b (b − a)5
f (4)
(b − a)5
f (4)
∞
∞
D’où f (t) dt ≤ = . Ainsi la proposition est prouvée.
a 24 × 15 × 23 2880
l’intervalle [0, 1], avec 4 méthodes différentes. Comme on a tracé un diagramme log-log, les (valeurs absolues des)
pentes donnent l’ordre de la méthode : on retrouve l’ordre 1 pour la méthode des rectangles à gauche, 2 pour les
méthodes des trapèzes et du points milieu et 4 pour la méthode de Simpson.
6. https://docs.scipy.org/doc/scipy-0.15.1/reference/tutorial/integrate.html
10-1
10-2
10-3
10-4
10-5
10-6
10-7
10-8
10-9
10-10
10-11
10-12 rectangles gauche
point milieu
10-13 simpson
10-14 trapezes
10-15 0
10 101 102 103
Figure 7.3 – Évolution de l’erreur en fonction de n (diagramme log-log) pour les 4 méthodes vues en cours, sur la
fonction de Runge intégrée sur [0, 1]. Les méthodes des trapèzes et du point milieu ont une convergence semblable car
elles ont le même ordre.
Cette fonction utilise pas mal de méthodes différentes suivant ce qu’on lui donne en paramètre, bien plus complexes
que celles présentées ici. Remarquez que notre méthode de Simpson est bien exacte sur la fonction x 7→ x2 .
Étant donné deux tableaux de points X et Y, avec Y le tableau des valeurs prises par une fonction f en les points
de X, on peut explicitement utiliser la méthode des trapèzes ou la méthode de Simpson :
On retrouve d’ailleurs bien l’exactitude de la méthode de Simpson sur les fonctions polynomiales de degré 2. Remarquez
que Python se débrouille même si les points ne sont pas régulièrement espacés : en fait il prend les points par groupe
de trois et calcule (l’unique) parabole passant par ces points et en déduit une méthode d’intégration.
Plus généralement, il peut faire pareil avec les méthodes de Newton-Cotes (il y a une méthode newton_cotes dans
le module scipy.optimize).
Chapitre 8
8.1 Introduction
8.1.1 Motivation
De même qu’il n’est pas possible d’exprimer les primitives de certaines fonctions à l’aide des fonctions usuelles, il
n’est en général pas possible de déterminer la solution formelle d’un système différentiel. C’est le cas par exemple de
l’équation du pendule amorti :
.. .
θ(t) + k1 sin(θ(t)) + k2 θ(t) = 0
De tels systèmes non linéaires interviennent par exemple en chimie ou en mécanique des fluides. La résolution
formelle étant impossible, deux choix s’offrent à nous :
— résoudre une équation différentielle approchée, dont on espère que la solution sera proche de la solution de
l’équation différentielle. Par exemple, pour l’équation précédente, on peut ne considérer que des petites oscillations
(θ petit), et considérer que sin(θ(t)) ' θ(t). C’est une solution tout à fait acceptable si les conditions physiques
permettant l’approximation sont remplies ;
— résoudre numériquement l’équation : c’est cette approche qui motive le chapitre ! On va calculer de proche en
proche des valeurs approchées θ(tk ) de la solution de l’équation différentielle.
8.1.2 Reformulation
Une équation différentielle ordinaire s’écrit sous la forme 1 :
x(t0 ) = x0 (condition initiale)
(?)
x0 (t) = f (x(t), t) pour t au voisinage de t0 .
où la fonction f est une fonction continue, a priori quelconque. Notez que l’inconnue x peut aussi bien être une
fonction à valeurs dans R qu’une fonction à valeurs dans Rk , avec k > 1 : cette formulation 2 permet de traiter aussi
bien des équations scalaires d’ordre supérieur à 1 que des systèmes d’équations différentielles.
Par exemple, l’équation du système du pendule amorti se reformule en l’équation vectorielle d’ordre 1 :
x(t0 ) = x0 θ(t0 ) a b
où x0 = . et f: , t 7→
x0 (t) = f (x(t), t) θ(t0 ) b −k1 sin(a) − k2 b
Notez que dans ce cas, l’équation est autonome : la fonction f ne dépend pas du temps. Mais on sera obligé de la
déclarer sous cette forme en Python lorsqu’on utilisera odeint. Un autre exemple serait l’équation régissant la tension
uC aux bornes d’un condensateur d’un circuit RLC :
duC d2 uC
uC (t) + RC (t) + LC 2 (t) = E(t)
dt dt
1. On suit ici la même formulation que la syntaxe de la fonction odeint en Python, bien que la convention mathématique soit plutôt
d’écrire l’équation différentielle sous la forme x0 (t) = f (t, x(t)). Cela ne change pas grand chose en définitive, mais attention à ne pas faire
de confusion en Python !
2. Au programme de deuxième année.
L’équation différentielle n’est pas autonome si la force électromotrice du générateur n’est pas constante.
Les théorèmes mathématiques donnent en général l’existence et l’unicité d’une solution x à l’équation (?), définie
au voisinage de t0 (avec quelques hypothèses sur f , qu’on ne détaillera pas ici). il est nécessaire de procéder à une
résolution numérique (approchée) si l’on souhaite visualiser l’allure de cette solution.
On note p la période du générateur, et on résout en prenant 1000 points sur l’intervalle [0, 8p]. Le code suivant trace
conjointement la tension aux bornes du générateur et la tension aux bornes du condensateur, avec condition initiale
.
uC (0) = 0 et uC (0) = 0.
Ici, le résultat de odeint, stocké dans Sode, est un tableau Numpy à deux dimensions : 1000 « lignes » (correspondant
à la taille de T), et deux « colonnes », puisqu’ici on travaille en dimension 2. Dans cet exemple, on n’est intéressé que
par la tension aux bornes du condensateur, et pas sa dérivée. On veut donc garder la première colonne, et la tracer en
fonction du temps. Voici le graphe obtenu :
duC
Pour avoir le portrait de phase (uC (t) en abscisse, dt (t) en ordonnée), il faut écrire :
Voici le résultat :
La syntaxe utilisée pour le tracé pourra être utilisée avec les fonctions que l’on va écrire, qui suivront la même
spécification de odeint.
On voit ici qu’on peut calculer une approximation de x(ti+1 ) à partir d’un approximation de x(ti ), puisque
Z ti+1
x(ti+1 ) = x(ti ) + f (x(u), u) du ' x(ti ) + (ti+1 − ti )f (x(ti ), ti )
ti
Le schéma numérique de résolution approchée est donc le suivant, pour un calcul de xi , valeur approchée de x(ti ) :
x0 donné
xi+1 = xi + (ti+1 − ti )f (xi , ti )
On voit pourquoi cette méthode porte le nom d’explicite : contrairement à la formulation générale de l’introduction,
le second membre ici ne comporte pas de « valeurs inconnues » de la fonction x puisqu’il n’y a que x(ti ), supposé déja
calculé (de manière approchée).
Version temps équirépartis. La fonction suivante, très similaire, se place dans le cas où l’on ne se donne pas une
liste de temps, mais un seul temps initial t0 , ainsi qu’un pas h et le nombre de valeurs désirées N . On renvoie un
couple de deux listes de tailles N :
— une liste contenant les N temps t0 < t0 + h < · · · < t0 + (N − 1)h ;
— les valeurs approchées de x en ces temps.
def euler_explicite_equirepartis(f,t0,x0,N,h):
t=t0
x=x0
X=[x]
T=[t]
for i in range(N-1):
x+=h*f(x,t)
t+=h
X.append(x)
T.append(t)
return T,X
L’une ou l’autre version est à préférer suivant les ciconstances, il faut savoir s’adapter 3 .
Exemple : fonction exponentielle. Prenons l’exemple de la classique fonction exponentielle, solution du système
suivant :
exp(0) = 1
exp0 (t) = f (exp(t), t)
où f est simplement la fonction f : (x, t) 7→ x (le système différentiel est autonome). Le script Python suivant permet
d’obtenir (et d’afficher) une représentation graphique de l’exponentionnelle, approchée par la méthode d’Euler sur
[0, 1] avec 10 points.
3. Et s’adapter en particulier aux sujets des concours...
import numpy as np
from math import *
import matplotlib.pyplot as plt
T=np.linspace(0,1,10)
f=lambda x,t: x
X=euler_explicite(f,1,T)
plt.plot(T,X,label="exp euler")
plt.legend(loc="upper left") #localisation de la légende en haut à gauche
plt.show()
Remarquez qu’on a utilisé une définition anonyme pour définir f , on aurait également pu utiliser classiquement
def. Des graphes similaires à ceux qu’on peut obtenir en Python sont donnés en figure 8.1, pour 5, 10 ou 30 points
d’interpolation. Même si, peu à peu, la solution s’écarte de la « vraie » fonction exponentielle (en noir), l’approximation
n’est pas trop mauvaise. De plus, lorsqu’on diminue le pas, on s’aperçoit qu’il y a convergence de l’approximation vers
la fonction exponentielle.
exp avec Euler: 5 pts exp avec Euler: 10 pts exp avec Euler: 30 pts
2.5 2.5 2.5
2 2 2
1 1 1
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
Figure 8.1 – Comparaison : Euler explicite sur [0, 1] : 5, 10 et 30 points. La courbe en noir est la « vraie » fonction
exponentielle.
fonctionnent aussi, mais ici les éléments du tableau X sont tous des références vers un unique tableau Numpy en
mémoire : il faut donc les modifier. On indique deux possibilités. La première consiste à faire une copie de x avant de
l’ajouter à X.
x+=(T[i+1]-T[i])*f(x,T[i])
X.append(np.copy(x))
Donnons le code Python pour résoudre l’équation du pendule amorti, avec 4 k1 = 1, k2 = 0.5, t0 = 0, θ(0) = 0 et
.
θ(0) = 1. On résout sur l’intervalle [0, 20], en prenant 100 points.
k1=1
k2=0.5
def fpendule(x,t):
a,b=x[0],x[1]
return np.array([b,-k1*sin(a)-k2*b])
T=np.linspace(0,20,100)
X=euler_explicite(fpendule,np.array([0,1]),T)
plt.plot(T,[x[0] for x in X])
plt.show()
Pour le tracé (voir figure 8.2 à gauche), on extrait ici les premières composantes des éléments du tableau X : en effet ;
.
celles-ci contiennent les valeurs de (θ(t), θ(t)), a priori seule la première composante nous intéresse. Sans surprise,
l’angle du pendule tend vers zéro.
0.5
0.5
0 0
−0.5 −0.5
Figure 8.2 – Résolution de l’équation du pendule amorti, sur l’intervalle [0, 20]. (a) le tracé de θ(t) en fonction de t.
.
(b) le tracé du portrait de phase, θ en fonction de θ.
.
On peut aussi tracer le portrait de phase (θ en fonction de θ), voir figure 8.2 à droite.
T=np.linspace(0,20,1000)
X=euler_explicite(fpendule,np.array([0.,1.]),T)
plt.plot([u[0] for u in X],[u[1] for u in X])
plt.show()
xn = exp n ln 1 + n1
1
+ o n1
= exp 1 − 2n
1
+ o n1
xn = e 1 − 2n
Ainsi l’erreur commise est de l’ordre de 2ne
= e ×h
2 , avec h le pas. Ainsi, diminuer le pas réduit l’erreur, mais évidemment
c’est plus coûteux car la complexité est linéaire en n, donc en O(1/h). On remarque que l’erreur ici est linéaire en h,
ce qui est en fait le cas dès qu’on utilise la méthode d’Euler explicite.
4. Un physicien ralerait parce que les unités ne sont pas présentes, et il aurait raison.
L’erreur de consistance consiste ainsi à sommer les erreurs commises à chaque étape lors du calcul de x(ti+1 ), en
supposant à chaque fois qu’on applique le schéma à partir de la valeur exacte x(ti ) en ti .
Exemple 8.3. Calculons l’erreur de consistance dans le calcul de l’exponentielle Ren 1, à partir de 0 avec un pas
ti+1
h = 1/n en utilisant la méthode d’Euler explicite. On a xgi+1 = exp(ti ) + (ti+1 − ti ) ti exp(ti ) du = exp(ih)(1 + h).
L’erreur de consistance est ici :
n−1
X
exp((i + 1)h) − (1 + h)eih
e(h) =
i=0
n−1
X
= (exp(h) − (1 + h)) eih
i=0
enh −1
= (exp(h) − (1 + h)) h
e −1
e −1
e(h) = (exp(h) − (1 + h))
exp(h) − 1
car exp(h) − (1 + h) ≥ 0 et nh = 1. Un développement limité au voisinage de 0 montre que cette erreur de consistance
vérifie e(h) ∼ h(e2−1) .
L’erreur de consistance est un peu plus faible que l’erreur sur e de la section précédente, ce qui est bien normal :
dans l’erreur de consistance on ne somme que les erreurs obtenues pour le calcul de x(ti+1 ) en appliquant la méthode
d’Euler explicite à partir de la vraie valeur en ti , alors que dans la méthode d’Euler on ne calcule une approximation
de x(ti+1 ) qu’à partir d’une approximation de x(ti ).
Définition 8.4. On dit qu’un schéma est consistant si l’erreur e(h) tend vers 0 lorsque h → 0.
On dit qu’un schéma numérique est stable s’il n’est pas trop sensible aux erreurs d’arrondis 5 ; on en dira pas plus.
Étudier la consistance est important : on peut montrer que si le schéma est stable et consistant, alors le schéma est
convergent : les xi calculés comme x(ti ) convergent vers x(ti ) lorsque le pas tend vers 0.
On reconnaît l’erreur dans la méthode des rectangles à gauche. On a vu dans le chapitre précédent que l’erreur sur
2
chacun des intervalles [ti , ti+1 ] était inférieure ou égale à (ti+12−ti ) kϕ0 k∞ . Comme ti+1 − ti = h, on a par somme
2
e(h) ≤ N2h kϕ0 k∞ = h(t−t
2
0)
kϕ0 k∞ . La méthode est bien d’ordre au moins 1. On a vu avec l’exemple de l’exponentielle
que la méthode était d’ordre au plus 1, il y a donc égalité.
5. Cette notion peut se définir de manière rigoureuse, néanmoins cela nous emmenerait assez loin, et très en dehors du programme.
Pour appliquer la méthode, on procède essentiellement comme avec la méthode d’Euler explicite. Les résultats obtenus
avec la méthode d’Euler implicite se trouvent en figure 8.3.
3
Euler implicite: 5 pts Euler implicite: 10 pts Euler implicite: 30 pts
3
2.5
2.5
2.5
2 2
2
1.5 1.5
1.5
1 1 1
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
Figure 8.3 – Comparaison : Euler implicite pour exp sur [0, 1] : 5, 10 et 30 points.
Remarquez qu’on n’a pas besoin de préciser la dérivée de g, scipy arrive à l’estimer pour appliquer la méthode.
Comme pour la méthode vue au chapitre 5, il faut préciser un « point de départ » : si le pas n’est pas trop grand,
x(ti+1 ) devrait être proche de x(ti ), ainsi l’approximation de x(ti ) est un bon point de départ.
Même si la méthode d’Euler implicite a le même ordre (1) que la méthode explicite, elle est en générale préférable
pour des raisons de stabilité. Si on regarde ce qui se passe vis à vis de la résolution de l’équation dont l’exponentielle
est solution :
— la méthode explicite a tendance à suivre la tangente : on se retrouve donc « à l’extérieur » de la courbe décrite
par l’exponentielle ;
Si on travaille avec une équation dont la solution est une fonction oscillante bornée, la méthode explicite va avoir
tendance à écarter la solution approchée de la solution exacte au niveau des pics, et donc s’éloigner de plus en plus de
la vraie solution. À l’inverse la méthode implicite donnera une approximation qui restera bornée. Reprenons l’exemple
du circuit RLC présenté en section 8.1, dont nous avions résolu l’équation avec odeint. On prend ici 1000 points
d’interpolation sur l’intervalle [0, 2p], avec p la période. On considère que la solution fournie par odeint est exacte.
Voici le résultat :
Si on augmente la durée de simulation (ou qu’on diminue le pas), on s’aperçoit que la solution fournie par la méthode
d’Euler explicite a tendance à s’éloigner drastiquement de la solution exacte, au contraire de la méthode implicite.
Voici la même simultation sur l’intervalle [0, 8p], avec toujours 1000 points d’interpolation.
Comme on le voit, la solution obtenue avec la méthode d’Euler explicite diverge 6 , celle obtenue avec la méthode
d’Euler implicite reste bornée. C’est pour cette raison que la méthode d’Euler implicite est en général préférable à la
méthode explicite, car plus stable.
Appliquons-là à l’exponentielle. Le résultat est indiqué en figure 8.4. Déja pour 5 points, le résultat obtenu est très
proche de la solution exacte. On peut montrer que l’ordre de la méthode est 2 sous de bonnes conditions, puisque la
méthode du point milieu pour l’intégration est d’ordre 1 (exacte pour les fonctions polynomiales de degré au plus 1).
2 2
1.5 1.5
1 1
def Heun(f,x0,T):
x=x0
X=[x]
for i in range(len(T)-1):
h=T[i+1]-T[i]
k1=f(x,T[i]) #on stocke pour éviter un appel à f.
x=x+h*(k1+f(x+h*k1,T[i+1]))/2
X.append(x)
return X
Le résultat est donné en figure 8.5. On remarque que le graphique est très semblable à celui de la méthode de Runge-
2 2
1.5 1.5
1 1
Kutta d’ordre 2 : en fait, pour le cas particulier de la fonction exponentielle, la fonction f : (y, t) 7→ y (linéaire en y)
donne les mêmes itérations.
def RK4(f,x0,T):
x=x0
X=[x]
for i in range(len(T)-1):
h=T[i+1]-T[i]
k1=f(x,T[i])
k2=f(x+h/2*k1,T[i]+h/2)
k3=f(x+h/2*k2,T[i]+h/2)
k4=f(x+h*k3,T[i+1])
x=x+h*(k1+2*k2+2*k3+k4)/6
X.append(x)
return X
Le résultat est donné en figure 8.6. L’approximation est très précise : les points où la fonction est calculée sont
quasiment confondus avec la fonction elle-même.
2 2
1.5 1.5
1 1
Troisième partie
Bases de données
Chapitre 9
On peut, en Python, choisir plusieurs représentations de ces données. On pourrait grouper les élèves par classe,
puis par filière :
classes_de_sup=[
[
[['Mathilde', 'Dugommier', 'Calmette']],
[['Léa', 'Dupond', 'Massena']]
], [
[['Paul', 'Dugommier', 'Massena'], ['Clément', 'Durand', 'Parc Imperial']],
[['Mathilde', 'Dufour', 'Calmette']]
]
]
Ici, classes_de_sup[1] fournit par exemple les deux classes de PCSI, alors que classes_de_sup[0][0] donne la
liste des élèves de MPSI 1. Dans les deux cas le lycée d’origine est présent. Si on veut extraire simplement la liste des
élèves d’une classe (sans le lycée d’origine), on ferait quelque chose comme
Par contre, si on veut la liste des élèves venant du lycée Calmette, il faut un peu plus travailler :
lycee_calmette=[]
for filiere in classes_de_sup:
for classe in filiere:
for eleve in classe:
if eleve[2]=='Calmette':
lycee_calmette.append(eleve[:2])
On obtient bien :
>>> lycee_calmette
[['Mathilde', 'Dugommier'], ['Mathilde', 'Dufour']]
On pourrait aussi regrouper les élèves par lycée d’origine, par contre la liste des élèves de MPSI 1 (par exemple)
serait plus dure à établir. Il est aussi possible de stocker des 5-uplets comme dans le tableau ci-dessus, au prix par
contre d’un stockage important de données (il faut imaginer qu’il y a beaucoup plus d’élèves...)
Table eleve
prenom nom id_classe id_lycee Table lycee
Mathilde Dufour 834 1 id_lycee nom
Léa Dupond 832 2 1 Calmette
Paul Dugommier 833 2 2 Massena
Mathilde Dugommier 831 1 3 Parc Imperial
Clément Durand 833 3
Table classe
id_classe filiere numero
831 MPSI 1
832 MPSI 2
833 PCSI 1
834 PCSI 2
La table des lycées ne possède que deux attributs (colonnes), mais on pourrait imaginer vouloir rajouter d’autres
attributs (ville, nombre de classes de terminale...), on n’aurait pas à modifier toute la base. On remarque que notre
découpage d’informations permet de limiter la redondance : on n’indique pour chaque élève que son numéro de classe,
et pas sa filière et son numéro, informations qu’on peut retrouver facilement à partir du numéro de classe. Voici des
exemples de requêtes qu’on peut réaliser sur ces tables :
sélectionner les élèves de MPSI 1, et les classer par ordre alphabétique
SELECT nom,prenom
FROM eleves
WHERE id_classe = 831
ORDER BY nom
Ici, on a supposé que l’on connaissait le code de la MPSI 1, si ce n’est pas le cas, il faut croiser les tables :
sélectionner les élèves de PCSI 1, et les classer par ordre alphabétique, version 2
SELECT nom, prenom
FROM eleves
JOIN classe ON eleves.id_classe=classe.id_classe
WHERE filiere="PCSI" AND numero=1
ORDER BY nom ;
Le programme officiel impose uniquement l’enseignement des requêtes de recherche dans une base de données. Voici
toutefois un exemple d’insertion dans une base :
INSERT INTO eleve (nom, prenom, id_classe)
VALUES (Ducourneau, Guillaume, 833) ;
(Il n’est pas obligatoire de renseigner tous les champs, mais ceci sort assez largement du programme).
Client Serveur
SQL
Une normalisation (rare en informatique) a permis d’unifier le langage utilisé dans les bases de données : SQL.
Du point de vue des utilisateurs, la syntaxe est la même, en tout cas pour les fonctionnalités de base. Par contre,
la programmation en interne de ces logiciels dépend de l’éditeur (Oracle, SAP, IBM, Microsoft, ...), mais cela nous
préoccupera assez peu.
Dans ce cours, nous allons étudier les principales fonctions en commençant par les bases simples (ou plates) puis
en étudiant ce qui fait l’intérêt des bases, le croisement de données. Essentiellement ici, on va voir comment interroger
une base de données, sans en créer ni en modifier (ce n’est pas au programme).
En pratique, le langage SQL n’est en général pas visible pour les usagers. En effet, l’utilisation des bases de données
se fait usuellement à travers une architecture « trois-tiers ». Entre l’usager et la base de données se trouve un serveur
applicatif qui traduit les demandes de l’utilisateur (en général via une interface graphique) au gestionnaire de bases
de données.
Client
Client
Par exemple, lorsque l’on se connecte à Pronote, tout le côté « bases de données » est invisible pour l’utilisateur,
seule l’application Pronote est disponible. C’est elle qui gère les droits d’accès : un élève ne peut consulter les notes
d’un autre, tandis qu’un professeur de mathématiques ne peut rentrer des notes de physique-chimie...
Table eleve
prenom nom filiere numero lycee_origine note_bac
Mathilde Dufour PCSI 2 Calmette 18
Léa Dupond MPSI 2 Massena 14
Paul Dugommier PCSI 1 Massena 12
Mathilde Dugommier MPSI 1 Calmette 15
Clément Durand PCSI 1 Parc Imperial 13
9.3.2 Vocabulaire
Attributs. Les différents titres de colonnes sont appelés attributs. On notera formellement A1 , A2 , · · · , Ap les attri-
buts. Les attributs forment un ensemble : il n’y a pas d’attribut en double. L’ordre des attributs n’est pas fixé : on ne
parle pas du premier attribut mais de l’attribut nom (par exemple). La table précédente présente 6 attributs.
Domaine. L’ensemble des valeurs que peut prendre un attribut A est son domaine Dom(A). Par exemple, pour
la table ci-dessus, quatre attributs peuvent avoir pour domaine des chaînes de caractères, mais on peut imaginer
que le domaine des classes est réduit à l’ensemble des sigles dénotant une filière de classe préparatoire (MPSI,PCSI,
BCPST, PSI...), le numéro est un entier, et la note du bac un flottant (qu’on peut imposer dans l’intervalle [0, 20]
avec éventuellement un certain nombre de chiffres significatifs...). Tout cela a été fixé à la création de la base, et ne va
donc pas nous concerner dans nos requêtes de recherche.
Schéma relationnel. On appelle schéma relationnel un p-uplet d’attributs, vérifiant toujours la contrainte que les
attributs sont distincts deux à deux. On notera S dans ce cours un schéma relationnel.
Tuple. Chaque ligne s’appelle un p-uplet (ou tuple en anglais). C’est donc un élément de Dom(A1 ) × Dom(A2 ) ×
· · · × Dom(Ap ). En fait, puisque l’ordre des attributs n’est pas fixé, une ligne est plutôt une fonction
avec comme contrainte le fait que `(Ai ) ∈ Dom(Ai ). Comme il est plus facile de parler du tuple (Mathilde, Dufour,
PCSI, 2, Calmette, 18) que de l’application qui a chacun des attributs de la table associe sa valeur, on sacrifiera un
peu à la rigueur mathématique ici.
1. Un modèle équivalent est le calcul relationnel, que nous n’étudierons pas
Relation. On appelle relation (ou table) un ensemble fini de p-uplets de Dom(A1 ) × · · · ∪ × Dom(Ap ), qu’on notera
souvent R dans ce cours. Pour préciser que la relation est associée au schéma relationnel S, on notera R(S). Les
éléments de R(S) (les lignes dans le tableau ci-dessus) sont appelés valeurs ou enregistrements.
9.3.3 Contraintes
On a déja dit qu’il n’y avait pas d’attribut en double. Il n’en est en effet pas question, ils risqueraient d’être affectés
de valeurs différentes dans des tuples. Pour t un tuple de R(S), on note t[Ai ] la composante du couple associée à
l’attribut Ai . Par extension, si X = (B1 , . . . , Bn ) ⊆ S, on note t[X] le n-uplet (t[B1 ], . . . , t[Bn ])
Définition 9.1. Dans une relation R(S), les enregistrements forment un ensemble.
Ceci a deux implications :
— Visuellement, on ne peut avoir deux lignes égales dans le tableau (ce qui serait d’ailleurs synonyme de redondance
des données). Ceci correspond à l’aspect fonctionnel des tuples : avec S = {A1 , . . . , Ap }, si t[A1 , . . . , Ap ] =
t0 [A1 , . . . , Ap ] alors t = t0 . Une autre caractérisation est que deux enregistrements doivent différer d’au moins un
attribut.
— L’ordre des lignes n’est pas fixé. Bien entendu une présentation des données dans un tableau aura un ordre des
attributs et un ordre des tuple mais ces ordres de présentations sont du à l’ordre physique des données, ou le
résultat d’un traitement particulier lors d’une requête. En particulier, il n’est pas garanti a priori par le SGBD.
9.3.4 Clés
Pour garantir la non-répétition des enregistrement, les bases de données réelles contiennent un concept de clé qui
doit être pensé dès la conception des bases de données, et indiqué à la création. Ce concept a également son imporance
lors de l’utilisation de relations multiples.
Définition 9.2. Une super-clé d’une relation R est un ensemble X d’attributs tel que
Ainsi, si les deux enregistrements sont égaux sur les attributs de X alors ils sont égaux partout. En raison de
la contrainte d’ensemble pour les enregistrements, l’ensemble de tous les attributs est toujours une super-clé. Dans
l’exemple ci-dessus {prenom} et {nom} ne sont pas des super-clés, contrairement à {nom, prenom}, par exemple.
Définition 9.3. Une clé candidate d’une relation r est une super-clé minimale (pour l’inclusion).
K est donc une clé candidate si
— K est une super-clé.
— Pour tout K 0 inclus dans K, K 0 n’est pas une super-clé.
Dans l’exemple ci-dessus, {nom, prenom} est une clé candidate.
Proposition 9.4. Une super-clé qui ne contient qu’un seul attribut est toujours une clé candidate.
Par contre une telle super-clé n’existe pas toujours, il n’y en a pas dans le tableau Éleves ci-dessus. À Masséna, le
numéro d’une classe (831, 833...) est une super-clé :
Table Classes
classe filière numéro
831 MPSI 1
832 MPSI 2
833 PCSI 1
834 PCSI 2
Définition 9.5. Parmi les clés candidates on en choisit une : c’est la clé primaire.
Pour indiquer la clé primaire on souligne les attributs correspondants dans la table. Indiquer au système une clé
primaire pour chaque table permet une indexation des données à l’aide de cette clé, ce qui renforce l’efficacité des
procédures d’interrogation de la table. Cette indication doit se faire à la création de la table.
Dans la pratique on évitera les clés primaires qui ne seraient primaires que « par accident » : on pourrait insérer des
données supplémentaires qui feraient perdre le caractère primaire des clés (en pratique, le serveur interdira le rajout
de ces données). Par exemple, dans la table Éleves, le couple {nom,filière} est une clé candidate, mais rien ne garantit
qu’elle puisse le rester !
On introduit souvent un attribut supplémentaire (commençant souvent par id), dans la définition de la relation
qui sera un entier qu’on incrémentera à chaque ajout d’un tuple. Ce sera la clé primaire. Voici une modification de la
relation eleve avec ce principe :
Table eleve’
id_eleve prenom nom filiere numero lycee_origine note_bac
9.4.1 Définition
L’algèbre relationnelle est un ensemble d’opérateurs que l’on peut appliquer à des relations, et dont le résultat est
une relation. Comme le résultat est toujours une relation on pourra combiner les opérateurs : on forme ainsi, à partir
d’opérateurs élémentaires, des requêtes élaborées. L’objectif est de pouvoir exprimer toute manipulation raisonnable
par une expression algébrique des opérateurs élémentaires.
Voici des exemples de questions qu’on peut demander au serveur de bases de données.
— Quels sont les élèves venant du lycée Calmette ? Ceux de MPSI 1 ?
— Quelle est la moyenne au baccalauréat des élèves de Masséna ? Qui sont ceux qui ont obtenu une mention ?
— Étant donnés deux relations pour les élèves de Masséna en 2013-2014 et 2014-2015, qui sont les 5/2 ?
La troisième opération demande d’avoir deux relations, mais on va quand même y répondre ici.
Projection. La projection consiste à ne garder qu’une partie des attributs. Pour X ⊆ S un ensemble d’attributs,
On note πX (r) la relation extraite de R avec les mêmes tuples restreints à l’ensemble X.
πX (R) = {t[X] | t ∈ R}
Par exemple, πnom,prenom (eleve) est la table suivante :
πnom,prenom (eleve)
prenom nom
Mathilde Dufour
Léa Dupond
Paul Dugommier
Mathilde Dugommier
Clément Durand
Rappelons que dans une relation, les tuples forment un ensemble. Il se peut donc que πX (R) ait moins d’éléments
que la table initiale. (En fait le nombre d’éléments est conservé si et seulement si l’ensemble d’attributs X est une
super-clé de la relation).
πprenom (eleve)
prenom
Mathilde
Léa
Paul
Clément
Sélection. La sélection consiste à ne garder que les tuples qui vérifie une propriété. On note σP (R) la relation
extraite de R avec les mêmes attributs dont les tuples vérifient la propriété P.
σP (R) = {t ∈ R | P(t)}
Les propriétés élémentaires sont de la forme E op E 0 où op un opérateur de comparaison (=, <, ≤, >, ≥) et E et E 0
des expression construites à partir des attributs et des constantes avec des fonctions usuelles. Une propriété composée
avec des connecteurs logiques (ET, OU et NON, aussi notés ∧, ∨ et ¬) correspond à des unions et intersections et peut
être écrite directement. Par exemple σP∨P 0 (R) = σP (R) ∪ σP 0 (R). On utilisera donc plutôt des conditions composées,
qui ont une écriture plus courte. Par exemple, les élèves de MPSI dans la table ci-dessus est :
σf iliere=”M P SI”OU prenom=”M athilde” (eleve)
prenom nom filiere numero lycee_origine note_bac
Mathilde Dufour PCSI 2 Calmette 18
Léa Dupond MPSI 2 Massena 14
Mathilde Dugommier MPSI 1 Calmette 15
Sélection et projection vont souvent ensemble : si on s’intéresse aux noms et prénoms des élèves de MPSI, on obtient :
πnom,prenom (σf iliere=”M P SI” (eleve))
prenom nom
Léa Dupond
Mathilde Dugommier
Renommage. Le renommage consiste à renommer un attribut. Ce sera utile lors de produits de tables lorsque deux
tables ont des attributs portant le même nom mais correspondent à des données différentes. Si A ∈ S où S est le schéma
de R(S) et B ∈ / S on peut renommer A en B, pour obtenir un élément de R0 (S 0 ) de schéma S 0 = (S\{A}) ∪ B :
ρA→B (R) = {t | ∃r ∈ R, t[B] = r[A] et ∀C ∈ S\{A}, t[C] = s[C]}
Par extension, on notera ρA1 ,...,Ap →B1 ,...,Bp pour ρA1 →B1 ◦ · · · ◦ ρAp →Bp (en supposant les Ai et Bj tous distincts)
Table classe Table ρf iliere→sec,numero→nb (classe)
id_classe filière numéro id_classe sec nb
9.5 SQL
9.5.1 Introduction
La présentation des bases de données via l’algèbre relationnelle correspond à une abstraction : dans la pratique
chaque éditeur d’un logiciel de gestion de base de données organise les données afin d’optimiser leur accès, mais
ceci est transparent pour l’utilisateur. En pratique l’utilisateur envoie des requêtes (via le serveur applicatif) : c’est
l’architecture trois tiers déja évoquée.
Pour la communication entre le serveur applicatif et le serveur de bases de données, il s’est produit un événement
rare en informatique : une norme universelle a été établie, qui permet d’écrire des requêtes de la même façon quel
que soit le logiciel. Le langage utilisé est SQL, pour Structured Query Langage. Ce langage reprend la structure de
l’algèbre relationnelle en y ajoutant des moyens de calculs et autres améliorations (ordonnancement des résultats, par
exemple). Ce langage est très proche du langage humain (l’anglais).
Bien entendu chaque éditeur optimise le traitement des questions posées en SQL pour donner des réponses le
plus rapidement possible, et ajoute des fonctionnalités supplémentaires mais presque tous contiennent le langage SQL
normalisé.
9.5.2 Syntaxe
Les représentations des relations se font avec le modèle du tableau. En SQL on parlera de
— tables à la places de relations ;
— colonnes à la places d’attributs ;
— lignes à la places de tuples.
La forme générale d’une requête en SQL est
SELECT ... FROM table ... ;
Les mots-clés de SQL sont usuellement écrits en majuscule mais ce n’est pas obligatoire. Le mot-clef principal d’une
requête dans une base de données est SELECT, qu’on retrouvera en tête de toutes nos requêtes SQL. Les requêtes se
terminent par un point-virgule.
Projection. Basiquement, SELECT permet de faire une projection (attention à ne pas confondre avec la sélection...).
Il suffit d’indiquer les attributs que l’on veut garder juste après SELECT :
SELECT A1,...,Ap FROM table ;
Les attributs (colonnes) à garder sont énumérés et séparés par une virgule. Si on ne veut pas effectuer de projection
(c’est à dire garder tous les attributs), on peut utiliser le joker * au lieu d’énumérer tous les attributs un à un.
SELECT * FROM table ;
Le mot-clef FROM permet de spécifier le nom de la table à utiliser. Attention : en SQL, les résultats d’une requête
ne forment pas une table car les doublons résultant de projections ne sont pas supprimés. Il faut utiliser le mot clef
DISTINCT pour supprimer les doublons.
Sélection. La sélection se fait avec le mot-clef WHERE, placé après le nom de la table. Comme en Python, on utilise
les comparateurs = et != pour l’égalité et la différence. Si le domaine de l’attribut le permet, on peut utiliser d’autres
comparateurs (>, <, >=, <=) et même des fonctions arithmétiques. Une condition complexe peut être exprimée à
l’aide de conditions plus simples et des des connecteurs logiques ET, OU, et NON (en anglais en SQL : AND, OR,
NOT) qu’on notera aussi ∧, ∨ et ¬.
Renommage. On peut renommer un ou plusieurs attributs avec AS ou même en juxtaposant le nouveau nom à
droite de l’ancien. Ceci sera particulièrement utile lorsqu’on utilisera plusieurs tables dont les noms d’attributs sont
les mêmes, ou lorsqu’on fera des sous-requêtes. La syntaxe générale est :
SELECT A1 AS B1,..,Ai AS Bi, C1,..,Cj FROM table ;
Le AS est facultatif, mais c’est plus lisible.
Par exemple : SELECT prenom p, nom n, notebac/2 note_sur_10 FROM eleve ; produit la table suivante :
Table ρnote_bac→note_sur_10 (πnom,prenom,note_bac/2 (eleve))
p n note_sur_10
Mathilde Dufour 9
Léa Dupond 7
Paul Dugommier 6
Mathilde Dugommier 7
Clément Durand 6
La projection est un peu abusive ici car on fait une opération arithmétique en plus.
Opérations ensemblistes. Si on veut combiner plusieurs requêtes on peut les assembler avec UNION, INTERSECT
ou EXCEPT, qui réalise l’union, l’intersection et la différence. Ceci dit, lorsqu’on a qu’une seule table il est plus simple
(et préférable) de combiner les conditions. Voici un exemple : imaginons que l’on ait deux tables eleves_14_15 et
eleves_15_16 qui donnent les élèves de deuxième année du lycée de deux années successives, alors ceux ayant fait 5/2
(dans la même classe...) en 2015-2016 sont :
SELECT * FROM eleves_14_15
INTERSECT
SELECT * FROM eleves_15_16
Opérations entre attributs. Il est tout à fait possible de réaliser des opérations entre attributs : par exemple la
requête
SELECT a+b+c FROM ...
En pratique : on regroupe la relation selon les valeurs des attributs de X et on calcule f (A) pour chacun des ensembles
de lignes définies par ces regroupements.
Par exemple :
— f iliere γM OY EN N E(notebac) (eleve) est une relation à deux attributs, donnant la moyenne des notes au bac suivant
la filière.
— ∅ γM OY EN N E(notebac) (eleve) est une relation avec un unique tuple de taille 1, donnant la moyenne des notes au
bac de tous les élèves de la table. On aura tendance à ne pas noter l’ensemble vide ∅. Remarquez qu’un tel tuple
s’identifie avec un élément du domaine de son unique attribut.
9.6.2 SQL
Les résultats d’une requête seront souvent utilisés ensuite, par exemple à des fins statistiques. SQL contient la
possibilité de faire quelques uns de ces calculs. Les fonctions disponibles (de base) sont, parmi d’autres :
— le comptage, c’est-à-dire le nombre de lignes : COUNT
— le maximum des éléments dans une colonne : MAX
— le minimum des éléments dans une colonne : MIN
— la somme des éléments d’une colonne : SUM
— la moyenne des éléments d’une colonne (sum/count) : AVG
Le résultat est une table avec une unique ligne et une unique colonne, que l’on peut utiliser comme valeur. Si f est
une de ces fonctions on l’emploie sous la forme
SELECT f(attribut) FROM table WHERE condition ;
Par exemple, avec la relation eleve, SELECT AVG(notebac) FROM eleves produit 14.4. Le mot-clef GROUP BY
sert à indiquer sur quels attributs sont effectués les regroupements.
Par exemple :
SELECT AVG(notebac) FROM eleves GROUP BY filiere ;
Ici on a en fait fait une sélection supplémentaire, il est ici a priori plus intéressant d’afficher aussi la filière 2 :
SELECT filiere,AVG(notebac) FROM eleves GROUP BY filiere ;
qui produit :
filiere AVG(notebac)
MPSI 14.5
PCSI 14.333333333333334
Pour la moyenne sur chaque classe, on écrirait GROUP BY filiere, numero.
qui produit :
filiere AVG(notebac)
MPSI 14.5
2. Et c’est ce qui a du sens en algèbre relationnelle.
Il est ici très commode de procéder à un renommage : garder un attribut qui s’appelle AV G(notebac) est un peu
pénible.
SELECT filiere,AVG(notebac) AS moy FROM eleves GROUP BY filiere HAVING moy>14.4 ;
qui produit :
filiere moy
MPSI 14.5
Rappellons qu’en SQL, le mot-clé AS est facultatif, on aurait pu juxtaposer moy à AVG(notebac). Pour faire des
sélections, on a donc deux outils à notre disposition : WHERE et HAVING. WHERE sélectionne avant une agrégation
(on dit en amont), et HAVING en aval. Lorsqu’on a le choix, il vaut mieux sélectionner en amont, pour n’effectuer
l’agrégation que sur un nombre minimal de lignes. Évidemment dans l’exemple ci-dessus, la sélection en aval est tout
à fait légitime car on ne pouvait pas faire de sélection en amont.
produit à l’affichage :
Table point
nom abscisse ordonnee
A 0 0
B 1 0
C 0 1
D 2 -3
E -3 -2
La requête
produit :
nom a o
E -3 -2
C 0 1
On limite le nombre de lignes à 2 au maximum, et on ignore la première (D ici). LIMIT et OFFSET sont utilisables
sans préciser d’ordre, mais rappelez-vous que l’ordre de l’affichage n’est pas garanti (il dépend du stockage interne de
la BDD) et c’est donc en général peu pertinent d’en faire usage sans ORDER BY.
Ici, on effectue une première requête (à l’intérieur des parenthèses) produisant des lignes de la forme filiere, moyenne,
puis on réutilise immédiatement la table produite dans une nouvelle requête. Celle-ci est équivalente à la première et
produit le même résultat, et peut-être vue comme une traduction SQL différente de la composition
Que ce soit en algèbre relationnelle ou en SQL, ceci se justifie bien : appliquer les opérateurs de l’algèbre relationnelle
à une relation produit une relation, appliquer des requêtes à une table produit une table.
Un autre exemple est le suivant : quels sont les élèves ayant eu la plus haute note au bac ? Ici, il faut récupérer
d’abord la plus haute note au bac, puis refaire une requête pour sélectionner les élèves ayant eu cette note. En SQL,
on obtient :
SELECT * FROM eleve WHERE notebac=(SELECT MAX(notebac) FROM eleve) ;
Ici, on utilise l’identitification entre une table à 1 ligne et 1 colonne et la valeur de cette case. Attention, on pourrait
être tenté d’écrire quelque chose comme
qui n’a pas vraiment de sens en algèbre relationnelle, mais fonctionne en SQL (cela peut dépendre du logiciel utilisé).
Le résultat produit est invariablement une table avec une seule ligne : on obtient les nom et prénom d’un seul élève
ayant eu la meilleure note au bac (avec cette note).
Bref, on peut faire des sous-requêtes en les plaçant entre parenthèses. On a vu qu’on pouvait utiliser comme valeur
une table à une ligne et une colonne pour faire une sélection. Par extension, on peut utiliser une requête produisant
une table à une seule colonne avec le mot-clef IN. Par exemple, à la question « Quels sont les élèves de PCSI qui ont
même prénom qu’un élève de MPSI ? », on peut répondre avec la requête :
SELECT * FROM eleve WHERE filiere="PCSI" AND prenom IN (SELECT prenom FROM eleve WHERE filiere="MPSI")
Le mot-clé IN est hors programme. Signalons enfin le mot-clé WITH (hors programme également), qui permet d’utiliser
facilement le résultat d’une requête comme une table :
WITH r AS (SELECT ...) SELECT .. FROM r ...
9.9.3 Produit
Le premier moyen d’assembler deux relations est d’en faire le produit cartésien.
Définition 9.8 (Produit de deux relations). Si R est une relation de schéma S et R0 une relation de schéma S 0 avec
S ∩ S 0 = ∅ alors le produit de R et R0 est la relation R × R0 de schéma S ∪ S 0 définie par
R × R0 = {u; u[S] ∈ R, u[S 0 ] ∈ R0 }
La condition S ∩ S 0 = ∅ n’est en fait pas contraignante : on peut procéder par renommage pour l’assurer. Pour
éviter les homonymies, on notera en général R.A et R0 .A les attributs de R et R0 .
Une telle table a donc pour cardinal le produit |R| × |R0 |, ce qui peut facilement devenir très lourd avec des tables
de taille conséquente. Voici le début de la table eleve × lycee :
Table eleve×lycee
prenom nom id_classe id_lycee id_lycee nom_lycee
Mathilde Dufour 834 1 1 Calmette
Mathilde Dufour 834 1 2 Massena
Mathilde Dufour 834 1 3 Parc Imperial
Léa Dupond 832 2 1 Calmette
Léa Dupond 832 2 2 Massena
On remarque qu’il semble y avoir deux attributs de même nom (ce qui est impossible) : en fait les noms de ces attributs
sont eleve.id_lycee et lycee.id_lycee (la présentation sous cette forme suit ce qu’il se passe en SQL).
9.9.4 Division
Il existe une fonction réciproque du produit, la division, dans l’algèbre relationnelle. Elle est l’analogue de la division
euclidienne vis à vis de la multiplication sur les entiers. La division de a par b est le plus grand entier q tel que bq ≤ a.
C’est la même chose avec des relations, en remplaçant la relation d’ordre ≤ par l’inclusion ⊆.
Définition 9.9 (Division de deux relations). Si R est une relation de schéma S et R0 une relation de schéma S 0 avec
S 0 ( S, alors la division de R par R0 est la relation R ÷ R0 de schéma S\S 0 définie par
R ÷ R0 = {u | ∀t ∈ R0 , (u, t) ∈ R}
De manière équivalente, on peut aussi définir R ÷ R0 comme la plus grande relation R00 de schéma S\S 0 telle que
R × R00 ⊆ R. Avec cette définition alternative, le lien avec la division euclidienne apparaît plus clairement.
0
Par exemple, la division de la relation πid_classe,id_lycee (eleve) par πid_lycee (lycee) donne l’ensemble des classes
possédant un élève en provenance de chacun des lycées de la table lycee. Avec les petites tables ci-dessus cette division
donne une relation vide, mais il suffirait d’ajouter un élève en 833 provenant de Calmette pour que la 833 se retrouve
dans πid_classe,id_lycee (eleve) ÷ πid_lycee (lycee)
Définition 9.10 (Jointure naturelle). Pour R et R0 deux relations de schémas S et S 0 avec S ∩ S 0 = S 00 , on définit
la jointure naturelle de R et R0 comme la relation R ./ R0 de schéma S ∪ S 0 définie par
R ./ R0 = {u | u[S] ∈ R et u[S 0 ] ∈ R0 }
Table eleve./lycee
prenom nom id_classe id_lycee nom_lycee
Mathilde Dufour 834 1 Calmette
Léa Dupond 832 2 Massena
Paul Dugommier 833 2 Massena
Mathilde Dugommier 831 1 Calmette
Clément Durand 833 3 Parc Impérial
Toutefois, cette jointure n’est pas explicitement au programme : la seule est la jointure symétrique qu’on va définir
ci-dessous.
9.9.6 Jointure
La jointure n’est, d’un point de vue algébrique, qu’une abréviation : elle consiste à sélectionner dans le produit
cartésien.
Définition 9.11 (Jointure de deux relations). Pour R et R0 sont deux relations de schémas S et S 0 avec S ∩ S 0 = ∅,
et C une condition booléenne portant sur S ∪ S 0 alors la jointure de R et R0 selon C est la relation R ./C R0 de schéma
S ∪ S 0 définie par
R ./C R0 = σC (R × R0 )
Si C est la condition triviale (toujours vraie) on retrouve le produit cartésien standard. Si on considère que les
noms des attributs d’une relation R sont R.A au lieu de A alors la jointure naturelle ressemble à une jointure avec
comme condition la conjonction des égalités R.Ai = R0 .Ai pour les attributs Ai appartenant à R ∩ R0 . La différence
est qu’alors les colonnes égales sont répétées : la jointure naturelle est plus... naturelle. Voici un exemple :
On parle de jointure symétrique lorsque la condition de jointure est l’égalité de deux attributs (comme précédem-
ment) : c’est la seule au programme.
La première fait simplement le produit des trois tables (ce qui donne une grosse table !). La deuxième fait une
sélection après un produit cartésien : en fait on fait d’abord une jointure sans le dire, pour sélectionner les élèves venant
du lycée Calmette. La troisième sélectionne également ceux qui sont en MPSI 1, avec une jointure supplémentaire,
toujours sans le dire.
SELECT nom,prenom FROM eleve NATURAL JOIN lycee NATURAL JOIN classe WHERE
id_lycee="Calmette" AND filiere="MPSI" AND numero="1" ;
9.10.3 Division
Elle n’existe pas en SQL, et existe en algèbre relationnelle pour garantir une certaine complétude des opérations.
On peut par exemple réaliser une division avec des sous-requêtes, des jointures et la fonction d’agrégation de comptage,
mais ce n’est pas simple et sort du cadre de ce cours.
9.10.4 Jointure
La traduction de la jointure en SQL est JOIN. On spécifie la condition de jointure avec ON :
table1 JOIN table2 ON condition
Bien que cela soit possible il n’est pas recommandé de placer toutes les sélections dans la clause ON à la place de
la clause WHERE. Typiquement pour une équijointure (jointure avec condition d’égalité entre deux attributs), on
placera la condition d’égalité de deux colonnes dans la clause ON, et les autres conditions de sélection dans la clause
WHERE. L’intérêt d’une jointures est de structurer plus clairement les requêtes, bien qu’on puisse s’en passer en
faisant des produits cartésiens et en sélectionnant, comme on l’a fait plus haut. Voici encore une variante de la requête
qu’on a vu plus haut avec produit cartésien et jointure naturelle :
Petite remarque : il n’y a pas d’ordre dans les attributs en SQL. Rien n’empêche de donner d’abord les tables que l’on
va utiliser (séparées par JOIN) pour donner ensuite les conditions de jointures (séparées par ON).
Quatrième partie
Algorithmique « avancée »
Chapitre 10
Parfois, on se passera de l’hypothèse d’antisymétrie (on parle de pré-ordre). Voici quelques exemples :
Cet ordre est bien total, et se généralise à Rn , ou encore à des produits cartésiens (E1 , ≤1 ) × · · · × (En , ≤n )
d’ensembles ordonnés.
— R2 peut aussi être muni du pré-ordre 1 défini par :
(x, y) ≺1 (x0 , y 0 ) ⇐⇒ x ≤ x0
Exemple 10.2. En Python, ce sont les ordres ci-dessus qui sont utilisés pour comparer des n-uplets ou des chaînes
de caractères avec <=.
A priori, l’algorithme de tri ne retourne rien : en sortie de fonction, la liste passée en entrée est triée. Par la suite,
on ne se préoccupera pas de la relation d’ordre utilisée, celle-ci sera vue comme une « boite noire », comparant deux
éléments quelconques de E.
Complexité. Pour comparer deux algorithmes de tri entre eux, on comptera deux types d’opérations distinctes :
— Le nombe de comparaison effectuée entre deux éléments de E.
— Le nombre d’affectations.
On supposera que ces deux opérations s’effectuent en temps constant, et pour comparer deux algorithmes de tris,
on comparera principalement leur complexité temporelle. Différents types de complexité sont pertinentes. Fixons un
algorithme de tri A.
— La complexité dans le pire des cas permet de fixer une borne supérieure du nombre d’opérations qui seront
nécessaires pour trier une liste de n éléments. Elle est définie par :
où C(A, L) est le nombre d’opérations élémentaires effectuées par l’algorithme A pour trier la liste L. La com-
plexité dans le pire cas est la seule dont l’étude est au programme.
— La complexité en moyenne est le nombre d’opérations élémentaires effectuées en moyenne pour trier une liste
de n éléments. L’étude de la complexité en moyenne est en générale difficile et requiert une probabilité sur E n .
En pratique, on suppose que les éléments de la liste sont distincts, et que les n! permutations décrivant les
positions relatives des éléments dans la liste d’entrée sont équiprobables. En résumé, tout se passe comme ci l’on
considérait uniquement des listes de la forme [σ(0), . . . , σ(n − 1)] où σ est une permutation de Sn (ensembles
des bijections de [[0, n − 1]]). La complexité moyenne de l’algorithme de tri A sur les listes de taille n est alors
donnée par la formule :
1 X
CA,moy (n) = C(A, σ)
n!
σ∈Sn
où C(A, σ) est le nombre d’opérations nécessaires pour trier la liste [σ(0), . . . , σ(n − 1)] avec l’algorithme A. On
calculera en particulier dans le chapitre idoine la complexité en moyenne du tri rapide, qui est bien meilleure
que sa complexité dans le pire cas.
— La complexité dans le meilleur des cas n’est pas la plus pertinente, mais permet de distinguer deux algorithmes
égaux par ailleurs. À l’opposé de la complexité dans le pire cas, elle consiste à regarder les situations favorables
à l’algorithme A :
CA,meilleur (n) = min C(A, T )
T liste de taille n
Propriétés intéressantes des tris. Outre la complexité temporelle, certaines propriétés sont appréciables, parmi
lesquelles :
— le caractère en place : si l’algorithme ne requiert qu’un espace en mémoire constant (pour quelques variables)
en plus de la liste d’entrée pour le trier, on dit que le tri s’effectue en place. Tous les tris de ce chapitre s’effectuent
en place. Dans les tris qui seront étudiés plus tard, on verra que le tri par fusion ne trie pas en place.
— le caractère stable : l’algorithme est dit stable si les positions relatives de deux éléments égaux ne sont pas
modifiées par l’algorithme : c’est-à-dire que si deux éléments x et y égaux se trouvent aux positions ix et iy de
la liste avant l’algorithme, avec ix < iy , alors c’est également le cas de leurs positions après l’algorithme. Le
caractère stable peut-être utile lorsqu’on utilise des pré-ordres. Par exemple, la liste
est triée avec le pré-ordre consistant à regarder uniquement le deuxième élément de chaque couple. Si l’on trie
ensuite L suivant le pré-ordre obtenu en regardant simplement le premier élément de chaque couple (le préordre
1 dont on a parlé plus haut) avec un tri stable, on obtient la liste
qui est triée suivant l’ordre lexicographique. En effet, lorsque deux éléments ont même première composante, le
plus petit pour l’ordre lexicographique est situé à gauche. Un tri non stable produirait par exemple la liste
Hypothèses sur l’entrée. Sous certaines hypothèses sur les éléments des listes à trier (entiers relatifs dont on
connait les bornes, réels supposés équirépartis sur l’intervalle [0, 1]...) il est possible de proposer des algorithmes de
tris tenant compte de ces hypothèses qui sont plus rapides que ceux proposés dans ce chapitre. Cependant, ce ne sont
pas des tris par comparaison dont les seules opérations autorisées sont la comparaison d’éléments et l’affectation dans
la liste ou éventuellement dans une liste annexe.
Conventions. Puisque les algorithmes que l’on va écrire sont simples, on donne directement le code Python (du
pseudo-code serait une simple paraphrase). Dans les preuves de correction, on adoptera une syntaxe proche de Python :
rappelons que si L est une liste, i et j deux indices vérifiant 0 ≤ i ≤ j ≤ n où n est la longueur de la liste, alors L[i:j]
est une liste constituée des éléments de L entre les indices i (inclus) et j (exclus), c’est-à-dire L[i],...,L[j-1]. En
particulier, cette liste est vide si i = j.
Dans les codes Python qui suivent, on a choisi de ne jamais faire d’échanges d’éléments de la liste de la forme
L[i],L[j]=L[j],L[i] si les indices i et j sont égaux. Bien que cet échange ne pose pas de problème à Python, cela
nuit à la fois à la compréhension de l’algorithme et à l’adaptabilité du code dans d’autres langages.
Tri en Python. On rappelle que les listes dans ce cours correspondent aux objets de type list en Python 1 . Pour
trier une liste L avec Python, on utilise la méthode sort (syntaxe : L.sort()). Si on ne veut pas modifier la liste et
obtenir une copie triée, on utilise la fonction sorted qui renvoie une liste correspondant aux éléments de L, triés. C’est
équivalent à copier la liste et à appliquer ensuite la méthode sort.
Structure du chapitre. On décrit dans ce chapitre uniquement les tris naïfs les plus classiques. Ils sont efficaces
sur de petites listes (de taille au plus 50), et sont en complexité O(n2 ), avec n la taille de la liste. On leur préférera l’un
des algorithmes du chapitre sur les tris efficaces lorsque l’on doit travailler avec des listes plus grandes. On commence
par décrire le tri par sélection, puis le tri à bulles et enfin le tri par insertion. On verra enfin à titre d’exemle un tri
efficace qui n’est pas un tri par comparaisons : le tri par comptage.
Idée du tri. L’idée est simple : supposons que la liste de taille n est déja en partie triée avec ses k premiers éléments
à leur place définitive. On sélectionne le plus petit des n − k éléments restants, qu’on amène en position k + 1. la liste
a alors ses k + 1 premiers éléments à leur position définitive. Itérer ce procédé n − 1 fois suffit pour trier la liste.
Code Python. On donne maintenant la procédure en Python. Dans tout ce chapitre, la liste sera appelée L, associée
au type list en Python.
Le tri par sélection
def tri_selection(L):
n=len(L)
for i in range(n-1):
#Inv(i): L[0:i] triée, ses éléments sont plus petits que les autres éléments de L.
imin=i
for j in range(i+1,n):
#Inv2(j): imin est l'indice du plus petit élément de L[i:j]
if L[j]<L[imin]:
imin=j
#Inv2(j+1)
if i!=imin:
L[i],L[imin]=L[imin],L[i]
#Inv(i+1)
Terminaison de l’algorithme. L’algorithme de tri par sélection est constitué de deux boucles for imbriquées, il
termine donc !
1. Les listes Python sont en fait des tableaux redimensionnables. En particulier pour les options info, les algorithmes que l’on va écrire
se traduisent facilement en Caml en des algorithmes travaillant sur des vecteurs.
Preuve de l’algorithme. La boucle for interne a pour effet de positionner la variable imin à l’indice de l’élément
minimal de la liste entre les indices i et n. Ainsi, un passage dans la boucle for externe positionne l’élément minimal
de la liste entre les indices i et n en position i. Cette boucle for principale possède l’invariant suivant :
Invi : Les éléments de la liste entre les indices 0 (inclus) et i (non inclus) sont triés dans l’ordre croissant et plus
petits que les autres éléments de la liste.
— Tout d’abord, Inv0 est vrai : en effet, la sous-liste L[0:0] est vide.
— Clairement, si Invi est vrai en haut de la boucle (début de la ligne 4), Invi+1 est vrai en bas de la boucle (fin de
la ligne 9) : en effet, on positionne le plus petit élément de L[i:n] en position i.
Le compteur de boucle i prend toutes les valeurs entre 0 et n − 2. Par suite, l’invariant Invn−2+1 = Invn−1 est
vérifié en sortie de boucle, ce qui implique que la sous-liste L[0:n-1] est triée en sortie de boucle, et ses éléments sont
plus petits que l’autre élément de la liste, à savoir L[n-1]. Ainsi, la liste est entièrement triée en sortie de fonction, et
le tri est correct.
En toute rigueur, il faudrait exhiber un invariant de boucle pour la boucle for interne (justifiant au passage la
discussion précédente), celui-ci est plutôt évident : imin est l’indice du plus petit élément de L[i:j].
en tout.
— Le nombre d’échanges L[i],L[imin]=L[imin],L[i] est dans le meilleur des cas de 0 : cela correspond au cas
où la liste est déja triée dans l’ordre croissant, auquel cas l’élément minimal de la sous-liste L[i:n] est déja en
position i, pour tout i. Dans le pire cas, on fait un échange pour chaque passage dans la boucle for externe,
c’est-à-dire n − 1. Cela correspond par exemple à la liste suivant :
2 3 4 ··· n − 1 n 1
Propriétés. Le tri par sélection s’effectue en place, mais n’est pas stable. En effet, la liste [(2,0),(2,1),(1,2)]
est triée dans l’ordre croissant pour le pré-ordre obtenu en ne regardant que le deuxième élément de chaque couple (vis
à vis de l’ordre classique sur N). Si on trie la liste suivant le pré-ordre obtenu en ne regardant que le premier élément
de chaque couple avec le tri par sélection, le premier et le dernier élément de la liste sont permutés et on obtient la
liste [(1,2),(2,1),(2,0)]. Les positions relatives des deux éléments égaux (pour ce pré-ordre) que sont (2,0) et
(2,1) ont été permutées.
Idée du tri. L’algorithme du tri à bulles parcourt la liste, et compare les couples d’éléments successifs. Lorsque deux
éléments successifs ne sont pas dans l’ordre croissant, ils sont échangés. Si au moins un échange a eu lieu pendant le
parcours, l’algorithme procède à un nouveau parcours. S’il n’y a pas eu d’échange pendant un parcours, cela signifie
que la liste est triée et l’algorithme s’arrête. A chaque nouveau parcours, on peut en fait s’arrêter un élément plus tôt,
d’où le p-=1 dans le code suivant.
Code Python.
Le tri à bulles
def tri_bulles(L):
p=len(L)
pasfini=True
while pasfini:
pasfini=False
for i in range(p-1):
if L[i]>L[i+1]:
L[i],L[i+1]=L[i+1],L[i]
pasfini=True
p-=1
Terminaison de l’algorithme. p est strictement décroissant à chaque passage dans la boucle while. De plus, si
p ≤ 1, la boucle for ne fait rien, car range(0) est(un itérateur) vide. Ainsi, pasfini reste à False et la boucle while
termine.
Terminaison de l’algorithme. L’algorithme de tri par insertion est constitué d’une boucle while dans une boucle
for. Il faut donc montrer que pour tout i ∈ {1, . . . , n − 1}, la boucle while termine, ce qui est à peu près évident :
la variable j est initialisée à i juste avant la boucle, la condition de continuation du while comporte notamment la
condition j>0 et j est décrémenté à chaque tour de boucle. Notons que les indices de la liste considérés ne produisent
jamais d’erreurs (d’accès en dehors de la liste). Remarquez que si j=0 dans la condition du while, la condition j>0
n’est pas vérifiée et on n’a pas besoin d’évaluer L[j-1]>x (qui irait chercher le dernier élément de la liste, ce qui est
spécifique à Python) pour s’apercevoir que la condition j>0 and L[j-1]>x est fausse. Ceci est dû au comportement
paresseux de l’opérateur logique and.
Preuve de l’algorithme. La boucle while a pour effet de déplacer d’un cran vers la droite tous les éléments d’indice
strictement inférieur à i qui sont strictement supérieurs à x. Elle admet pour invariant :
Inv : Pour tout k tel que j < k ≤ i, L[k]>x.
En sortie de boucle while, la condition j>0 and L[j-1]>x est fausse, ainsi la boucle for possède l’invariant suivant :
En effet :
— la liste L[0:1], constituée de l’unique élément L[0], est triée. Donc Inv1 est vrai.
— Si, pour i ∈ {1, . . . , n − 1}, Invi est vrai en haut de la boucle, alors Invi+1 est vrai en bas de la boucle. En
effet, après l’exécution de la boucle while, les éléments de L[j+1:i+1] sont strictement supérieurs à x et ceux
de L[0:j] sont inférieurs (avec j éventuellement nul). Ainsi, placer x en position j dans L mène à la liste triée
L[0:i+1]
Par suite, après l’exécution de la boucle for la liste L[0:n] est triée, et la fonction est correcte.
Propriétés. La tri est à la fois stable et en place. Pour la stabilité, il est impératif que la condition dans le while
soit L[j-1]>x, on perdrait la stabilité avec L[j-1]>=x.
Table 10.1 – Équivalent du nombre de comparaisons et d’affectations pour trier une liste de taille n avec l’un des tris
quadratiques, dans les meilleur, pire et moyen cas.
Parmi les trois tris quadratiques évoqués, le tri par insertion est certainement le meilleur. On peut montrer qu’en
moyenne il fait environ n2 /4 comparaisons et affectations pour trier une liste de taille n. Il possède de plus un très
bon comportement vis à vis des listes « presques triés » (voir la feuille d’exercice). Le tri par sélection est intéressant
Figure 10.1 – Temps CPU pour trier une liste de taille n constituée d’entiers tirés aléatoirement entre 0 et 10000
(moyenne sur 1000 tests), avec 5 ≤ n ≤ 200.
si les affectations sont plus coûteuses que les comparaisons puisqu’il fait seulement n − 1 échanges dans le pire cas. Le
tri à bulles possède lui aussi un bon comportement vis à vis de certaines listes presque triées (le nombre d’échanges
effectués dépend en fait du nombre d’inversions dans la liste), mais on lui préférera le tri par insertion. La figure 10.1
présente une comparaison des trois tris sur des listes de petites tailles, tirées au hasard. Ce graphique est cohérent
avec la colonne « Cas moyen » du tableau ci-dessus. On s’aperçoit qu’avec Python, il y a un léger avantage au tri par
sélection sur des entrées moyennes.
10.6 Un tri qui n’est pas un tri par comparaisons : le tri par comptage
Dans cette section, on montre un algorithme de tri qui n’est pas un tri par comparaisons : l’algorithme fait
l’hypothèse que les éléments de la liste à trier sont des entiers naturels, bornés par une certaine constante k > 0. Sous
cette hypothèse, il atteint un temps d’exécution en O(n + k) pour trier une liste de taille n, ce qui est meilleur que les
algorithmes de ce chapitre si k = o(n2 ) et même meilleur que les tris efficaces (à suivre) si k = o(n log n).
Idée de l’algorithme. On suppose que la liste à trier est constituée d’entiers de l’intervalle [[0, k[[. L’algorithme
fonctionne suivant un principe simple : il suffit de parcourir une fois la liste et de compter le nombre d’éléments de
la liste égaux à 0, 1, ..., k − 1. Pour ce faire on utilise une liste de taille k. On peut alors facilement procéder à une
réécriture de la liste initiale, de sorte qu’en sortie elle soit constituée des mêmes éléments, mais triés dans l’ordre
croissant.
Code Python. L’algorithme prend en entrée la liste L à trier, ainsi qu’un entier k tel que tous les éléments de la
liste soient des entiers de l’intervalle [[0, k[[. On procède en deux étapes : d’abord compter les éléments de chaque type,
ensuite réécrire la liste L.
def tri_comptage(L,k):
C=[0]*k
for i in range(len(L)):
C[L[i]]=C[L[i]]+1
p=0
for i in range(k):
for j in range(C[i]):
L[p]=i
p+=1
Terminaison et correction. L’algorithme termine car il est constitué de boucles for. Si la liste à trier est bien
constituée d’éléments de [[0, k[[, la première boucle for ne produit pas d’erreur, et après cette boucle la somme des
éléments de C vaut exactement la taille n de la liste L. Ainsi, les deux boucles for imbriquées suivantes ne produisent
pas non plus d’erreurs car on écrit n fois dans L, aux indices 0, 1, . . . , n − 1. La correction est alors évidente : après
la première boucle for, un élément i ∈ [[0, k[[ apparaît exactement C[i] fois dans la liste L, et on écrit dans L chaque
entier i exactement C[i] fois avec les deux boucles imbriquées.
Complexité. Remarquons que la complexité en espace de l’algorithme est en O(k) : on utilise en effet la liste C de
taille k pour trier L. La création de la liste C se fait en temps O(k). Le remplissage de C se fait avec la première boucle
for en temps O(n). La boucle for j interne a une complexité O(1+C[i]) : en effet, même si C[i] est nul, il faut quand
Pk−1
même incrémenter i. Ainsi, les deux boucles for imbriquées ont une complexité totale O( i=0 (1 + C[i])) = O(n + k).
On a bien une complexité totale O(n + k).
Remarques. • Une « erreur » classique d’implémentation de l’algorithme consiste à parcourir k fois la liste L pour
remplir la liste C (pour i ∈ [[0, k[[, on teste au i-ème parcours si chacun des éléments de L est égal à i). Ceci mène à
une complexité O(nk), ce qui est maladroit.
• Ce tri n’est pas un tri par comparaisons, puisqu’on ne compare pas les éléments entre eux.
• Il existe bien d’autres tris qui ne sont pas des tris par comparaisons : le tri par base trie lui aussi des entiers
naturels bornés par une certaine constante B, mais n’utilise qu’un espace de taille O(log B) pour une complexité
temporelle O(n log B). On utilise en général la base 2, l’algorithme peut alors être vu comme l’application successive
de O(log2 B) algorithmes de tri par comptage avec k = 2.
• Un autre tri classique est le tri par baquets : il est efficace pour trier des réels supposés bien répartis dans un
intervalle semi-ouvert [a, b[. Voir la feuille d’exercices !
Chapitre 11
Introduction
Ce chapitre décrit pour la première fois une structure de donnée abstraite : la pile. C’est une des structure les plus
élémentaires mais aussi l’une des plus utiles. Donnons tout de suite une métaphore : de très lourdes assiettes sont
empilées les unes sur les autres. Les opérations que l’on peut réaliser sont les suivantes :
— enlever une assiette de la pile (celle du haut), si bien sûr il reste des assiettes dans la pile ;
— ajouter une assiette en haut de la pile.
Et c’est tout ! On suppose qu’une assiette ailleurs qu’au sommet n’est pas accessible, à moins de dépiler toutes les
assiettes situées au dessus, comme montré en figure 11.1.
...
...
base de la pile
Outre les opérations ci-dessus, on voudrait aussi savoir si notre pile est vide, créer éventuellement une nouvelle
pile, et savoir si notre pile est pleine (dans le cas où elle a une capacité finie), ce genre de choses. Donnons tout de
suite quelques exemples d’application des piles :
— lorsqu’en programmation, on appelle une fonction, cet appel (avec ces paramètres) est empilé sur la pile d’appel.
Peu importe qui se situe ailleurs qu’au sommet dans la pile d’appel : seul le dernier appel est traité et doit être
résolu avant de revenir à la fonction précédente. On verra qu’en cas d’appels récursifs, ces appels sont empilés
successivement sur la pile d’appel, jusqu’à arriver à un cas terminal puis sont dépilés ensuite.
— dans votre navigateur internet, vous avez deux boutons « page suivante » et « page précédente ». Chacun utilise
une pile !
— si vous avez une vieille calculatrice qui utilise la notation « polonaise inverse » (par exemple, l’opération (3 +
4) × (5 − 7) se note 3 4 + 5 7 − ×, les parenthèses sont inutiles !), celle-ci est basée sur une pile. On détaillera cet
exemple en fin de chapitre.
Cette définition est un peu vague, mais elle a le mérite de fixer les idées : pour définir une pile, on a essentiellement
besoin de définir les opérations que l’on veut effectuer. L’implémentation effective d’une pile est indépendante de sa
définition en tant que classe abstraite.
Définition 11.2. Le type pile est une structure de données abstraite, munie des opérations suivantes :
— creer_pile(c) : construire une pile vide, de capacité c : la pile peut contenir c éléments.
— pile_vide(P) : renvoie un booléen suivant si la pile P est vide ou non.
— sommet(P) : renvoie le sommet de la pile P si celle-ci est non vide.
— depiler(P) : enlève l’élément au sommet de la pile P et le renvoie. Si la pile est vide, renvoie une erreur.
— pile_pleine(P) : suivant la réalisation de la pile, renvoie un booléen suivant si la pile P est pleine ou non. Si
elle est pleine, on ne peut plus ajouter d’éléments.
— empiler(P,x) : ajoute l’élément x à la pile P si la pile n’est pas pleine, sinon, renvoie une erreur.
Maintenant que l’on a défini la classe abstraite pile, on peut déja décrire des algorithmes qui vont utiliser la
structure, avant même d’avoir proposé une réalisation concrète de la classe.
Donnons tout de suite un exemple très classique mais aussi très instructif : déterminer si un mot est bien parenthésé
et indiquer (dans une liste, par exemple) les couples de positions des parenthèses ouvrantes et fermantes.
Définition 11.3. Un mot parenthésé est une chaîne de caractères constituée uniquement des caractères '(' et ')'. Le
mot est bien parenthésé si il contient autant de parenthèses ouvrantes que fermantes et si tout préfixe du mot contient
au moins autant de parenthèses ouvrantes que fermantes.
et contiennent chacun plus de parenthèses ouvrantes que fermantes, avec égalité éventuelle.
— Le mot '(()()))(()' contient autant de parenthèses ouvrantes que fermantes, mais n’est pas bien parenthésé :
il contient en particulier le préfixe '(()()))' qui possède 4 parenthèses fermantes mais seulement 3 ouvrantes.
Proposition 11.4. Soit m un mot bien parenthésé. Alors soit m est le mot vide, soit il se décompose de façon unique
comme m = (u)v où u et v sont deux mots bien parenthésés, éventuellement vides.
Démonstration. Supposons m non vide. On peut considérer le plus petit préfixe non vide p de m ayant autant de
parenthèses ouvrantes que fermantes. Celui-ci existe car l’ensemble des préfixes ayant cette propriété est non vide :
m convient. Alors p commence par une parenthèse ouvrante (sinon m n’est pas bien parenthésé), et termine par une
parenthèse fermante (même chose), et p s’écrit p = (u) et m = pv = (u)v, avec u et v deux mots. Par minimalité
de p, u est un mot bien parenthésé, et puisque m est bien parenthésé, v aussi. D’où l’existence de la décomposition.
Montrons maintenant l’unicité : si m = (u0 )v 0 avec u0 et v 0 deux mots bien parenthésés, alors u0 a pour préfixe u
(par minimalité de u), mais ne peut contenir le caractère suivant (une parenthèse fermante) sinon m aurait un préfixe
contenant plus de parenthèses fermantes qu’ouvrantes. Donc u = u0 , et v = v 0 .
Sur l’exemple du mot vide '', notre algorithme devrait renvoyer une liste vide car il n’y a pas de parenthèses.
Sur le mot '(())()', notre algorithme devrait renvoyer la liste d’indices [(1,2),(0,3),(4,5)] (on verra que l’ordre
croissant suivant la deuxième composante est naturel).
L’idée de l’algorithme est assez simple : on crée une pile (initialement vide), et on parcourt la chaîne de caractères
passée en entrée de gauche à droite. Lorsqu’on examine une parenthèse ouvrante, on empile la position (l’indice dans
la chaîne) de cette parenthèse. Lorsqu’on examine une parenthèse fermante, deux cas peuvent se produire :
— la pile est vide : alors on a trouvé un préfixe qui contient plus de parenthèses fermantes qu’ouvrantes, ce qui
signifie que le mot n’est pas bien parenthésé.
— la pile est non vide : on dépile alors l’élément en haut de la pile (qui est l’indice d’une parenthèse ouvrante), et
on ajoute le couple (indice ouvrant, indice fermant) à la liste des couples en construction.
À la fin du traitement de la chaîne, on vérifie que la pile est vide. Si ce n’est pas le cas, le mot possède plus de
parenthèses ouvrantes que fermantes et n’est donc pas bien parenthésé.
Le code Python correspondant est donc le suivant :
Traitement d’une expression parenthésée
def parentheses(s):
""" Prend une chaîne de caractères et détermine si l'expression est bien parenthésée.
Évidemment, il a bien fallu implémenter le type Pile pour faire fonctionner cet exemple. C’est le but de la section
suivante.
def pile_vide(P):
return P[0]==0
def pile_pleine(P):
return P[0]==len(P)-1
def sommet(P):
assert not pile_vide(P), "la pile est vide"
return P[P[0]]
def depiler(P):
assert not pile_vide(P), "la pile est vide"
x=P[P[0]]
P[0]-=1
return x
def empiler(P,x):
assert not pile_pleine(P), "la pile est pleine"
P[0]+=1
P[P[0]]=x
Chaque opération se fait en complexité constante (O(1)), à part la création de pile qui a une complexité propor-
tionnelle à la taille de la pile (O(c)).
def pile_vide(P):
return P==[]
def pile_pleine(P):
return False
def sommet(P):
assert not pile_vide(P), "la pile est vide"
return P[-1]
def depiler(P):
assert not pile_vide(P), "la pile est vide"
return P.pop()
def pile_pleine(P):
return False
def empiler(P,x):
P.append(x)
La formulation return P.pop() pour dépiler une pile peut-être intriguante, mais ce qu’il se passe est ceci : l’ins-
truction P.pop() est évaluée, elle a pour effet d’enlever un élément à P et de le renvoyer. Le résultat de l’expression
P.pop() et donc cet élément, qu’on renvoie à l’aide de return. Si ça vous gène, vous pouvez procéder en deux étapes :
x=P.pop() puis return x.
La complexité des trois premières opérations est constante, celle des deux dernières est un peu plus dure à déterminer
car elle demande de comprendre précisément comment marchent les méthodes append et pop de Python.
Une liste en mémoire est stockée dans un espace mémoire fixé. Lorsqu’on veut ajouter un élément x à une liste, il
se peut que cet espace ne soit pas suffisant. Dans ce cas, Python créé une nouvelle liste de taille supérieure, recopie
les éléments dans cette nouvelle liste et rajoute x à la fin. Donc, la complexité d’ajouter un élément à la fin d’une
liste est dans le pire cas proportionnelle à la taille de la liste. Ceci dit, si la liste n’est pas pleine, la complexité est
constante. Python fait les choses bien, lorsqu’une liste de taille n est pleine, il crée une nouvelle liste de taille 2 fois
supérieure 1 . On pourra donc réaliser ensuite n ajouts en temps constant. Ainsi, en moyenne, un ajout n’a coûté qu’un
temps constant. De même, pour garder un espace en mémoire proportionnel au nombre d’éléments de la liste, lorsque
la proportion d’éléments effectivement stockés en mémoire devient inférieur à un quart 2 de la capacité de la liste en
mémoire, Python la réduit à un demi en libérant la moitié de l’espace inutilisé.
En résumé, on peut montrer que n’importe quelle suite de n opérations L.append() et L.pop() à partir d’une
liste vide se fait en temps linéaire en n, et la liste n’occupe qu’une place en mémoire linéaire en le nombre d’éléments
stockés. On parle de complexité amortie constante. Les opérations ajouter et depiler ont donc une complexité
amortie constante.
La complexité amortie n’est pas au programme. On considère donc que toutes les opérations sur les piles de capacité
infinie se font en temps constant.
+ −
3 4 5 ×
2 6
Différentes énumérations d’un tel arbre sont possibles. Celle que l’on utilise habituellement en mathématiques est
l’énumération infixe. Pour énumérer un arbre, on procède de manière récursive comme suit :
— si l’arbre est une feuille, on énumère l’étiquette et il n’y a plus rien à faire.
— sinon, on énumère d’abord le sous-arbre gauche, puis l’étiquette de la racine, et on énumère le sous-arbre droit.
1. J’ai un petit doute sur le 4, c’est marqué quelque part dans la doc. Ça n’a pas vraiment d’importance, ce qui compte c’est le principe.
2. Là aussi, le 1/4 est à vérifier...
L’énumération infixe de l’expression représentée en figure 11.2 est donc : 3 + 4 × 5 − 2 × 6. Le problème de cette
énumération est que les parenthèses sont nécessaires pour savoir les opérations à effectuer en premier (on en enlève
certaines en convenant que × et / sont prioritaires sur + et − et que les opérations de même priorité s’effectuent de
gauche à droite, mais ce n’est qu’une convention !). En effet, l’arbre suivant a la même énumération infixe :
3 −
× ×
4 5 2 6
ce qui correspond bien aux expressions. Il est bien sûr possible d’améliorer grandement la fonction d’evaluation ci-
dessus, pour tester si l’expression est bien une expression postfixe correcte, intégrer les nombres négatifs, les opérateurs
unaires (carré, fonctions usuelles)... Mais tout cela se fait suivant la même idée, à l’aide d’une pile.
>>> L=[0,1,2]
>>> type(L)
<class 'list'>
Une classe regroupe les fonctions et les attributs définissant un objet. Les fonctions associées à une classe sont
appelées des « méthodes » : on a déja parlé des méthodes pop et append sur les listes, pour ne citer qu’elles. On va
voir maintenant comment créer nous-mêmes des classes et définir des méthodes sur les objets de la classe.
class personne:
def __init__(self,n,p):
self.nom=n
self.prenom=p
self.mail=None
def fixe_mail(self,s):
self.mail=s
def nom_personne(self):
return self.nom
def prenom_personne(self):
return self.prenom
On définit ici une classe personne, avec 4 méthodes. Une instance de la classe personne est munie de 4 attributs :
nom, prenom et mail. Si a est un tel objet, on accède à ses attributs à l’aide de a.nom, a.prenom et a.mail. Les deux
méthodes nom_personne et prenom_personne permette d’accéder à deux de ces attributs, la méthode fixe_mail
permet de modifier l’attribut mail. La méthode __init__ est tout à fait spéciale : elle permet la création d’un objet
associé à la classe personne. Toutes les méthodes ont en paramètre une variable self : il s’agit de l’objet sur lequel
on travaille. Si a est un objet de la classe personne et s une chaîne de caractère, personne.fixe_mail(a,s) remplace
la valeur de l’attribut mail de a par s. Mais tout comme les méthodes sur les listes, on emploiera plutôt la syntaxe
a.fixe_mail(s) qui est équivalente.
Revenons à __init__, qui s’utilise ainsi pour créer (et renvoyer) un nouvel objet de la classe : personne(n,p) avec
n et p contenant a priori deux chaînes de caractères. Petit exemple :
>>> a=personne("Dupont","Martin")
>>> a.prenom
'Martin'
>>> a.fixe_mail("[email protected]")
>>> a.mail
'[email protected]'
>>> a.nom_personne()
'Dupont'
class Pile_bornee:
def __init__(self,n):
self.nb=0
self.capacite=n
self.contenu=[None]*n
def pile_vide(self):
return self.nb==0
def pile_pleine(self):
return self.nb==self.capacite
def empiler(self,x):
assert not self.pile_pleine(), "la pile est pleine"
self.contenu[self.nb]=x
self.nb+=1
def sommet(self):
assert not self.pile_vide(), "la pile est vide"
return self.contenu[self.nb-1]
def depiler(self):
assert not self.pile_vide(), "la pile est vide"
self.nb-=1
return self.contenu[self.nb]
11.5.3 Implémentation d’une pile non bornée avec une liste Python
De même pour les piles de capacité infinie, à l’aide des listes Python :
class Pile_liste:
def __init__(self):
self.contenu=[]
def pile_vide(self):
return self.contenu==[]
def empiler(self,x):
self.contenu.append(x)
def sommet(self):
assert not self.pile_vide(), "la pile est vide"
return self.contenu[-1]
def depiler(self):
assert not self.pile_vide(), "la pile est vide"
return self.contenu.pop()
12 99 37 8
Pour implémenter une classe associée à cette structure, on va d’abord définir une classe Cellule, comportant une
seule méthode (de création). Une instance de cette classe comporte deux attributs, element (l’élément qu’elle contient)
et suiv (une cellule vers laquelle elle « pointe »). À la création une cellule ne « pointe » sur rien. Une pile (liste chaînée),
instance de la classe Pile_perso suivante, ne comporte qu’un seul attribut : tete. En suivant la définition abstraite,
soit tete vaut None (ceci est associé à une pile vide), soit elle pointe vers une cellule (le sommet de la pile). Les
méthodes de la classes (les opérations de pile) sont naturelles et vont modifier le champ suiv des cellules, et le champ
tete de la pile.
class Cellule:
def __init__(self,x):
self.element=x
self.suiv=None
class Pile_perso:
def __init__(self):
self.tete=None
def pile_vide(self):
return self.tete==None
def empiler(self,x):
c=Cellule(x)
c.suiv=self.tete
self.tete=c
def sommet(self):
assert not self.pile_vide(), "la pile est vide"
return self.tete.element
def depiler(self):
assert not self.pile_vide(), "la pile est vide"
c=self.tete
self.tete=c.suiv
return c.element
Un exemple d’utilisation
>>> P=Pile_perso()
>>> P.empiler(4)
>>> P.empiler(0)
>>> P.depiler()
0
>>> P.empiler(1)
>>> P.tete
<__main__.Cellule object at 0x7f2c585a1710>
>>> P.tete.element
1
>>> P.sommet()
1
Dans cette dernière implémentation, toutes les opérations ont une complexité O(1) (pas seulement amortie).
Lorsque la deuxième liste est vide et qu’on veut défiler (sortir un élément de la file), il est nécessaire de transférer
les éléments de la première liste dans la deuxième. Pour conserver l’ordre dans la file, il est nécessaire d’inverser l’ordre
des éléments lors du transfert. Voici les opérations de file à écrire :
— creer_file() : construire une file vide.
— file_vide(F) : renvoie un booléen suivant si la file F est vide ou non.
— defiler(F) : défile F en sortant l’élément en tête de file, et le renvoie. Si la file est vide, renvoie une erreur.
— enfiler(F,x) : ajoute l’élément x à la queue de la file F.
def creer_file():
return [],[] #couple de listes
def file_vide(F):
return F[0]==[] and F[1]==[]
def enfiler(F,x):
F[0].append(x)
def defiler(F):
assert not file_vide(F), "file vide"
if F[1]==[]:
F[1][:]=F[0][::-1] # contenu de la deuxième liste remplacé par celui de la première, à l'envers.
F[0][:]=[] # première liste vidée.
return F[1].pop()
Bien sûr, une classe serait tout indiquée. En terme de complexité, on peut montrer que toutes les opérations se
font en temps constant amorti.
Chapitre 12
Récursivité
def fact_rec(n):
assert n>=0, "n doit etre positif"
if n==0:
return 1
else:
return n*fact_rec(n-1)
qui fonctionne tout aussi bien ! On distingue clairement deux cas dans cette fonction :
— le cas n = 0, appelé cas terminal ;
— le cas n > 0, qui produit un appel récursif à la fonction fact_rec.
ce qui est relatif à l’exécution de g est dépilé. Comme l’adresse de retour est contenu dans la pile d’appel, l’exécution
de f peut reprendre juste après l’endroit où g a été appelée.
Une fonction récursive est essentiellement une fonction qui s’appelle elle-même, ainsi les appels successifs à f
s’empile dans la pile d’appels (voir figure 12.1).
n=0, fact_rec(0)=1
n=1, fact_rec(1)=1*fact_rec(0)
n=2, fact_rec(2)=2*fact_rec(1)
n=3, fact_rec(3)=3*fact_rec(2)
n=4, fact_rec(4)=4*fact_rec(3)
programme principal
Une fois arrivé à un cas terminal (ne produisant pas d’appel récursif), le nombre d’éléments de la pile d’appels se
réduit. Dans le cas de la fonction factorielle, comme celle-ci ne rappelle qu’une fois, dés lors qu’on a commencé à
dépiler on ne s’arrête plus (voir la figure 12.2)
n=3, fact_rec(3)=3*2
n=4, fact_rec(4)=4*fact_rec(3)
programme principal
Figure 12.2 – La pile d’exécution lors de l’appel de fact_rec(4) : on a dépilé les appels relatifs à n = 0, n = 1 et
n = 2.
Enfin, la récursion s’arrête lorsqu’on dépile l’élément correspondant au premier appel de la fonction (figure 12.3).
n=4, fact_rec(4)=24
programme principal
Figure 12.3 – La pile d’exécution lors de l’appel de fact_rec(4) : juste avant dépilage de l’appel initial.
On voit que ce le nombre d’appels imbriqués réalisés par une fonction récursive peut être important : il faut stocker
ces appels, ce qui est coûteux en mémoire. En Python, il est impossible de dépasser un certain nombre d’appels
récursifs, on en reparle dans la sous-section qui suit.
Calcul de puissances. On a vu en première année deux méthodes pour calculer xn , un algorithme d’exponentiation
naïf (faisant usage d’une boucle for, calculant toutes les puissances de x entre 1 et n), et un algorithme d’exponentiation
rapide (basé sur la décomposition en binaire de n). Les deux admettent des équivalents récursifs :
def expo(x,n):
if n==0:
return 1
else:
return x*expo(x,n-1)
def expo_rapide(x,n):
if n==0:
return 1
else:
y=expo_rapide(x,n//2)
if n%2==0:
return y*y
else:
return y*y*x
Chevauchement des appels récursifs. Considérons l’exemple suivant : soit (Fn )n∈N la suite définie par
1 si n = 0 ou 1.
Fn =
Fn−2 + Fn−1 sinon
Vous aurez probablement reconnu la fameuse suite de Fibonacci. Une transcription récursive en Python s’obtient
aisément :
def fib_rec(n):
assert n>=0
if n==0 or n==1:
return 1
return fib_rec(n-1)+fib_rec(n-2)
n−1 n−2
.. .. .. .. .. .. .. ..
. . . . . . . .
1 0 1 0
Le problème de l’algorithme précédent est le nombre d’appels récursifs effectués. Notons An le nombre d’appels
récursifs nécessaires pour le calcul de Fn . Alors, la suite (An ) vérifie la relation de récurrence A0 = A1 = 0 et pour
tout n ≥ 2, An = 2 + An−1 + An−2 , soit An + 2 = (An−2 + 2) + (An−1 + 2). Autrement dit, la suite (An + 2)n∈N
coïncide avec la suite (2Fn )n∈N . On peut donner une expression explicite de An , à savoir :
√ √ !n+1
!n+1
2 5+1 1− 5
Pour tout entier naturel n, An = √ − −2
5 2 2
√ n
5+1
mais ce qui importe, c’est que An ∼ C× 2 où C est une constante strictement positive. Un appel récursif
n→+∞
n’est jamais gratuit (et possède un coût minoré par une constante strictement positive), ainsi le calcul de Fn par cette
√
5+1
méthode est de complexité exponentielle, puisque 2 > 1. Il vaut mieux utiliser une méthode itérative dans ce cas,
comme la suivante 1 :
def fib(n):
a,b=1,1
for i in range(n-1):
a,b=b,a+b
return b
On peut observer que la version itérative est moins claire que la version récursive. Elle a l’avantage de s’effectuer
en temps linéaire 2 en n. En conclusion, il faut faire attention à ne pas faire des appels récursifs qui se recoupent, sous
peine de voir la complexité exploser !
Taille de la pile (Python). Supposons que l’on souhaite calculer n!, pour n relativement grand 3 , disons 10000. A
priori, les deux versions (itérative et récursive) font l’affaire. Or l’appel à fact_rec(10000) produit un message d’erreur
dont l’intitulé est RuntimeError: maximum recursion depth exceeded. En d’autres termes, le nombre maximal
d’appels de fonctions imbriqués a été atteint. En Python, ce niveau est fixé à 1000. Cette valeur arbitraire peut-être
augmentée 4 mais elle est là pour éviter un dépassement de capacité de la pile d’appels : le fameux « stack overflow » 5 .
Temps d’exécution : itératif contre récursif. Stocker systématiquement l’état d’une fonction avant chaque
appel récursif dans la pile d’appels n’est pas gratuit, en temps comme en mémoire. Si la formulation itérative s’obtient
facilement, il est en général préférable de l’utiliser.
1
2
3
4
5
6
7
Figure 12.5 – Le jeu de Hanoï : comment déplacer les 7 disques du piquet A au piquet C, en suivant les règles ?
Le but du jeu est d’amener les disques sur le troisième piquet, en suivant les règles suivantes :
— déplacer les disques un à un d’un piquet à un autre ;
— un disque ne doit jamais être posé sur un disque de diamètre inférieur.
La figure 12.6 montre les 7 mouvements à effectuer pour résoudre le jeu avec seulement 3 disques. Il est facile de
voir qu’il faut 127 mouvements pour le jeu à 7 disques (voir la suite).
On cherche à donner les mouvements de disques à effectuer pour résoudre le jeu. De manière itérative, il n’est pas
évident à résoudre, mais il est très facile de le faire lorsqu’on pense à la récursivité. Soient i, j et k trois caractères
tels que {i, j, k} = {A, B, C}, et n ∈ N. Pour faire passer n disques du piquet i au piquet j :
1. on peut cependant s’en sortir avec une version récursive ayant un coût linéaire.
2. Une autre remarque : cette fonction permet de calculer tous les termes de la suite. On peut faire mieux si on cherche uniquement le
n-ième, voir TD !
3. Rappelons à toute fin utile que les entiers ne sont pas bornés en Python.
4. À l’aide de la fonction setrecursionlimit du module sys.
5. Sur mon ordinateur personnel, le calcul de n! avec la méthode récursive ne passe plus à partir de 20000 environ.
1
2 2
3 3 1 3 2 1
1 1
3 2 2 3 1 2 3
1
2 2
1 3 3
La discussion précédente invite à écrire une fonction hanoi(n) résolvant le jeu à n disques, qui fait un unique appel
à une fonction récursive interne aux(n,i,j,k) qui doit donner la suite des mouvements permettant de faire passer n
disques du piquet i au piquet j, avec {i, j} ⊂ {A, B, C}. Pour des raisons de commodité, il est pratique d’indiquer le
dernière lettre parmi {A, B, C} dans une variable (k) :
def hanoi(n):
""" problème de Hanoi: déplacer une pile de n disques du piquet 1 au piquet 3 """
def aux(n,i,j,k):
""" deplacer n disques du piquet i au piquet j, le piquet restant étant k. {i,j,k}={1,2,3}"""
if n!=0:
aux(n-1,i,k,j)
deplacement(i,j)
aux(n-1,k,j,i)
aux(n,"A","C","B")
Testons avec n = 3 :
>>> hanoi(3)
A -> C
A -> B
C -> B
A -> C
B -> A
B -> C
A -> C
On retrouve les mouvements de la figure 12.6. Il est facile de montrer par récurrence que le nombre de mouvements
produits est 2n − 1 : c’est optimal 6 .
Comme on le voit sur cet exemple, les fonctions où plusieurs appels récursifs sont nécessaires ne sont pas vraiment
faciles à traduire de façon itérative (à moins d’utiliser une pile pour essentiellement réécrire la récursivité...) : c’est un
avantage de l’emploi de fonctions récursives.
6. La fonction a aussi une complexité en O(2n ), ce qui est exponentiel... Mais là on ne peut pas faire mieux !
12.2.1 Terminaison
Pour montrer la terminaison d’une fonction récursive, il suffit d’exhiber une quantité, dépendant des paramètres
de la fonction, à valeurs dans N, dont les valeurs décroissent strictement au cours des appels récursifs successifs. Pour
la fonction factorielle, il suffit de prendre le paramètre n lui-même. Considérons un exemple où la fonction en question
est (un peu) moins évidente : la recherche dichotomique dans une liste triée, qui est explicitement au programme (au
moins dans sa version itérative).
def dicho_rec(L,x):
"""L liste triée dans l'ordre croissant, x un élément. On renvoie True si x est dans L, False sinon"""
n=len(L)
if n==0:
return False
m=n//2
if L[m]==x:
return(True)
elif L[m]<x:
return dicho_rec(L[m+1:],x) #la partie à droite de L[m].
else:
return dicho_rec(L[:m],x) #la partie à gauche.
La fonction dicho_rec(L,x) retourne un booléen caractérisant le fait que x est dans L ou non. L’idée de la recherche
dichotomique est simple :
— Si la liste est vide, x n’y est pas ;
— Sinon, on regarde l’élément situé au milieu de la liste (d’indice bn/2c avec n la taille de la liste). Si c’est x, on a
terminé, sinon le fait que la liste soit triée nous permet de chercher x uniquement dans la partie droite (éléments
d’indices au moins m + 1, si x > L[m]), ou gauche (éléments d’indices au plus m − 1, si x < L[m]).
La terminaison de la fonction dicho_rec est alors facile à montrer : une quantité à valeurs dans N, dépendant
des paramètres de la fonction, qui décroît strictement à chaque appel récursif est la longueur de la liste L. Ainsi, la
fonction termine.
Attention aux coûts cachés ! Une remarque : en terme de complexité, la fonction précédente est très mauvaise,
car l’extraction d’une partie de la liste (L[:m] ou L[m+1:]) est de complexité linéaire en la taille de la partie extraite.
En fait, pour une liste de taille n, on peut montrer que la complexité de la recherche d’un élément avec dicho_rec
est O(n), ce qui n’est pas meilleur que la recherche classique dans une liste non triée. Voir la section complexité pour
une meilleure complexité, utilisant une fonction auxiliaire pour éviter le recopiage de listes.
Il n’est pas toujours évident d’exhiber une quantité qui décroît dans une fonction récursive. Le faire pour la fonction
de Syracuse suivante permettrait de résoudre un problème ouvert.
def Syracuse(n):
assert n>=1
print(n)
if n==1:
return(1)
elif n%2==0:
return Syracuse(n//2)
else:
return Syracuse(3*n+1)
Une remarque pour terminer : la quantité qui décroît n’est pas nécessairement à chercher dans N, un ensemble
ordonné n’ayant pas de suite infinie strictement décroissante suffit. C’est par exemple le cas de N2 ordonné par l’ordre
(dit lexicographique) défini comme suit :
12.2.2 Correction
Pour prouver la correction d’une fonction récursive, on procède en général par récurrence : on prouve d’abord
que la sortie de la fonction est correcte pour les cas terminaux, ce qui correspond à l’initialisation de la récurrence,
et on montre ensuite que les appels récursifs se ramènent à des instances plus petites (dans le même sens que la
terminaison), ce qui constitue l’hérédité. La plupart du temps, la correction est facile à prouver. Par exemple pour la
fonction dicho_rec définie plus haut, on considère la proposition suivante :
Si L est une liste triée dans l’ordre croissant et x un élément comparable à ceux de L, alors dicho_rec(L,x) retourne
True si et seulement si x est dans L, False sinon.
On montre de même la terminaison et la correction des fonctions récursives introduites plus haut dans le chapitre.
La factorielle. On a déja dit que n! se calculait en complexité linéaire avec la fonction fact_rec. Vérifions-le en
notant C(n) la complexité associée. Si n est nul, il n’y a rien à faire d’autre que de retourner 1, ce qui se fait en
temps constant O(1). Sinon, il faut multiplier le résultat de fact_rec(n-1) par n. Outre l’appel récursif (complexité
C(n − 1)), il n’y a donc qu’un coût constant 7 .On a donc
O(1) si n = 0
C(n) =
C(n − 1) + O(1) sinon
Pn
On vérifie immédiatement que C(n) = O(n) est solution de cette récurrence, car C(n) = k=1 [C(k)−C(k−1)]+O(1) =
n × O(1) = O(n). (Remarque : on abuse ici de la notation O, il faudrait préciser que la constante cachée ne dépend
pas de n pour que le raisonnement soit valable. Mais cet abus est fait couramment en informatique).
Tours de Hanoï. Pour le problème des tours de Hanoï, en notant C(n) la complexité requise pour le calcul des
mouvements nécessaires au déplacement de n disques, on établit facilement que C(n) = 2C(n − 1) + PO(1). Il s’ensuit
n
que C( 2nn ) = C( 2n−1
n−1 )+O( 1
2n ). En sommant les termes de la suite associée, on en déduit C( n
2n ) = O( 1
k=0 2k ) = O(1).
D’où C(n) = O(2n ).
Pn
Récurrences
Pn usuelles. En se souvenant que (voir le cours de mathématiques) k=0 nα = O(nα+1 ) pour α ≥ 0, où
que k=0 q k = O(q n ) pour q > 1, on peut résoudre des récurrences similaires aux deux précédentes.
7. Ce qui n’est pas tout à fait vrai, car les opérations sont plus complexes lorsque la taille des entiers augmentent. On compte ici les
opérations arithmétiques, pas les opérations binaires.
Récurrences « diviser pour régner ». Un cas particulier que l’on retrouve souvent dans l’examen de la complexité
des fonctions récursives est celui des récurrences de la forme 8 :
avec a et b deux entiers positifs non tous deux nuls, et α ≥ 0. Indiquons comment traiter ces récurrences, dans le cas
où n est une puissance de 2 : en notant γ = a + b, et n = 2k , on a donc C(2k ) = γC(2k−1 ) + O(2αk ). Ainsi :
C(2k ) C(2k−1 )
α
2
= + O ( )k
γk γ k−1 γ
h i
C(2k ) Pk C(2i ) C(2i−1 ) α
Comme γk
= i=1 γi − γ i−1 + O(1), on est ramené à la sommation des ( 2γ )i . Il y a donc 3 cas :
2α i
Pk
• si 2α < γ, i=1 ( γ ) = O(1) et donc C(2k ) = O(γ k ).
2α i α
Pk
• si 2α > γ, i=1 ( γ ) = O(( 2γ )k ) et donc C(2k ) = O(2kα ) = O(nα ).
2α i
Pk
• si 2α = γ, i=1 ( γ ) = O(k) et donc C(2k ) = O(kγ k ).
k
Revenons à l’entier n : comme 2k = n, on a k = log2 (n) et γ k = 2log2 (γ ) car log2 est la réciproque de x 7→ 2x . Or
k
2log2 (γ ) = 2k log2 (γ) = nlog2 (γ) . En admettant que ce résultat est encore vrai si n n’est pas une puissance de 2, on a
montré le théorème suivant :
Théorème 12.1 (Complexité des stratégies « diviser pour régner »). Supposons qu’il existe deux entiers naturels a
et b non tous deux nuls et un réel α ≥ 0 tels que C(n) vérifie :
Recherche dichotomique récursive. Donnons maintenant une implémentation correcte (en terme de complexité)
de la recherche dichotomique récursive dans une liste triée. On reprend l’idée du code précédent, mais en utilisant
une fonction auxiliaire interne pour éviter les copies. Elle prend en argument deux entiers délimitant la portion dans
laquelle peut se trouver l’élément cherché.
def dicho_rec(L,x):
def aux(g,d):
""" renvoie True si x est dans L[g:d], False sinon. """
if g>=d:
return False
m=(g+d)//2
if L[m]==x:
return True
elif L[m]>x:
return aux(g,m)
else:
return aux(m+1,d)
return aux(0,len(L))
En notant p = d − g, on s’aperçoit que la fonction aux a une complexité vérifiant 9 C(p) = C(bp/2c) + O(1). Le
théorème précédent montre directement que C(p) = O(log2 (p)), on retrouve donc bien une complexité logarithmique
pour la recherche dichotomique récursive. Remarquez que le code est très semblable à la version classique de recherche
dichotomique avec une boucle while, ce qui n’est pas surprenant.
8. On rappelle que b.c est la partie entière usuelle (inférieure) et d.e la partie entière supérieure.
9. Pas tout à fait, c’est même « un peu moins », car la portion à droite de l’indice m a pour taille dp/2e − 1 ≤ bp/2c. Mais le résultat
est le même.
Paradigme « diviser pour régner ». On va introduire un paradigme de résolution de problèmes, qui va s’appliquer
à celui de la multiplication de polynômes, le paradigme « diviser pour régner ». Il consiste à :
— découper le problème principal en sous-problèmes de tailles plus petites (division) ;
— calculer récursivement une solution à ces sous-problèmes ;
— recomposer la solution du problème principal à l’aide des solutions des sous-problèmes (règne).
t0 = p0 q0
t1 = p1 q1
t2 = (p0 + p1 ) × (q0 + q1 )
Alors le terme p0 q1 + p1 q0 se déduit des produits ci-dessus car c1 = t2 − t1 − t0 . Ainsi, seulement 3 multiplications
sont nécessaires lorsque n = 2, au lieu de 4 avec la méthode naïve. Certes, le nombre d’additions/soustractions est
passé de 1 à 4, ce qui fait passer le nombre d’opérations élémentaires de 5 à 7. Mais la récursivité va nous permettre
d’obtenir un gain substantiel avec cette idée.
L’algorithme de Karatsuba. Si n = 1 (les deux polynômes sont des constantes), le produit est simplement
le produit des deux constantes. Sinon, posons m = n2 , et découpons nos polynômes en 2. On écrit donc P0 =
Pm−1 k
Pn−1 k−m
k=0 pk X et P1 = k=m pk X de sorte que P = P0 + X m P1 , et de même Q = Q0 + X m Q1 . Posons ensuite
T0 = P0 Q0 , T1 = P1 Q1 et T2 = (P0 + P1 ) × (Q0 + Q1 ).
Comme P × Q = (P0 + X m P1 )(Q0 + X m Q1 ) = P0 Q0 + X m (P1 Q0 + P0 Q0 ) + X 2m P1 Q1 , on obtient le produit en
combinant les facteurs (Ti ) de la façon suivante : P × Q = T0 + X m (T2 − T1 − T0 ) + X 2m T1 . Les produits (Ti ) sont
eux-même calculés récursivement en exploitant cette idée. L’algorithme, en pseudo-code, est le suivant :
10. Anatoli Alekseïevitch Karatsuba, mathématicien russe (1937-2008).
Étude de la complexité de l’algorithme de Karatsuba. Supposons pour simplifier que n est une puissance de
2, donc s’écrit 2k . Dans chaque appel récursif, les instances ont des tailles divisées exactement par 2. Pour déterminer
la complexité globale, il est essentiel d’estimer la complexité des deux étapes diviser et régner. Ici, on suppose qu’on
ne compte que les opérations arithmétiques dans l’anneau A (additions, multiplications, soustractions).
— Pour diviser, il faut créer les tableaux associés aux polynômes P0 et P1 , et calculer les polynômes P0 + P1 et
Q0 + Q1 . Ceci se fait en temps linéaire en n.
— Pour régner, il faut créer une liste T de taille (2n − 1), et combiner les trois listes associées à T0 , T1 et T2 pour
obtenir la liste T . Ceci se fait également en temps linéaire en n puisqu’il suffit de parcourir les listes T0 , T1 et
T2 et de modifier un ou deux éléments de T pour chacun des éléments des trois listes.
Pour le calcul du produit, on fait trois appels récursifs pour résoudre des problèmes de taille divisée par 2. Ainsi, la
complexité C(n) de l’algorithme de Karatsuba satisfait à l’équation : C(n) = 3 × C(n/2) + O(n) dont la solution est
C(n) = O nlog2 (3) . On admet que cette solution est valable pour n quelconque. C’est un cas particulier du théorème
sur la résolution des récurrences « diviser pour régner », on a en fait ici
Code Python. Il faut faire attention, la taille de P1 est la même que celle de P0 si n est pair, un de plus si n est
impair. De même pour Q0 et Q1. Ainsi T1 et T2 ont la même taille, supérieure à celle de T0 si n est impair.
def Karatsuba(P,Q):
n=len(P)
if n==1:
return [P[0]*Q[0]]
m=n//2
P0=P[:m] ; P1=P[m:] ; Q0=Q[:m] ; Q1=Q[m:]
T0=Karatsuba(P0,Q0) ; T1=Karatsuba(P1,Q1)
for i in range(m):
P1[i]+=P0[i] ; Q1[i]+=Q0[i]
T2=Karatsuba(P1,Q1)
T=[0]*(2*n-1)
for i in range(len(T0)):
T[i]+=T0[i] ; T[i+m]-=T0[i]
for i in range(len(T1)):
T[i+m]+=T2[i]-T1[i] ; T[i+2*m]+=T1[i]
return T
Et en pratique ? Le tableau suivant montre les temps en secondes nécessaires en Python pour calculer sur mon
ordinateur personnel (Pocket PC de 2012) le produit de deux polynômes P et Q avec de petits coefficients entiers
(tirés aléatoirement dans l’intervalle [[−1000, 1000]]), de degrés variables, avec un algorithme naïf et avec l’algorithme
de Karatsuba.
Pour mieux apercevoir les variations, on peut tracer le diagramme log-log de ces temps. Un complexité C(n) = nα
donne une droite car log(C(n)) = α · log(n), ce qu’on observe sur le graphe suivant. Une régression linéaire fait
apparaître des coefficients directeurs proches des valeurs théoriques 2 et 1.58 ' log2 (3).
103
temps en secondes
102
101
100
10−1
103 104
n (degré des polynômes)
Pour de petits polynômes, l’algorithme de Karatsuba est sans intérêt, mais il devient assez vite intéressant : il est
plus efficace que l’algorithme naïf pour des polynômes de degré au moins 500.
Chapitre 13
On aborde dans ce chapitre les tris efficaces pour trier des listes de grande taille. On en présente deux : le tri par
fusion et le tri rapide. Tous deux sont basés sur la stratégie « diviser pour régner », et sont plus efficaces que le tri
par insertion dès que le nombre d’éléments à trier dépasse environ 50. Le tri par fusion a une complexité quasi-linéaire
(en O(n log(n))) dans le pire cas, ce qui n’est pas le cas du tri rapide qui est quadratique. Mais contrairement aux
tris de la section précédente, le tri rapide a une complexité quasi-linéaire en moyenne. Il a l’avantage de s’effectuer en
place (contrairement au tri fusion), ce qui en fait le tri le plus efficace en pratique. Un autre tri qui cumule les deux
avantages (quasi-linéaire dans le pire cas, en place) est le tri par tas, qui pourra faire l’objet d’un problème.
Plan du chapitre. On rappelle brièvement les principes de la stratégie « Diviser pour régner », avant de l’appliquer
aux deux tris (tri fusion et tri rapide). On détaille les complexités de ces tris, en montrant en particulier que le tri
fusion (dans le pire cas) et le tri rapide (en moyenne) ont une complexité O(n log n). On montre ensuite qu’on ne peut
avoir mieux qu’une complexité O(n log n) pour le problème du tri, ce qui fait du tri fusion un tri optimal. Enfin, on
s’intéresse au problème de déterminer la médiane d’une liste (ou plus généralement son k-ème plus petit élément).
Avec une variante du tri rapide, on peut résoudre ce problème en temps O(n) en moyenne.
Concrètement, pour trier une liste à l’aide de cette stratégie, on va se ramener au tri de deux listes de taille
inférieure. Le tri fusion et le tri rapide diffèrent conceptuellement. Pour le tri fusion, l’étape de division est immédiate :
il s’agit juste de couper la liste en deux. Une fois les parties gauche et droite de la liste triées, il faut fusionner ces
deux parties triées en une liste triée. Pour le tri rapide, on commence par partitionner la liste autour d’un élément
appelé pivot : les éléments à gauche du pivot sont plus petits, ceux à droite sont plus grands. On trie récursivement
ces deux parties gauche et droite, et il n’y a rien à faire pour l’étape de règne : la liste obtenue est triée.
Principe. On va parcourir les deux listes de gauche à droite au moyen de deux indices i1 et i2 . À chaque étape, le
plus petit élément parmi L1[i1] et L2[i2] est ajouté à la fin de la liste L (initialement vide), et l’indice correspondant
est incrémenté. Une petite difficulté se produit lorsqu’on a terminé la lecture d’une des deux listes, il faut alors faire
attention à ne pas tenter d’accéder à des éléments en dehors des listes : par exemple si l’on a terminé L1, l’indice i1
vaut alors len(L1) et l’accès L1[i1] produirait une erreur.
Illustration. Le schéma suivant détaille l’algorithme de fusion sur deux listes triées.
L1 0 2 5 7 7 L2 1 3 3 6 L
i1 i2
L1 0 2 5 7 7 L2 1 3 3 6 L 0
i1 i2
L1 0 2 5 7 7 L2 1 3 3 6 L 0 1
i1 i2
L1 0 2 5 7 7 L2 1 3 3 6 L 0 1 2
i1 i2
L1 0 2 5 7 7 L2 1 3 3 6 L 0 1 2 3
i1 i2
L1 0 2 5 7 7 L2 1 3 3 6 L 0 1 2 3 3
i1 i2
L1 0 2 5 7 7 L2 1 3 3 6 L 0 1 2 3 3 5
i1 i2
L1 0 2 5 7 7 L2 1 3 3 6 L 0 1 2 3 3 5 6
i1 i2
L1 0 2 5 7 7 L2 1 3 3 6 L 0 1 2 3 3 5 6 7
i1 i2
L1 0 2 5 7 7 L2 1 3 3 6 L 0 1 2 3 3 5 6 7 7
i1 i2
Code Python. Il s’agit simplement d’une boucle for, qui est exécutée n1 + n2 fois, avec n1 et n2 les tailles des
listes L1 et L2. La condition du if est naturelle : on prend l’élément L1[i1] si l’une des deux conditions suivantes est
vérifiée :
— on a déja pris tous les éléments de la liste L2 (auquel cas i2 = n2) ;
— ou on a pas encore pris tous les éléments de la liste L1 (auquel cas i1 < n1) et L1[i1] ≤ L2[i2].
Comme and est évalué avant or et que ces opérateurs là sont paresseux, le code s’effectue sans erreur : en effet, si
i2 = n2, ce qui est à droite du or n’est pas évalué, et sinon, L1[i1]<=L2[i2] n’est évalué que si i1 < n1.
def fusion(L1,L2):
L=[]
i1=0 ; i2=0
n1=len(L1) ; n2=len(L2)
for i in range(n1+n2):
#Inv(i): L est triée dans l'ordre croissant et ses éléments sont ceux de L1[0:i1] et L2[0:i2].
if i2==n2 or i1<n1 and L1[i1]<=L2[i2]:
L.append(L1[i1])
i1+=1
else:
L.append(L2[i2])
i2+=1
#Inv(i+1)
return L
Terminaison et correction. La terminaison est évidente car il n’y a qu’une boucle for. La fonction s’effectue sans
erreur, car on n’accède pas à des éléments situés en dehors des listes L1 et L2. Un invariant de la boucle for est le
suivant :
Inv(i) : L est triée dans l’ordre croissant et ses éléments sont ceux de L1[0:i1] et L2[0:i2].
En effet, cette propriété est vérifiée avant la boucle (L, L1[0:i1] et L2[0:i2] sont toutes vides), et est conservée
à chaque passage de boucle : comme L1 et L2 sont triées, on rajoute à L le plus petit élément parmi ceux de L1[i1:]
et L2[i2:]. Ainsi, on en déduit en particulier qu’après la boucle, L contient bien les éléments de L1 et L2 dans l’ordre
croissant.
Complexité. En terme de complexité, il est clair que le nombre d’affectations réalisées est exactement n1 + n2
(on compte 1 affectation pour l’utilisation d’append) puisqu’on en fait une à chaque tour de boucle. Le nombre de
comparaisons dépend du déroulement de l’algorithme : on en fait plus si on a besoin de piocher alternativement dans
L1 et L2, alors que le nombre minimal va être atteint si les éléments de L1 sont tous plus petits que les éléments de
L2 (si L1 est de taille inférieure à L2, ce qui sera vérifiée dans la suite). Dans le pire cas, on fait donc n1 + n2 − 1
comparaisons, et dans le meilleur min(n2 , n1 ).
Code Python. L’écriture est très simple. Attention à ne pas oublier le cas de base !
def tri_fusion(L):
n=len(L)
m=len(L)//2
if n<=1:
return L[:]
else:
return fusion(tri_fusion(L[:m]),tri_fusion(L[m:]))
Terminaison. La terminaison de la fonction tri_fusion(L) est immédiate : si la taille de la liste est au plus 1, on
renvoie une copie, sinon on sépare la liste en deux (m vérifie 0 < m < n, avec n la taille de la liste L, donc les deux
listes sont de tailles strictement inférieures à n), on appelle récursivement la fonction tri_fusion sur les deux listes,
et on fusionne le résultat.
Correction. Comme pour beaucoup de fonctions récursives, la correction est facile à établir par récurrence forte
(sur la taille de la liste). Soit pour n ∈ N la proposition P(n) :
P(n) : tri_fusion(L) retourne une copie triée dans l’ordre croissant de la liste L si celle-ci est de taille n.
— Si n = 0 ou 1, c’est immédiat.
— Sinon, avec m = n2 , comme m < n et n − m < n, par hypothèse de récurrence, les listes tri_fusion(L[:m]) et
tri_fusion(L[m:]) sont bien des copies triées de L[:m] et L[m:]. Ainsi P(n) est vraie car la fonction fusion
est correcte.
— Par principe de récurrence, tri_fusion(L) est correcte.
Complexité (version rapide). La fonction de fusion a une complexité O(n) pour fusionner deux listes de taille n.
Construire les deux listes L[:m] et L[m:] prend également un temps O(n). Ainsi, la complexité du tri vérifie :
j n k l n m
C(n) = C +C + O(n)
2 2
car la liste L[:m] est de taille n2 et la liste L[m:] de taille n − 2 = n2 car n/2 est un entier ou un demi-entier.
n
Dans le cas où n est une puissance de 2 et s’écrit n = 2p , on a C(2p ) = 2C(2p−1 ) + O(2p ). En divisant par 2p , on
p p−1
obtient C(22p
)
= C(2 )
2p−1 + O(1). Ainsi,
p
C(2p ) C(2k ) C(2k−1 )
X
= C(1) + − = O(p)
2p 2k 2k−1
k=1
D’où C(n) = O(n log n) car p = log2 (n) ici. Ce résultat s’étend à n quelconque, en admettant la croissance de C et en
encadrant n entre deux puissances de 2 successives. C’est un cas particulier du théorème sur les récurrences « diviser
pour régner ». Remarquez que dans ce cas là, l’arbre des appels récursifs est équilibré : tous les niveaux de l’arbre
contribuent pour O(n) à la complexité totale :
n −→ O(n)
+
n n
2 + 2 −→ O(n)
+
n n n n
hauteur log2 (n) 22 + 22 + 22 + 22 −→ O(n)
+
.. .. .. .. .. .. .. .. ··· ..
. . . . . . . . .
+
n n n n
2k + 2k + ··· + 2k + 2k → 2k · O(1) = O(n)
Figure 13.2 – Complexité dans le tri fusion sur une liste de taille n = 2k .
Complexité (version longue). On peut essayer d’anayser plus précisément le nombre d’affectations et le nombre
comparaisons.
Nombre de comparaisons. La fonction fusion fait n − 1 comparaisons pour fusionner deux listes de taille totale
n dans le pire cas, et seulement la taille de la plus petite liste dans le meilleur cas. On obtient donc ici :
(
0 si n = 1. 0 si n = 1.
(
pire meilleur
Ccomp (n) = Ccomp (n) =
meilleur ( n meilleur ( n
pire n pire n
n
Ccomp ( 2 ) + Ccomp ( 2 ) +n−1 sinon. Ccomp 2
)+ Ccomp 2
)+ 2
sinon.
pire meilleur n
Dans le cas où n est une puissance de 2, on obtient Ccomp (n) = n log2 (n) − n + 1 et Ccomp (n) = 2 log2 (n), en
pire
faisant essentiellement le même raisonnement que précédemment. On peut montrer que Ccomp (n) ∼ n log2 (n) et
n→+∞
meilleur n
Ccomp (n) ∼ log2 (n) pour n quelconque. 1 .
n→+∞ 2
Nombre d’affectations. Il est un peu plus délicat de parler du nombre d’affectations car ici on renvoie une copie
triée de la liste, et il faut faire des découpages. Voir la feuille d’exercice pour un tri fusion « un peu plus en place »,
dont le nombre d’affectations vérifie :
0 si n = 1.
Caff (n) =
Caff ( n2 ) + Caff ( n2 ) + n
sinon.
La solution de cette récurrence dans le cas où n est une puissance de 2 est Caff (n) = n log2 (n). Ceci est également un
équivalent 2 pour n non une puissance de 2.
Propriétés. Le tri ne s’effectue pas en place, en effet on renvoie une copie triée de la liste, (ou au mieux on utilise
une liste de même taille que la liste à trier pour effectuer les fusions, voir feuille d’exerices), par contre, il est stable.
Idée. Contrairement au tri fusion, on ne coupe pas arbitrairement en deux. Supposons que l’on veuille trier la
séquence constituée des éléments 4,1,8,3,2,5,7,6. On choisit le premier élément (c’est arbitraire) comme pivot, et on
sépare les autres éléments en deux ensembles : {1, 2, 3} et {5, 6, 7, 8}. Les éléments du premier ensemble sont plus
petits que le pivot, ceux du deuxième plus grand. Il suffit alors de trier récursivement les deux ensembles pour obtenir
une liste triée, en intercalant le pivot au milieu. Bien sûr, en pratique, on travaille avec des listes et pas avec des
ensembles : peu importe comment sont répartis les éléments à gauche et à droite du pivot : l’important est d’avoir
partagé la liste en 3 : les éléments plus petits que le pivot, le pivot, et les éléments plus grands.
Partition d’une portion de liste. La fonction a écrire prend en entrée une liste L, et deux indices g et d délimitant
la sous-liste de L à partionner, qui est L[g:d]. On suppose que g < d − 1, de sorte qu’il y ait au moins deux éléments
dans la portion. L’idée est alors la suivante :
— On choisit (arbitrairement) le pivot comme étant le premier élément de la portion, à savoir L[g].
— On parcourt le reste de la portion (de l’indice g + 1 inclus à l’indice d exclus) en gardant une séparation de
la portion déja parcourue en deux morceaux : celui des éléments strictement inférieurs au pivot, et celui des
morceaux supérieurs ou égaux.
— Une fois la portion parcourue entièrement, il suffit d’amener le pivot à la jonction des deux morceaux, pour
avoir partionné la portion en trois zones : les éléments strictement inférieurs au pivot, le pivot, et les éléments
supérieurs.
— Dans l’optique de trier la liste, il faudra faire des appels récursifs sur les deux zones à gauche et à droite du
pivot : on renvoie donc l’indice où se trouve le pivot à la fin de la partition.
La partie délicate à écrire est celle du parcours de la portion. Lorsqu’on examine un nouvel élément, il faut distinguer
les cas suivant si celui-ci est supérieur ou égal au pivot (auquel cas on ne fait rien), ou strictement inférieur : dans ce
cas il faut le permuter avec l’élément supérieur ou égal au pivot situé le plus à gauche. Ceci est résumé dans le dessin
suivant :
2. De même que pour le nombre de comparaisons, il est possible dans ce cas de donner le nombre exact d’affectations effectuées :
Caff (n) = n [log2 (n) + f (log2 (n))] avec f la fonction de la note précédente.
3. On laisse l’écriture d’un tel tri en exercice.
4<5
8≥5
pivot
··· 5 2 3 1 7 9 6 4 ··· pivot
··· 5 2 3 1 7 9 6 8 ···
··· 5 2 3 1 7 9 6 4 ···
··· 5 2 3 1 7 9 6 8 ···
··· 5 2 3 1 4 9 6 7 ···
Figure 13.3 – Le pivot est 5. L’élément auquel on s’intéresse (en rouge) est soit strictement inférieur ou égal au pivot,
auquel cas il est permuté avec l’élément supérieur ou égal le plus à gauche, soit supérieur, auquel cas on ne fait rien.
Code Python. La discussion précédente invite à repérer par un indice m la position de l’élément le plus à droite
parmi ceux qui sont strictement inférieurs au pivot. À l’examen de L[i], si L[i] < pivot on incrémente m de 1, puis
on fait l’échange entre L[m] et L[i] (on ne décide de le faire que si m < i, ce qui signifie que la portion des éléments
supérieurs ou égaux au pivot est non vide). En fin de fonction il suffit de permuter L[m] et L[g] pour amener le pivot
en position m (de même, on ne le fait que si m > g, ce qui signifie que la portion des éléments strictement inférieurs au
pivot est non vide).
L’algorithme de partition
def partition(L,g,d): #g inclus, d exclus.
pivot=L[g]
m=g
for i in range(g+1,d):
#Inv(i): L[g+1:m+1] a ses éléments < pivot, ceux de L[m+1:i] sont >= pivot, avec i>=m+1.
if L[i]<pivot:
m+=1
if i>m:
L[i],L[m]=L[m],L[i]
#Inv(i+1)
if m>g:
L[m],L[g]=L[g],L[m]
return m
Terminaison et correction. Il est clair que cette fonction termine. Montrons la correction. L’invariant de la boucle
for est :
Invi : Les éléments de la liste L[g+1:m+1] sont strictement inférieurs au pivot L[0], les éléments de la liste L[m+1:i]
sont supérieurs, avec i ≥ m + 1.
Montrons le :
— Invg+1 est vrai en début de boucle : en effet, les deux sous-listes L[g+1:m+1] et L[m+1:g+1] sont vides dans ce
cas, car g + 1 = m + 1.
— Pour tout i ∈ {g + 1, d − 1}, si Invi est vrai en haut de la boucle, alors Invi+1 est vrai en bas de la boucle : en
effet, si L[i]>=pivot, on ne fait rien. Si L[i]<pivot, on incrémente m puis on échange L[i] et L[m] (seulement
si i est différent de m, car sinon il n’y a rien à faire). Donc Invi+1 est vrai en fin de boucle.
Par suite, Invd−1+1 = Invd est vrai en fin de boucle : les éléments de L[g+1:m+1] sont strictement inférieurs au
pivot, et les éléments de L[m+1:d] sont supérieurs. Comme le dernier if échange L[g] et L[m] (ce qui est nécessaire
seulement si m > g), la fonction se termine avec L partitionnée au niveau du pivot. On renvoie m, qui est maintenant
l’indice du pivot.
Complexité. En terme de complexité, il est clair que la fonction partition fait exactement d − g − 1 comparaisons.
En terme d’échanges, dans le « meilleur » cas, elle n’en fait aucun (ce qui correspond au cas ou les éléments sont tous
strictement plus petits ou tous plus grands que le pivot) et dans le « pire cas », elle en fait d − g − 1. Mais on va voir
que cette notion de pire cas et de meilleur cas n’est pas très pertinente : ce qu’on espère surtout c’est que la partition
soit équilibrée au maximum (dans ce cas, le nombre d’échanges est variable entre 1 et environ d−g 2 ).
Code Python. On en déduit immédiatement un algorithme récursif, faisant usage d’une fonction auxiliaire.
Le tri rapide
def tri_rapide(L):
def aux(g,d):
if g<d-1: #sinon il n'y a rien a faire.
m=partition(L,g,d)
aux(g,m)
aux(m+1,d)
aux(0,len(L))
La fonction tri_rapide se contentant d’appeler aux entre les indices 0 et len(L). Les preuves de terminaison et
de correction sont très semblables à celles du tri fusion.
Complexité : pire cas. Supposons la liste triée dans l’ordre croissant. Alors le premier appel à partition réalise une
très mauvaise partition : la liste est laissée dans le même état, et le pivot renvoyé est celui en position 0. Le premier
appel récursif aux(0,0) ne fera strictement rien, alors que le second sera tri_rapide(1,len(L)), ce qui revient à
recommencer le même procédé avec la liste L[1:]. Clairement, le tri est mauvais dans ce cas (pas meilleur que le tri
par sélection) car quadratique en le nombre de comparaisons.
Complexité : meilleur cas. En revanche, si chaque appel à partition sépare les éléments en deux parties égales
à un élément près (plus le pivot), on se convainc facilement que la complexité est en O(n log(n)) car la récurrence
vérifiée par le tri est, en terme de comparaisons :
meilleur meilleur n−1 meilleur n−1
Ccomp (n) = Ccomp + Ccomp +n−1
2 2
On peut donner une formule exacte pour ce nombre de comparaisons lorsque n est de la forme 2k − 1. En effet dans
meilleur
ce cas, Ccomp (n) = 2 + (n + 1)(k − 2) ∼ n log2 (n). On peut montrer que cet équivalent est toujours valable pour
n→+∞
n quelconque 4 . Ainsi, dans le meilleur cas le tri par partition fait de l’ordre de n log2 (n) comparaisons, et environ
n
2 log2 (n) échanges (donc n log2 (n) affectations), ce qui est très bien. En fait, on est en général beaucoup plus proche
du meilleur cas que du pire, comme on va le voir au paragraphe suivant.
Complexité : nombre moyen de comparaisons. Comme on l’a dit dans l’introduction du chapitre précédent
sur les tris, pour l’étude de la complexité en moyenne, on suppose que les éléments de la liste à trier sont tous distincts
et que les positions relatives des éléments sont équiprobables. On suppose donc que la liste à trier est constituée
des éléments de l’ensemble {0, 1, . . . , n − 1}, et on veut compter le nombre de comparaisons effectuées en moyenne,
c’est-à-dire :
1 X
Ccomp,moy (n) = Ccomp ([σ(0), . . . , σ(n − 1)])
n!
σ∈Sn
Pour donner une estimation de cette complexité, on va raisonner en termes probabilistes, chaque permutation σ ayant
probabilité 1/n!. Remarquons que deux éléments i < j ne sont comparés qu’au plus une fois par l’algorithme, et c’est
le cas si et seulement si l’un des deux est un pivot au moment où l’on applique la fonction partition sur une sous-liste
contenant à la fois i et j. Il est intéressant de remarquer que, lorsque l’on applique la fonction partition sur une
sous-liste contenant à la fois i et j, avec i < j :
— soit le pivot est un élément k vérifiant k < i ou k > j, dans ce cas, la fonction de partition est rappelée sur
une sous-liste plus petite contenant encore i et j.
Considérons pour i < j l’ensemble Ui,j = {i, i + 1, i + 2, . . . , j − 1, j}. La discussion précédente montre que :
Les éléments i et j sont comparés si et seulement si i ou j est le premier élément de Ui,j à être choisi
comme pivot dans le déroulement de l’algorithme.
Or, tout élément de Ui,j a même probabilité d’être choisi en premier, à savoir |U1i,j | = j−i+1
1
. Ainsi, en notant X la
P
variable aléatoire donnant le nombre de comparaisons effectuées par le tri, on a X = i<j Xi,j avec Xi,j la variable
2
aléatoire prenant la valeur 1 si i et j sont comparés, et 0 sinon. Xi,j suit donc une loi de Bernoulli de paramètre j−i+1 .
L’espérance d’une variable aléatoire étant une forme linéaire, on a :
n−2
X n−1
X X 2
E(X) = E(Xi,j ) =
i<j i=0 j=i+1
j−i+1
n−2 n−1
X X 1
E(X) = 2
i=0 j=i+1
j − i+1
n−2 n−i n−2 i+2
X X 1 X X 1
= 2 =2
i=0 k=2
k i=0
k
k=2
n−2
X n−2
X
2 (ln(i + 3) − ln(2)) ≤ E(X) ≤ 2 ln(i + 2)
i=0 i=0
R k+1 dx R k dx
Les deux inégalités étant obtenues par encadrement de k1 entre k x et k−1 x . Les deux sommes obtenues
ont pour même terme général un équivalent de ln(i) lorsque i tend vers l’infini. Par une comparaison série intégrale
(t 7→ ln(t) est croissante et tend vers l’infini), on en déduit que :
E(X) ∼ 2n ln(n) = 2 ln(2)n log2 (n). Comme 2 ln(2) ' 1.39, on est très proche du meilleur cas !
n→+∞
Complexité : nombre moyen de comparaisons. Dans le code ci-dessus, il est facile de voir que le nombre
d’échanges moyens réalisés est environ moitié moins que le nombre de comparaisons effectués (heuristiquement : on
fait un échange si on tombe sur un élément inférieur au pivot, ce qui arrive en moyenne une fois sur deux), on trouve
donc également 2n ln(n) affectations en moyenne (deux affectations pour un échange).
Propriétés. L’avantage du tri rapide sur le tri fusion est qu’il s’effectue en place. Par contre, il n’est pas stable.
Optimisations. une liste triée est un pire cas pour l’algorithme du tri rapide. Un moyen d’y remédier est de mélanger
la liste de manière aléatoire. En fait, plutôt que de faire ce pré-traitement, il est plus judicieux de modifier l’algorithme
de partition pour que le pivot de la liste L[g:d] choisi ne soit pas L[g], mais un élément pris au hasard dans L[g:d].
On peut ainsi ajouter les lignes suivantes au début de l’algorithme partition :
pos_pivot=randint(g,d-1)
if pos_pivot>g:
L[g],L[pos_pivot]=L[pos_pivot],L[g]
où randint, importée du module random, prend en entrée deux entiers a et b et retourne un élément aléatoire de [[a, b]].
Une deuxième optimisation possible est la suivante : si l’algorithme (même dans sa version aléatoire), est proche
du pire cas, on risque sur de grands listes de dépasser la limite des 1000 appels récursifs imbriqués de Python. Pour
y remédier, il est possible de transformer l’appel récursif sur la plus grande des sous-listes en boucle while. Cette
transformation est laissée en exercice.
Enfin, la fonction de partition proposée dans ce cours fait beaucoup d’échanges, il est possible de l’améliorer un
peu.
13.4 Une borne inférieure sur la complexité des tris par comparaisons
On a vu que le tri rapide a une complexité quasi-linéaire en moyenne, et le tri fusion une complexité quasi-linéaire
tout court. Peut-on faire mieux ? La réponse est non. Pour le prouver, on va regarder le comportement d’un algorithme
de tri par comparaisons quelconque sur les listes de la forme [σ(0), . . . , σ(n − 1)], où σ est une permutation de Sn .
À chaque algorithme de tri, on peut associer un arbre binaire, résumant le tri suivant les comparaisons effectuées, on
part d’une liste [σ(0), . . . , σ(n − 1)] et on termine avec la liste [0, 1, 2, . . . , n − 1]. Suivant le résultat d’une comparaison
entre σ(i) et σ(j), une branche de l’arbre ou l’autre est suivie. Avec deux permutations distinctes, on se retrouve à
deux feuilles distinctes de l’arbre, qui a donc au moins n! feuilles.
La figure 13.4 montre un tel arbre associé au tri par sélection 5 sur une liste de 3 éléments [a, b, c]. Il a 8 feuilles,
6 d’entre elles sont associées à une permutation, 2 d’entres elles correspondent au résultat de deux comparaisons
incompatibles avec une liste à entrées distinctes.
a≤b a>b
Figure 13.4 – Les comparaisons réalisées dans le tri par sélection sur une liste de taille 3.
Il est facile de voir qu’un arbre binaire de hauteur h a au plus 2h feuilles. Par √
suite, un arbre ayant n! feuilles a une
hauteur d’au moins log2 (n!). D’après la formule de Stirling, on a n! ∼ nn e−n 2πn, donc log2 (n!) ∼ n log2 (n).
n→+∞ n→+∞
Ainsi, la complexité dans le pire cas d’un algorithme de tri par comparaisons quelconque a une complexité d’au moins
Θ(n log2 (n)).
Remarque : on peut montrer que la complexité en moyenne est aussi au moins Θ(n log2 (n)). Ainsi, le tri fusion est
optimal en nombre de comparaisons effectuées !
Solution naïve. Évidemment, on peut pour déterminer le k-ème plus petit élément commencer par trier la liste et
extraire l’élément à l’indice k. Cette approche a une complexité O(n log n) avec le tri fusion. On cherche à faire mieux !
Variante du tri par sélection. Une autre idée est par exemple de ne faire qu’une partie du tri par sélection. En
effet, si on cherche le k-ème plus petit élément, en appliquant seulement les k + 1 premières étapes du tri, les k + 1
plus petits éléments se trouvent à leur position finale une fois la liste triée : on peut arrêter là le procédé pour extraire
l’élément d’indice k. Cette approche a une complexité O(nk) et est intéressante si k est petit. De même, si k est
« grand » (proche de n), on peut faire une variante du tri par sélection qui s’intéresse d’abord au maximum, et ne
faire que n − k étapes. On obtient alors une complexité O(n(n − k)). Mais ni l’une ni l’autre de ces approches n’est
efficace si k est proche de n/2 : on obtient une complexité en O(n2 ), ce qui est moins bien que de trier entièrement la
liste avec le tri fusion.
Variante du tri rapide. Observons par contre ce qui se passe lors d’une étape du tri rapide : on applique la fonction
partition, qui retourne la position définitive m du pivot, et il n’y a plus qu’à trier les éléments situés à gauche et à
droite. Si on s’intéresse simplement au k-ème plus petit élément, on a la distinction ci-dessous :
5. Il faut vraiment dérouler le tri pour construire l’arbre ! Essayez avec un autre tri.
Ainsi, pour trouver le k-ème plus petit élément de la liste, on peut procéder de manière similaire au tri rapide, la
différence est qu’on ne fait qu’un seul appel récursif (au plus).
L’algorithme de calcul de la médiane
def mediane(L,k):
""" L liste non vide, k un entier entre 0 et len(L)-1. Renvoie le k-ième plus petit élément de L """
T=L[:] #a priori, on ne veut pas modifier la liste L.
def aux(g,d):
m=partition(T,g,d)
if m==k:
return T[m]
elif m<k:
return aux(m+1,d)
else:
return aux(g,m)
return aux(0,len(L))
Comme pour le tri rapide, la complexité dans le pire cas est toujours quadratique, ce qui est intéressant est là
encore la complexité en moyenne. Analysons de la même manière quels sont les couples i < j effectivement comparés,
en fonction de k et de la taille n de la liste :
— si i ≤ k ≤ j, alors i et j sont comparés si et seulement si l’un des deux est pris comme pivot avant tout élément
2
de [[i, j]], évènement qui a probabilité j−i+1 .
— si i < j < k, alors i et j sont comparés si et seulement si l’un des deux est choisi comme pivot avant tout élément
2
de [[i, k]], évènement qui a probabilité k−i+1 .
— si k < i < j, alors i et j sont comparés si et seulement si l’un des deux est choisi comme pivot avant tout élément
2
de [[k, j]], évènement qui a probabilité j−k+1 .
Ainsi, le nombre moyen de comparaisons est donné par trois sommes à estimer. Allons-y.
— Tout d’abord :
n−1 n−1
X 2 X X 2 X 2
= ≤ (d + 1) ≤ 2n
j−i+1 d+1 d+1
0≤i<j≤n−1 d=1 (i,j) d=1
avec i≤k≤j i≤k≤j et j=i+d
En effet, les couples (i, j) vérifiant 0 ≤ i ≤ k ≤ j ≤ n − 1 et j = i + d sont inclus dans l’ensemble {(k − d, k), (k −
d + 1, k + 1), . . . , (k, k + d)}, il y en a donc au plus d + 1.
— Passons à la somme suivante :
k−2
X k−1 k−2
X 2 X 2 X 2
= ≤ (k − i − 1) ≤ 2k
k−i+1 i=0 j=i+1
k−i+1 i=1
k−i+1
0≤i<j≤n−1
avec i<j<k
— De même,
n−1 j−1 n−1
X 2 X X 2 X 2
= ≤ (j − k − 1) ≤ 2(n − k)
j−k+1 j−k+1 j−k+1
0≤i<j≤n−1 j=k+2 i=k+1 j=k+2
avec k<i<j
Ainsi, le nombre moyen de comparaisons est majoré par 4n. La complexité de calculer le k-ième plus petit terme de
la liste à l’aide de l’algorithme mediane est donc linéaire en moyenne.
Remarques. • Là encore, on peut choisir le pivot au hasard dans l’algorithme de partition, et modifier l’algorithme
mediane pour transformer l’appel récursif en boucle while.
• Il est en fait possible de calculer le k-ième plus petit élément d’une liste en temps linéaire même dans le pire cas.
L’algorithme est plus complexe, et peut être utilisé pour obtenir une version quasi-linéaire du tri rapide même dans
le pire cas : on choisit explicitement la médiane d’une liste avant d’en réaliser la partition. (Par contre, le résultat est
un tri un peu moins rapide en pratique...)
Table 13.2 – Équivalent du nombre de comparaisons et d’affectations pour trier une liste de taille n avec l’un des tris
efficaces, dans les meilleur, pire et moyen cas. Le pire cas pour le tri rapide en nombre de comparaisons donne peu
d’affectations.
Les deux graphiques suivants présentent les temps d’exécutions des tris de ce chapitre ainsi que des tris naïfs sur
des listes aléatoires de taille variant entre 10 et 1000. Comme on le voit, il vaut mieux utiliser un tri efficace dès que
la taille de la liste à trier atteint quelques dizaines. Pour des listes de taille moyenne (plus de 500 éléments) le temps
d’exécution des deux tris rapides est bien inférieur à celui des tris quadratiques. Notons que sur ces listes aléatoires, le
tri rapide est incontestablement le meilleur, alors que si l’on somme les opérations élémentaires effectuées, on trouve
2 2
un avantage au tri fusion : 2n log2 (n) = ln(2) ln(n), et ln(2) ' 2.89 < 4. L’avantage est dû au fait qu’il s’exécute en
place.
Figure 13.5 – Comparaisons des tris pour des tailles de 10 à 100 à gauche, et de 100 à 1000 à droite. Le temps est en
secondes, on a pris une moyenne sur 100 listes différentes.
6. Pour le tri fusion, il s’agit d’une version optimisée, voir la feuille d’exercices.
Cinquième partie
Annexes
Chapitre 14
Modules usuels
On détaille dans ce chapitre les modules à connaître en Python. Bien que cette connaissance ne soit pas exigible,
il ne faut pas les découvrir aux concours. En particulier, lors de l’épreuve Maths 2 de Centrale. Ils pourront aussi être
utilisés dans un TIPE.
Importation de toutes les fonctions. from math import * est similaire à l’importation précédente, mais le joker
* est utilisé à la place des noms explicites des fonctions.
Importation du module. import math importe le module, les fonctions sont alors accessibles par math.sin,
math.cos, par exemple.
Importation du module et alias. C’est la méthode qu’on utilisera la plupart du temps pour importer un module.
Elle est similaire à la précédente, mais on abrège le nom du module avec un alias. Pour le module math, on pourrait
écrire import math as m, les fonctions sont alors accessibles par m.sin, m.cos...
14.1.2 De l’aide !
La documentation Python est assez bien fournie, pour y accéder il suffit d’écrire help(nom_du_module). Ceci
fonctionne également avec les alias. Par exemple, import math as m ; help(m) fournira de l’aide sur toutes les
fonctions du module. Bien sûr, il est possible d’obtenir de l’aide sur une fonction spécifique :
>>> help(m.sqrt)
Help on built-in function sqrt in module math:
sqrt(...)
sqrt(x)
N’hésitez pas à lire l’aide des fonctions présentées ci-après si vous les utilisez, elles sont très peu détaillées dans ce
chapitre.
Listes à tableaux
— np.array(L) : convertir une liste en tableau Numpy. Si L est une liste de listes, on obtient une matrice, etc...
Là aussi on peut préciser le type.
— M.tolist() : opération inverse.
Fonctions vectorielles. Numpy possède des versions « vectorielles » de la plupart des fonctions usuelles, par exemple
np.exp. Appliquer une telle fonction f à un tableau Numpy M crée un nouveau tableau de même taille, les coefficients
étant les f (x) pour tout x de M. On peut créer une fonction vectorielle à partir d’une fonction f quelconque à l’aide
de np.vectorize(f).
Algèbre linéaire. Le sous-module numpy.linalg (importé comme import numpy.linalg as alg) permet de faire
de l’algèbre linéaire.
— alg.det(M) : déterminant de M.
— alg.inv(M) : inverse de M.
— alg.matrix_rank(M) : rang de M. Attention toutefois, bien souvent les coefficients seront des flottants, le résultat
est à prendre avec des pincettes.
— alg.matrix_power(M,n) : calcule M n pour n ∈ N.
— alg.solve(M,Y) : résolution de M X = Y .
— alg.eigvals(M) : valeurs propres de M (sous forme de tableau Numpy).
— alg.eig(M) : valeurs et vecteurs propres de M. Les vecteurs propres sont donnés sous la forme d’une matrice de
passage. Avec T,P=alg.eig(M), on a M = P DP −1 , avec D la matrice diagonale dont les coefficients diagonaux
sont donnés par T, si M est diagonalisable. Attention : avec des flottants, les égalités ne sont vraies qu’à ε près...
Polynômes. Le sous-module polynomial permet de travailler avec des polynômes. On utilisera principalement la
fonction Polynomial qui permet de construire un polynôme à partir de la liste de ses coefficients : from numpy.polynomial
import Polynomial as pol.
— pol(C) : construit un polynôme à partir de la liste de ses coefficients. Ils sont donnés par degré croissant, par
exemple pol([1,0,2,3]) consruit le polynôme 1 + 2X 2 + 3X 3 ;
— les opérations +, * et - peuvent être utilisées entre polynômes. Les constantes sont automatiquement converties
en polynômes. // et % donnent quotient et reste dans une division euclidienne. Enfin / permet de diviser un
polynôme par une constante et ** permet de calculer une puissance d’un polynôme.
Avec P un polynôme :
— P.coef : donne la liste des coefficients de P.
— P.degree : son degré.
— P.roots() : calcule ses racines complexes (j est utilisé pour le ı mathématique, comme en physique).
— P.deriv() : polynôme dérivé.
— P.integ(n) : intégrer n fois. On peut préciser les constantes d’intégration (par défaut nulles), utilisées à chaque
étape, par exemple P.integ(3,[0,1,2]) intègrera successivement P trois fois, d’abord avec la constante 0, puis
la constante 1, puis la constante 2.
— P(x) : avec x un nombre, permet de calculer P (x). Les polynômes sont également des fonctions vectorielles, on
peut les appliquer à un tableau Numpy.
Nombres aléatoires et probabilités Le sous-module random permet de générer des nombres aléatoires, et plus
généralement de traiter de probabilités. On l’importe ici comme import numpy.random as rd.
— rd.randint(a,b) retourne un entier aléatoire entre a (inclus) et b (exclus), en suivant la loi uniforme sur [[a, b[[.
— rd.random() : un flottant suivant la loi uniforme sur [0, 1[.
— rd.binomial(n,p) : un entier suivant la loi Bn,p .
— rd.geometric(p) : entier suivant la loi géométrique de paramètre p.
— rd.poisson(x) : entier suivant la loi de Poisson de paramètre x.
Pour toutes ces fonctions, on peut préciser un paramètre supplémentaire (size) pour avoir un tableau Numpy constitué
de nombres suivant la loi, de format donné par size. Par exemple :
>>> rd.geometric(0.5,8)
array([1, 1, 2, 3, 4, 2, 1, 1])
>>> rd.randint(0,2,(3,4))
array([[1, 1, 0, 1],
[0, 1, 0, 1],
[0, 1, 0, 0]])
X=np.linspace(0,np.pi,100)
Y=[np.sin(x)**2 for x in X]
Z=np.exp(-X**2) #facile de travailler avec des tableaux Numpy !
plt.plot(X,Y,label="f1")
plt.plot(X,Z,label="f2")
plt.legend(loc="upper right")
plt.show()
Des lignes de niveaux. On va voir comment afficher des lignes de niveau avec la fonction contour. On souhaite
avoir les lignes de niveaux de la fonction f (x, y) = x2 − 2y 2 . Voir la figure 14.2
delta=0.025
x=np.arange(-5, 5, delta)
y=np.arange(-5, 5, delta)
X, Y=np.meshgrid(x,y) # très pratique: on crée une grille dont les points sont donnés par les (x_i,y_j)
# pour x_i dans x et y_j dans y. X et Y sont deux matrices donnant les
f=np.vectorize(lambda x: x*x)
F=f(X) ; G=2*f(Y) ; H=F-G
valeurs=[0, 1, 2, 3, 5, 8, 12, 20]
couleurs=["maroon", "pink", "red", "orange", "yellow", "green", "black", "blue"]
plt.contour(X, Y, H, valeurs, colors=couleurs) #x^2-y^2=valeur
plt.show()
Un petit exemple en 3D : la caténoïde. On va tracer une figure en 3D. La caténoïde de la figure 14.3 a pour
équation :
x = ch(u) cos(v)
u ∈ R, v ∈ [0, 2π[, y = ch(u) sin(v)
z = u
Pour tracer une surface paramétrée comme précédemment, on utilise la méthode plot_surface : il suffit de
construire des matrices Numpy x, y et z contenant les valeurs prises sur les 3 axes en les points du paramétrage. On
restreint ici u à [−2, 2] :
Attention, quad renvoie un couple : le premier élément est la valeur approchée de l’intégrale, le deuxième une estimation
du terme d’erreur. Remarque : utiliser np.inf pour l’infini, qui peut-être utilisé (ainsi que -np.inf) dans les bornes.
Éviter cependant les intégrales semi-convergentes 2 : la méthode ne fonctionne pas bien, d’ailleurs Python l’indique et
on obtient un grand terme d’erreur.
Remarquez que la fonction f (X, t) ne dépend pas de t, un tel système est dit autonome. Mais odeint prend en entrée
une fonction de la forme t 7→ f (X(t), t). Résolvons cette équation sur l’intervalle [0, 30] :
def f(X,t):
x,y=X[0],X[1]
return np.array([x*(7-2*y),-y*(1-4*x)])
X0=np.array([1,5])
T=np.linspace(0,30,10000)
X=sci.odeint(f,X0,T)
plt.plot(T,[u[0] for u in X],label="x")
plt.plot(T,[u[1] for u in X],label="y")
plt.legend()
plt.show()
qui donne la courbe de gauche dans la figure 14.4. Le tracé du portrait de phase avec le code suivant
R +∞ sin x
2. comme le classique 1 x
dx
Figure 14.4 – Résolution de l’équation de Lokta-Volterra. (a) x et y en fonction du temps. (b) x en abscisse, y en
ordonnée.
fractions. Un module qui permet d’utiliser des fractions. Pour construire la fraction p/q, on écrira simplement
fractions.Fraction(p,q). Une fois que l’on travaille avec des fractions, on peut utiliser les opérateurs usuels +, *,...
time. Le module time permet de mesurer des temps d’exécutions. Il contient la fonction time, qui mesure le temps
absolu en secondes depuis le 1er janvier 1970, mais on lui préferera clock pour mesurer le temps CPU (donné par
l’horloge du processeur). Pour mesurer le temps d’exécution d’un script, la suite d’instructions t=time.clock() ;
script() ; t=time.clock()-t permet de stocker dans la variable t le temps d’exécution du script.
random. Un module pour générer des nombres aléatoires, un peu redondant avec numpy.random. random.random()
fournit par exemple un flottant aléatoire de [0, 1], et random.randint(a,b) un entier aléatoire de [[a, b]]. Attention,
contrairement à Numpy, la borne b est ici incluse.
itertools. Ce module permet de générer facilement des objets combinatoires, par exemple des permutations :
PIL. Un module pour traiter des images. Une documentation se trouve ici 3 . Montrons en exemple comment afficher
la composante rouge d’une image au format PNG, via manipulation de tableaux Numpy : à une image est associée un
tableau Numpy de dimension n × m × 3, où n est le nombre de lignes, m le nombre de colonnes, et chaque pixel est
constitué de 3 composantes rouge, verte et bleue :
tkinter. Ce module permet de réaliser des interfaces graphiques, et peut éventuellement être utile pour un TIPE
(et pour plus tard...). Voir la documentation ici 4 .
3. http://effbot.org/imagingbook/pil-index.htm
4. http://tkinter.fdex.eu/