Kurosh - Cours-D'algèbre Supérieur - Mir - 1973

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 443

a, r.

Kypow

K Y PG B blG IU E H A J i r E E P b l

H3flATEJILCTBO «HAYKA»
MOCKBA
A. K U RO SH

COURS
D’ALGÈBRE
SUPÉRIEURE

ÉDITIONS MIR ♦ MOSCOU


UDC 512.8=40

TRADUIT DU RUSSE

Ha $panmjacKOM n3biKe

COPYRIGHT BY LES ÉDITIONS MIR


U.R .S .S . 2973

v 0223 - 379
041(01) - 73
TABLE DES MATIÈRES

Préface . . . 7
In tro d u c tio n ............... . . . . . . . . . . . 9
Chapitre I. Systèmes d'équations linéaires. D éterm inants............... 15
§ 1. Méthode d’élimination successive des inconnues . . . . . . 15
§ 2. Déterminants du deuxième et du troisième ordre . . . . . . 23
§ 3. Permutations et substitutions . . . 28
§ 4. Déterminants d'ordre n . . . 37
§ 5. Mineurs et cofacteurs . . . . 45
§ 6. Calcul des déterminants . . 48
§ 7. Règle de Cramer . . . . . 55
Chapitre II. Systèmes d’équations linéaires (théorie générale) . . . 62
§ 8. Espace vectoriel à n dim ensions...................... 62
§ 9. Dépendance linéaire des vecteurs 65
§ 10. Ranç d’une matrice .................. ............... . 73
§ 11. Systèmes d’équations linéaires .............. . 80
§ 12. Systèmes d’équations linéaires homogènes . 86
Chapitre III. Algèbre des matrices ....................... . 92
§ 13. Multiplication des m a t r i c e s ...................................................... 92
§ 14. Matrice inverse ......................................................................... 98
§ 15. Addition des matrices et multiplication des matrices par un
n o m b r e ................................................................. 106
§ 16*.Théorie axio ma tique des d é te rm in a n ts ...................... 109
Chapitre IV. Nombres complexes ............................... . . . . 114
§ 17. Ensemble des nombres complexes . . . 114
§ 18. Suite de l ’étude des nombres c o m p le x e s ................. 419
§ 19. Extraction de racine des nombres complexes . . . . . 127
Chapitre V. Polynômes et Leurs z é r o s ........................... . . 135
§ 20. Opérations sur les polynômes . . . . . 135
§ 21. Diviseurs. Plus grand commun diviseur 140
§ 22. Zéros des polynôm es...................... . , 148
§ 23. Théorème fo n d a m e n ta l...................... 152
§ 24. Conséquences du théorème fondamental . . 161
§ 25*.Fractions rationnelles........................... 167
Chapitre VI. Formes quadratiques . ... 172
§ 26. Réduction d’une forme quadratique à la forme canonique . . 172
§ 27. Théorème d’inertie ..................................................................... 180
§ 28. Formes quadratiques définies p o s itiv e s .................................. 186
Chapitre VII. Espaces vectoriels................... 190
§ 29. Définition d’un espace vectoriel. Isom orphism e................... 190
§ 30. Espaces à un nombre fini de dimensions. Bases . . . . . 195
§ 3l. Applications linéaires ................................... 200
§ 32*. Sous-espaces d’un espace vectoriel . . . . 208
§ 33. Racines caractéristiques et valeurs propres 213
6 TABLE DES MATIÈRES

Chapitre VIH. Espaces e u c lid ie n s ............................................................. 218


§ 34. Définition des espaces euclidiens. Bases orthonormales . 218
§ 35. Matrices orthogonales, applications orthogonales............... 224
§ 36. Applications sy m é triq u e s................................. 229
§ 37. Réduction d'une forme quadratique à ses axes principaux.
Couples de formes q u a d ra tiq u e s ............................. 234
Chapitre IX. Calcul des zéros d'un p o ly n ô m e................... 240
§ 38*. Equations des deuxième, troisième et quatrième degrés . . 240
§ 39. Limites des z é r o s ............................................... . . 248
§ 40. Théorème de S tu r m ....................................... . . . 254
§ 41. Autres théorèmes sur le nombre des zéros réels 260
§ 42. Calcul approché des zéros . . . . . . 267
Chapitre X. Champs et polynômes . . 274
§ 43. Anneaux et champs numériques ................... 274
§ 44. A n n e a u ..................................................... . . . . 278
§ 45. Champ ........................................................................................ 284
§ 46*. Isomorphisme des anneaux (des champs). Unicité du champ
des nombres com plexes............................................................. 290
§ 47. Algèbre linéaire et algèbre des polynômes sur un champ . . . 294
§ 48. Décomposition des polynômes enfacteurs irréductibles . . . 299
§ 49*. Théorème d'existence d’un zéro . ........................................... 308
§ 50*. Champ des fractions ratio n n elles.......................................... 316
Chapitre XI. Polynômes de plusieurs indéterminées 323
§ 51. Anneau des polynômes de plusieurs indéterminées 323
§ 52. Polynômes symétriques . . . .................................................. 332
§ 53*. Remarques complémentaires sur les polynômessymétriques 339
§ 54*. Résultant. Elimination d’une indéterminée. Discriminant 345
§ 55*. Seconde démonstration du théorème fondamental de l ’algèbre
des nombres complexes ......................................................... 357
Chapitre XII. Polynômes à coefficients ratio n n els................................... 361
§ 56*. Réductibilité des polynômes sur le champ des nombres ration­
nels ........................................................: ................. 361
§ 57*. Zéros rationnels des polynômes à coefficients entiers 365
§ 58*. Nombres algébriques .............................................. 369
Chapitre X III. Forme normale des matrices » . . . 375
§ 59. Equivalence des k - m a tr ic e s .................................................... 375
§ 60. X- matrices uni modulaires. Matrices numériques semblables
et équivalence de leurs matrices caractéristiques . . .. 382
§ 61. Forme normale de Jordan . . . 391
§ 62. Polynôme m in im a l...................... 400
Chapitre XIV. G roupes.................................. 405
§ 63. Définition et exemples de g r o u p e s ......................................... 405
§ 64. Sous-groupes.................. 411
§ 65. Sous-groupes distingués, groupes-quotients, homomorphismes 417
§ 66. Sommes directes de groupes abéliens 424
§ 67. Groupes abéliens finis 430
Index alphabétique 439
PRÉFACE

Le « Cours d’algèbre supérieure » du professeur Alexandre Kurosh


que nous recommandons à l’attention du lecteur est la traduction
en langue française d’une œuvre bien connue en Union Soviétique
de cet auteur.
La connaissance de l’algèbre supérieure est nécessaire à la forma­
tion des étudiants qui veulent se consacrer aux mathématiques.
Le livre que nous présentons donne un moyen relativement
rapide de passer de l ’algèbre élémentaire aux méthodes abstraites
de l ’algèbre moderne.
Dans les six premiers chapitres l ’auteur donne une étude détaillée
des déterminants et des systèmes d ’équations linéaires, introduit
les nombres complexes et les opérations sur les matrices, développe
la théorie des polynômes et des formes quadratiques.
Dans les chapitres VII et VIII l’auteur traite les notions pri­
maires de l ’algèbre linéaire. Nous voyons dans le chapitre X que
l ’algèbre linéaire, la théorie des polynômes et des fonctions ration­
nelles se généralisent au cas d’un champ de base quelconque. C’est
à partir de ce chapitre que l ’auteur introduit et utilise les méthodes
de l ’algèbre moderne. Le lecteur y rencontrera les notions très
importantes d’anneau et de champs. Ces notions permettent de
développer avec une grande généralité la théorie des polynômes
de plusieurs indéterminées dont les coefficients sont des éléments
d’un champ de base quelconque donné.
Puis on étudie les matrices polynomiales sur un champ de base
quelconque qui sont utilisées pour l ’élaboration de la théorie des
matrices jordaniennes. Le dernier chapitre est consacré à l’étude
des groupes ; il peut être considéré comme une introduction à la
branche importante de l ’algèbre moderne, dite « théorie des
groupes ».
8 PRÉFACE

Les paragraphes marqués par l ’astérisque (*) peuvent être sautes


en première lecture.
Ce cours d’algèbre supérieure est le manuel de base à l’usage
des étudiants de la Faculté de mathématiques de l’Université de
Moscou.
Il a eu neuf rééditions et est un des meilleurs cours d’algèbre
en Union Soviétique. Nous espérons qu’il trouvera un bon accueil
parmi les lecteurs de pays d’expression française. Nous serons recon­
naissants à tous ceux qui auront bien voulu contribuer par leurs
remarques à l ’amélioration de ce livre et, bien entendu, nous en
tiendrons compte lors des rééditions ultérieures.
L'éditeur
INTRODUCTION

A la Faculté de mathématiques l’étude commence par trois


disciplines de base: l’analyse, la géométrie analytique et l’algèbre
supérieure, qui, ayant des points communs, se superposent parfois
et constituent les fondements des mathématiques modernes.
L’algèbre supérieure, objet d’étude de notre cours, est une géné­
ralisation naturelle du cours d’algèbre élémentaire professé à l’école
secondaire, ce dernier étant centré sur la résolution des équations.
Cette étude commence par le cas très simple d’une équation du
premier degré à une inconnue, puis on considère, d’une part, les
systèmes de deux (ou trois) équations du premier degré à deux (ou
trois) inconnues et, d’autre part, le cas d’une équation du 2e degré
à une inconnue et les types particuliers d’équations de degrés supé­
rieurs se ramenant facilement à des équations du 2e degré (ex. les
équations bicarrées).
Ces deux directions sont encore développées dans le cours d’al­
gèbre supérieure et en constituent deux branches importantes dont
la première, les fondements de l’algèbre linéaire, a pour but l’étude
des systèmes arbitraires d’équations du premier degré (ou linéaires).
Lorsque le nombre des équations est égal à celui des inconnues, on
applique pour la résolution de tels systèmes la théorie des déter­
minants. Cependant, lorsque le. nombre des équations ne coïncide
pas avec celui des inconnues (situation qui pourrait paraître bizarre
du point de vue de l ’algèbre élémentaire, mais s’avère très importan­
te pour les applications), la théorie des déterminants fait défaut
et l’on est obligé de recourir à celle des matrices, une matrice étant
un tableau carré ou rectangulaire de nombres à plusieurs lignes et
colonnes. Cette théorie qui s’est révélée très féconde a trouvé de
nombreuses applications en dehors de la théorie des systèmes d’équa­
tions linéaires. D’autre part, l ’étude des systèmes d’équations linéai­
res a nécessité l ’introduction et l’examen des espaces à plusieurs
dimensions (espaces vectoriels ou linéaires). Il s’agit d’une notion
purement mathématique, ou plutôt algébrique, qui constitue un outil
puissant pour la recherche mathématique, physique et mécanique.
La seconde branche du cours d’algèbre supérieure, dite algèbre
es polynômes, étudie les équations de degré quelconque à une
10 INTRODUCTION

inconnue. Puisqu’il existait des formules permettant de résoudre


les équations du 2e degré, on en a voulu trouver également pour
la résolution des équations de degrés supérieurs. C’était effective­
ment la direction d’évolution de cette branche de l’algèbre, et les
formules correspondantes pour les équations du 3e et du 4e degré
ont été trouvées au XVIe siècle. Puis, ce furent des années de vains
efforts pour établir des formules donnant les racines des équations
du 5e degré et de degrés supérieurs en fonction des coefficients, au
moyen de radicaux. Enfin, au début du XIXe siècle on a prouvé que
de telles formules n’existent pas et donné des exemples concrets
d’équations du 5e degré et de degrés supérieurs à coefficients entiers
qu’on ne peut résoudre par radicaux.
Ce phénomène ne doit pas trop nous inquiéter, car déjà dans
le cas des équations du 3e et du 4e degré, les formules sont très
encombrantes et pratiquement inutilisables. D’autre part, les ingé­
nieurs et les physiciens ont à faire à des équations dont les coeffi­
cients sont, en général, des grandeurs obtenues par mesure, c’est-
à-dire de grandeurs approchées, de sorte que les racines ne doivent
être calculées qu’approximativement, avec une précision donnée.
De là résultent toutes sortes de méthodes de résolution approchée
des équations, dont le cours d’algèbre supérieure n’étudie que les
plus simples.
Cependant, le problème fondamental de l’algèbre des polynômes
n’est pas le calcul des racines d’une équation, mais le problème
de leur existence. Certaines équations du 2e degré à coefficients
réels, on le sait, n ’ont pas de racines réelles. Si l’on complète l’en­
semble des nombres réels de façon à obtenir l’ensemble des nombres
complexes, on constate que les équations du 2e degré possèdent déjà
des racines et qu’il en est de même des équations du 3e et du 4e degré
puisqu’on connaît les formules explicites qui donnent leurs racines.
Il est naturel de se demander s’il existe des équations du 5e degré
et de degré plus élevé n’ayant pas de racines, même parmi les
nombres complexes. S’il en était ainsi, il conviendrait d’introduire
des ensembles encore plus vastes que celui des nombres complexes,
afin que les équations en question possèdent des racineSr La réponse
à cette question est fournie par un théorème très important qui
dit que toute équation à coefficients numériques quelconques, réels
ou complexes, possède des racines complexes (et éventuellement
réelles); en outre, le nombre de celles-ci coïncide avec le degré de
l’équation.
Sur ce, nous terminons notre bref exposé du contenu du cours
d ’algèbre supérieure. Il convient de souligner que T algèbre supé­
rieure n ’est qu’une introduction à la théorie algébrique générale,
laquelle, très féconde, présente plusieurs branches et se développe
constamment. Nous esquisserons de façon encore plus succincte les
INTRODUCTION i)

branches algébriques qui se trouvent, pour l'essentiel, en Üehois


du cours d’algèbre supérieure.
L’algèbre linéaire qui a pour objet essentiel l’étude des matrices
et des applications linéaires dans les espaces vectoriels comprend
également la théorie des formes, la théorie des invariants et l’algè­
bre tensorielle, cette dernière très importante pour la géométrie
différentielle. Dépassant le cadre de l’algèbre, la théorie des espaces
vectoriels s’étend, en analyse, au cas des espaces à une infinité de
dimensions. L’algèbre linéaire, grâce à ses nombreuses applications
tant en mathématiques qu’en mécanique, physique et technique,
détient, par son importance, la première place parmi les autres
branches algébriques.
L’algèbre des polynômes étudiant les équations de degré quel­
conque à une inconnue peut être considérée à présent comme branche
achevée. Son développement ultérieur est partiellement lié à
celui de la théorie des fonctions d’une variable complexe, mais abou­
tit surtout à la théorie des champs comprenant l ’algèbre des polynô­
mes; nous y reviendrons. L’étude des systèmes d’équations non
linéaires de degré quelconque à plusieurs inconnues (c’est un pro­
blème extrêmement complexe qui englobe les deux branches du
cours d’algèbre supérieure mais dépasse le cadre du présent cours)
fait l’objet essentiel d’une théorie mathématique spéciale, dite
géométrie algébrique.
Evariste Galois (1811-1832) fut le premier à énoncer les condi­
tions sous lesquelles une équation polynomiale est résoluble par
radicaux. Ses recherches déterminèrent de nouvelles orientations
en algèbre, ce qui aboutit au XXe siècle, à la suite des travaux
d'Emmy Noether (1882-1935), à une nouvelle perspective pour
l ’algèbre. Il ne fait pas de doute que le problème majeur de T al­
gèbre moderne n’est plus l ’étude des équations, mais celle des opé­
rations algébriques, telles que l’addition et la multiplication, par
exemple, opérations portant non plus sur les nombres, mais sur
des objets de nature plus générale.
Déjà en physique élémentaire du programme de l ’école secon­
daire, l’on recourt à l’addition de vecteurs représentant les forces.
Les disciplines mathématiques professées en première et deuxième
années d’Universités et dans les Ecoles Normales abondent en
exemples d’opérations algébriques: addition et multiplication de
matrices et de fonctions, opérations sur les applications d’espaces,
sur les vecteurs, etc. Ces opérations ressemblent en général aux
opérations sur les nombres et portent la même dénomination, mais
il arrive que certaines propriétés des opérations sur les nombres
ne soient pas conservées. Ainsi, très souvent et dans des cas fort
importants, les opérations deviennent non commutatives (le produit
dépend de l ’ordre des facteurs) ou non associatives (le produit de
trois facteurs dépend de la place des parenthèses).
12 INTRODUCTION

Les systèmes algébriques importants, c'est-à-dire des ensembles


d’éléments de nature quelconque munis de certaines opérations
algébriques, actuellement soumis à l'étude la plus détaillée, sont,
par exemple, les champs, systèmes algébriques munis, tout comme
Tensemble des nombres complexes et celui des nombres réels, d'opé­
rations d’addition et de multiplication commutatives, associatives,
liées par la loi de distributivité et possédant des opérations inver­
ses, à savoir la soustraction et la division. La théorie des champs
s’est trouvée être un terrain propice au développement de la théorie
des équations, et ses branches principales que sont la théorie des
champs des nombres algébriques et la théorie des champs des fonc­
tions algébriques ont assuré sa liaison respectivement avec la
théorie des nombres et celle des fonctions d’une variable complexe.
Le cours d’algèbre supérieure comprend une introduction élé­
mentaire à la théorie des champs, certaines de ses parties (polynômes
de plusieurs indéterminées, forme normale des matrices) étant
exposées pour le cas général d’un champ de base quelconque.
La notion d’anneau est encore plus générale que celle de champ.
Elle ne suppose plus la division, et la multiplication peut être non
commutative, voire non associative. Citons, comme anneaux, l’en­
semble des nombres entiers, celui des polynômes d’une indétermi­
née et celui des fonctions réelles d’une variable réelle. La théorie
des anneaux englobe également certaines vieilles branches (théorie
des systèmes hypercomplexes, théorie des idéaux) ; elle est liée
à plusieurs disciplines mathématiques, en particulier à l’analyse
fonctionnelle, et, de plus, connaît certaines applications en physique.
Le cours d’algèbre supérieure ne contient en fait que la définition
d’un anneau.
Le domaine d’application de la théorie des groupes est encore
plus vaste. On appelle groupe un système algébrique muni d’une
seule opération de base, cette dernière étant associative, mais pas
nécessairement commutative, et de l’opération inverse, dite divi­
sion, si l’opération de base est la multiplication. Tels sont, par
exemple, l’ensemble des nombres entiers muni de l’opération d’addi­
tion et l’ensemble des nombres réels positifs muni de l’opération de
multiplication. La théorie des groupes joue actuellement un rôle
immense. Déjà Galois l’avait pour l’essentiel utilisée pour étudier
la résolution des équations polynomiales, maintenant elle constitue
un outil important qui connaît des applications nombreuses dans
la théorie des champs, en géométrie, en topologie et même en dehors
des mathématiques: en cristallographie et en physique théorique.
Pour l’étendue de ses applications, la théorie des groupes se classe
seconde, immédiatement après l’algèbre linéaire. Notre cours con­
sacre un chapitre aux fondements de cette théorie.
INTRODUCTION 13

Une nouvelle branche de l’algèbre, la théorie des structures, a pris


naissance et commencé à se développer, il y a une trentaine d’années.
On appelle structure un système algébrique muni de deux opérations,
addition et multiplication, qui sont commutatives, associatives et,
de plus, telles que: 1) la somme et le produit d’un élément par
lui-même redonnent cet élément; 2) pour tout couple d’éléments
a et b, si la somme a + b est égale à l ’un d’eux, soit a, le produit
est égal à l’autre, b, et réciproquement. L’ensemble des nombres
entiers positifs où l’on introduit comme opérations le calcul du plus
grand commun diviseur et du plus petit commun multiple consti­
tue un exemple de structure. On découvre dans la théorie des struc­
tures des rapports très intéressants avec les théories des groupes,
des anneaux et des ensembles, et il s’est révélé qu’une vieille branche
de la géométrie, la géométrie projective, n ’était au fond qu’une
partie de la théorie des structures ; il convient également de mention­
ner l’application des structures en théorie des circuits électriques.
Le parallélisme qui existe entre diverses parties des théories des
groupes, des anneaux et des structures a donné naissance à la théorie
générale des systèmes algébriques (ou des algèbres universelles).
Celle-ci ne fait que débuter. Néanmoins, les contours de cette nou­
velle théorie sont déjà assez nets et ont mis en relief ses rapports
avec la logique mathématique, ce qui présage un développement
assez rapide de cette science.
Bien entendu, le schéma que nous venons d’ébaucher est loin
d’englober .tous les aspects de l’algèbre moderne. En particulier,
il existe des branches algébriques voisines des autres théories mathé­
matiques. Telle est, par exemple, l’algèbre topologique dont l ’objet
d’étude est les systèmes algébriques munis des opérations algébriques
et d’une topologie (c’est-à-dire d’une notion de limite définie pour
les éléments du système), les opérations devant être continues par
rapport à la topologie introduite dans le système. La théorie des
groupes de Lie, qui est très proche de l’algèbre topologique, trouve
de nombreuses applications en géométrie, en physique théorique
et en hydrodynamique. Cette théorie des groupes de Lie est le véri­
table carrefour des méthodes algébriques, topologiques, géométriques
et fonctionnelles, de sorte qu’il serait logique de la considérer comme
une branche mathématique à part. Il existe également une théorie
des systèmes algébriques ordonnés qui est apparue grâce aux recher­
ches portant sur les fondements de la géométrie et a trouvé des
applications en analyse fonctionnelle. Enfin, nous sommes témoins
des progrès rapides de l ’algèbre différentielle, qui établit des rap­
ports nouveaux entre l ’algèbre et la théorie des équations diffé­
rentielles.
Bien sûr, l’essor brillant de l ’algèbre n’est pas dû au hasard.
Il s’inscrit dans le cadre du développement des mathématiques en
14 INTRODUCTION

général et est déterminé, pour une large part, par la nécessité de


résoudre les problèmes posés à l’algèbre par les autres disciplines
mathématiques. D’autre part, l ’évolution de l ’algèbre a exercé
et continue d’exercer sur celle des branches voisines une influence
de plus en plus considérable, étant donné son vaste champ d’appli­
cation: on dit fort justement que les mathématiques modernes
« s’algébrisent » de plus en plus.
Les théories algébriques mentionnées ci-dessus sortent pour
l ’essentiel du cadre du cours d’algèbre supérieure mais notre dessein
était de donner au lecteur une vue exacte de la place occupée par
l’algèbre supérieure dans la science algébrique et l’ensemble de
l’édifice mathématique.
\
Chapitre I SYSTÈMES D’ÉQUATIONS LINÉAIRES.
DÉTERMINANTS

§ 1. Méthode d’élimination successive des inconnues


Nous commençons ce cours d ’algèbre supérieure par l ’étude des
systèmes d’équations du premier degré à plusieures inconnues, ou,
comme il est admis de les appeler, équations linéaires1.
La théorie des systèmes d’équations linéaires est le point de
départ dans l ’étude d’une branche importante de l ’algèbre, dite
« linéaire ». Une grande partie de notre livre, notamment ses trois
premiers chapitres, se rapportent à cette théorie. Les coefficients
des équations considérées dans ces trois chapitres, les valeurs des
inconnues et en général tous les nombres auxquels nous aurons à faire
seront supposés réels. D’ailleurs, les résultats de ces chapitres s’éten­
dent automatiquement au cas des nombres complexes, notion que
le lecteur connaît du cours d ’algèbre de l ’école secondaire.
Contrairement à l ’algèbre élémentaire, nous allons. étudier les
systèmes à un nombre quelconque d’équations et d ’inconnues;
parfois, le nombre d’équations du système ne sera pas égal au nombre
d’inconnues. Soit donné un système de s équations à n inconnues.
Convenons d’utiliser les symboles suivants: les inconnues seront
notées par la lettre x munie inférieurement d’indices : xr, x2, . . xn ;
les équations seront désignées par première, deuxième, . . ., sème
équation ; le coefficient de xj dans la ièTnG équation sera noté atj 2,
le second membre de la £ômc équation par bt.
Avec ces conventions notre système s’écrit sous la forme généra-
le suivante :
a iix i + ^ 1 2 ^ 2 " h ■ ■ • “ h a in%n — ^

a 2 lx l + <*22^2 + • ■• + a 2nx n = b 2 , y ^

____ ___ a$\X\ ^snXn ~ bs. J


\ Ce terme est dû à ce qu’en géométrie analytique, une équation du premier
degré à deux inconnues représente l ’équation d ’une droite du plan.
2 Nous usons donc de deux indices dont le premier désigne le numéro de
l ’équation, le second celui de l ’inconnue. Pour simplifier l’écriture, nous ne
séparons pas ces indices par une virgule; ainsi, il n’est pas recommandé, dans
le cas de ûjj, de lire « a indice onze », au lieu de « a indices un, un », ou bien
dans le cas de a34 « a indice trente-quatre », au lieu de « a indices trois, quatre ».
46 SYSTÈMES D ’ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

Les coefficients des inconnues forment un tableau rectangulaire

(2)

qu'on appelle matrice à $ lignes et n colonnes; les nombres atj sont


les éléments de la matrice x. Si $ ~ n (c’est-à-dire s’il y a autant
de lignes que de colonnes), la matrice est alors appelée matrice carrée
d'ordre n. La diagonale de cette matrice, formée par les éléments
am a2 2 > • • •* 4**, est appelée diagonale principale. Une matrice
carrée d’ordre n est dite matrice unité d'ordre n, si tous les éléments
de sa diagonale principale sont égaux à l ’unité et si tous les autres élé­
ments, qui n’appartiennent pas à la diagonale principale, sont nuis.
Une suite fcj, fc2, . . kn de n nombres est appelée solution
du système d’équations linéaires (1) si après substitution des nombres
ki, i = 1, 2, . . ra, aux inconnues x t toutes les équations de ce
système sont vérifiées identiquementa.
Il peut arriver qu’un système d’équations linéaires n ’ait pas de
solutions ; dans ce cas il est dit incompatible. Tel est, par exemple,
le système d’équations
*1 + 5x2 —1»
*i + 5x 2= 7,
dont les premiers membres sont identiques et les seconds différents.
Par conséquent, aucune suite de valeurs des inconnues ne. peut satis­
faire simultanément à ces deux équations.
Si un système d’équations linéaires a des solutions, il est dit
compatible. Un système compatible est dit déterminé s’il n ’a qu’une
et seulement une solution (on ne considère que de tels systèmes
en algèbre élémentaire). Par contre, ce système est appelé indétermi­
né s’il a plus d'une solution ; comme on le verra par la suite, ce systè­
me possède une infinité de solutions. Ainsi, le système

est déterminé, car il a la solution x1 = 1, = 3, et comme il est


facile de le vérifier par la méthode d’élimination des inconnues,
celle-ci est unique. Par contre, le système
1 Considérant la matrice (2) indépendamment du système (1) on voit que
le premier indice de l félément a(j désigne le numéro de la ligne et le second le
numéro de la colonne ; se trouve donc à l ’intersection de la ième ligne et de
la ; ème colonne.
a Nous tenons à souligner que la suite ArÎT &2» • ■ », de n nombres forme
une solution du système (1) et non n solutions.
§H MÉTHODE D'ÉLIMINATION SUCCESSIVE DES INCONNUES 17

—x2 —1, 1
— 2x2 --2 J

<st indéterminé, car il possède une infinité de solutions


Xi = k A —3A — 1, (3)
k étant un paramètre arbitraire ; en outre, les solutions qui s’obtien­
nent des formules (3) épuisent l ’ensemble des solutions du système
en question.
Le problème fondamental de la théorie des systèmes d ’équations
linéaires consiste à élaborer des méthodes permettant de savoir
si un système d’équations donné est compatible ou non et, dans
le cas de compatibilité, d’établir le nombre de ses solutions, ainsi
que de donner un procédé pour trouver toutes les solutions.
Nous commencerons par la méthode la plus commode pour trouver
pratiquement les solutions des systèmes à coefficients numériques,
à savoir celle d'élimination successive des inconnues (ou méthode
de Gauss).
Faisons d’abord une remarque. Il nous faudra, par la suite, faire
les transformations suivantes sur les systèmes d’équations linéaires:
multiplier les deux membres d ’une des équations du système par
un même nombre, puis les retrancher des membres correspondants
d’une autre équation du système. Supposons par exemple que les
deux membres de la première équation du système (1), multipliés
par le nombre c, soient retranchés des membres correspondants
de la deuxième équation. Nous obtenons un nouveau système d’équa­
tions:
<2ll*l + # 1 2 ^ 2 + • * • “F <2j7i*n =

a i l * i + a 22-r 2 + *■• ■ + a 2nx n = kj»


<231*1 + <232*2 + ■ . . + <23nXn ~ 63,

<2s 1*1 H" <2$2*2 ■- • <2sn*rt = b8,



Kj = a2J — caij Pour y= l, 2, . . .,rc, ù; = 62—cbt.
Les systèmes d'équations (1) et (4) sont équivalents, c'est-à-dire
compatibles ou incompatibles simultanément, et, dans le cas de com­
patibilité, possèdent les memes solutions. En effet, soit kx, k2, . . .
. . kn une solution du système (1). Evidemment, ces nombres
vérifient toutes les équations du système (4), excepté la deuxième.
Néanmoins, ils satisfont aussi à la deuxième équation car il suffit
de rappeler que cette équation du système (4) s’exprime par la pre­
mière et la deuxième du système (1). Inversement, toute solution
du système (4) vérifie le système (1). En effet, la deuxième équation
2—1212
18 SYSTÈMES D’ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

du système (1) s’obtient en retranchant des deux membres de la deu­


xième équation du système (4) les membres correspondants de la
première équation de ce système multipliés par le nombre — c.
Il est évident quVrc appliquant plusieurs fois au système (1) les
transformations du type décrit ci~dessusy nous obtenons de nouveau
un système d'équations équivalent au système initial (1).
Il est possible que, après avoir fait un certain nombre de transfor­
mations de ce genre, nous obtenons une équation dont le premier
membre est identiquement nul. Si son second membre l ’est aussi,
alors elle est satisfaite pour toutes les valeurs des inconnues. Elimi­
nant cette équation nous sommes conduits à un système équivalent
au système initial. Si, par contre, le second membre de l ’équation
en question n ’est pas nul, il n’existe alors pas de valeurs des incon­
nues qui vérifient cette équation. Par conséquent, le système d'équa­
tions obtenu ainsi que le système initial, équivalent à ce dernier, sont
incompatibles.
Passons maintenant à la méthode de Gauss.
Soit un système d ’équations linéaires (1). Supposons, par exemple,
que le coefficient an =£ 0 ; au cas où il est nul, nous commençons
par un autre coefficient non nul de la première équation.
Transformons le système (1) en éliminant l ’inconnue de toutes
les équations, sauf la première. Pour cela retranchons les deux mem­
bres de la première équation multipliés par le nombre —- des
membres correspondants de la deuxième équation. Puis, retranchons
les deux membres de la première équation multipliés par -1 des
membres correspondants de la troisième, etc.
Ce procédé nous conduit à up nouveau système de s équations
à n inconnues:
allx i + æ13^3+ • • • + dinxn - *1
^82^2+ ^23*^3+ »• *+ U2nXn = &2, |
^32*^2 Æ33#3“1“ • ■• ~f" ^3nXn ^ j (5)

<«*2 + a > 3 + ■.. +a'énZn = b‘9i j


II. est inutile de chercher à exprimer explicitement les coeffi­
cients a\j et les seconds membres b\ par les coefficients et les seconds
membres du système initial.
Comme nous le savons, le système d’équations (5) est équivalent
au système (1). Transformons à présent le système (5). La première
des équations (5) ne devant pas être transformée, nous ne nous
occuperons que du sous-système composé de toutes les équations (5),
excepté la première. Bien entendu, nous supposons que ce sous-
*U MÉTHODE D ’ÉLIMINATION SUCCESSIVE DES INCONNUES 19

système ne possède pas d ’équations dont les coefficients des pre­


miers membres et les seconds membres seraient identiquement
nuis, car nous pouvons toujours les éliminer. Nous supposons égale­
ment qu’il n ’y a pas dans notre sous-système d ’équations dont les
premiers membres soient identiquement nuis et les seconds membres
non nuis, car dans ce cas le système (5) serait incompatible. Il existe
donc des coefficients a\j non nuis. Sans restreindre la généralité
on peut supposer que a'22 =£ 0. Multipliant les deux membres de la
deuxième équation respectivement par
Ans a42
û22* a22* .., aU2622
â

et les retranchant ensuite des deux membres correspondants de toutes


les équations du système, à partir de la troisième, nous éliminons
l ’inconnue x 2 qui ne figure à présent que dans la première et la
deuxième des équations. Il vient après ces transformations
a i i x i 4 “ a i2%2 4 “ a l3 x 3 4 " • 4“ aln%n —&ii 1
#22^2 4“ a23XS4“ - < 4“ ^2nx n ~ fyî > |
^33^3 + • « 4 =^ »

aj3z 34-- 4" üinXn = bt *


ce système étant équivalent au système (5) et, par conséquent, au
système (1). Il contient à présent t équations, avec t ^ s, car il est
possible que nous ayons éliminé plusieurs équations. Evidemment,
le nombre des équations aurait pu diminuer après l ’élimination de
l ’inconnue xx. Nous devons continuer à transformer toutes les équa­
tions, excepté les deux premières.
Quand ce processus d’élimination des inconnues s’arrête-t-il?
Si au cours des transformations nous obtenons une équation dont
le premier membre est identiquement nul et le second ne l ’est pas,
cela signifie, comme on le sait, que le système initial est incompatible.
Dans le cas contraire, nous arrivons au système d’équations sui­
vant (équivalent au système (1)) :
awx\ 4* ^12^24" • • • 4~ai , 4~^ikxh4- • - *4” ^ b{,
4- • • • 4“ «2. h—ixk-i + Qzhxh 4" • • • 4“ = &2>
• ( 6)
+ i? W + ... =
J
Ici au =£ 0, a'2 0, . . ., a$L 0, ai& A) ¥= 0. Il faut
remarquer que k s et, bien entendu, k n.
2*
20 SYSTÈMES D'ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. !

Dans ce cas le système (1) est compatible. Il sera déterminé pour


k — n et indéterminé pour k < n.
En effet, si k — n, le système (6) prend la forme
® ll^ l ^12^2 “h • • » “h Q'in'En ~ b\ » ^

a 22X2 + • ■ • +&%nx n — b v ^

( n —1) _ _ r ( n - 1)
wn n •
La dernière équation nous donne une valeur bien déterminée de
rinconnue xn. Kn la substituant à £rt dans l ’avant-dernière équation,
nous obtenons une valeur bien déterminée de rinconnue xn^ .
Procédant ainsi, nous arrivons à la conclusion que le système (7)
et par conséquent le système (1) ont tous les deux une solution uni­
que, c’est-à-dire ils sont tous les deux compatibles et déterminés.
Si, par contre, k C n, les inconnues « libres » (non principales)
xk+x> . . xn peuvent prendre des valeurs arbitraires ; en attribuant
aux inconnues xk+ly . . xn des valeurs quelconques, le procédé
employé ci-dessus pour le système (7), mais appliqué cette fois-ci
au système (6), permet de trouver les valeurs correspondantes
des inconnues xu , . xh. Les valeurs des inconnues xh . . ., x n
pouvant être choisies arbitrairement, le système (C>) et, par consé­
quent-,-le-système (l) possèdent une infinité de solutions. Autrement
dit, dans ce cas, les systèmes (b) et (1) sont compatibles, mais indé­
terminés. Il est facile de vérifier que (en attribuant toutes les valeurs
possibles aux inconnues xh+ly . . r M) cette méthode nous donne
toutes les solutions du système (1).
On peut supposer qu’un système d’équations linéaires puisse
également être réduit par la méthode de Gauss à une forme diffé­
rente des formes (6) et (7). Notamment, il semble possible de Je
ramener à un système qui s’obtient en ajoutant à un système du
type (7) un certain nombre d’équations où n ’intervient que l’in­
connue av Quand bien même il en serait ainsi, cela signifierait
que les transformations ne sont pas encore achevées. En effet, comme
l ’on peut dans ce cas éliminer rinconnuo x a de toutes
les équations à partir de la (n + l ) ém0.
Il faut remarquer que la forme « triangulaire » du système
d ’équations (7) ou la forme « trapézoïdale » du système d ’équations
(6) (pour f c c n) sont dues à la supposition que les coefficients atl,
û'2, etc. ne sont pas nuis. Dans le cas général, le système d ’équations
auquel nous sommes amenés après l ’élimination des inconnues ne
prend la forme triangulaire (ou trapézoïdale) qu’àprès un rénuméro-
tage convenable des inconnues.
Résumant les résultats ci-dessus, nous constatons que la méthode
de Gauss est applicable à tout système d'équations linéaires. En outre,
§H MÉTHODE D ’ÉLIMINATION SUCCESSIVE DES INCONNUES 21

le système est incompatible si à la suite de transformations nous obtenons


une équation dont le premier membre est identiquement nul et le second
ne Vest pas. S iy par contre, au cours de transformations nous n'obtenons
pas de telles équations, c'est que notre système est compatible♦ Il est
en même temps déterminé si Von peut le réduire à la forme triangulaire
(7) et indéterminé s'il se ramène à la forme trapézoïdale (6) avec k < in.
Appliquons tout ce qui vient d’être dit à un système homogène,
c’est-à-dire à un système dont les seconds membres sont nuis. Un tel
système est toujours compatible, car il a au moins une solution,
à savoir la solution triviale (0, 0, . . 0). Supposons que notre
système homogène ait plus d’inconnues que d’équations. Alors,
ce système ne peut pas être réduit à la forme triangulaire, car la
méthode de Gauss ne peut que diminuer le nombre des équations ;
par conséquent, ce système se ramène à la forme trapézoïdale, c’est-à-
dire il est indéterminé.
Autrement dit, si un système d'équations linéaires homogènes
a plus d'inconnues que d'équations, il possède, outre la solution triviale,
d'autres solutions non triviales, où certaines inconnues (parfois même
toutes) sont non nulles. Dans ce cas le système a une infinité de solu­
tions non triviales.
Pour résoudre un système d’équations linéaires par la méthode
de Gauss, il faut d’abord former la matrice des coefficients, puis
y ajouter la colonne des seconds membres. Il est utile de séparer
la matrice des coefficients de cette colonne par un trait vertical et
faire ensuite toutes les transformations sur la matrice ainsi « élargie ».
Exemples. 1. Résoudre le système
*i + 2a;2 + 5*3= —9, \
*l~ *2+3*3= 2, l
3^ —6x2—x3 — 25. /
Transformons la matrice élargie du système :
/I 2 5 —9\ /I 2 51 —9 \ /I 2 5 -9
i —1
\3 - 6 - 1
3 2 ) —> I 0 —3
25/
11 ) —> ( 0 —3 - 2
\ 0 —12 —16 [ 52/
Ainsi, nous sommes conduits au système
Vo 0 -8
11
8 )
xi + 2^2+ 5^3 = —9, \
—3x2—2x3 = H, i
—8*3= 8, J
qui possède la solution unique
*1—2, Xj— 3, *3— t
Le système initial est donc déterminé.
22 SYSTÈMES D’ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

2. Résoudre le système
* t—5*2—8 * 3 * 4 = 3,
+ *2—8*3—5*4 = 1,
xx —723+ 2*4= —5,
11*2+ 20*3—9*4= 2.
Transformons la matrice élargie du système

Nous sommes conduits à un système contenant réquation 0 = 2. Donc, le


système initial est incompatible.
3. Résoudre le système
4*1+ *2 3*3 24= 0, ^
2xx + 3*2 + *3 —5*4 = 0, >
*i —2*2 *—2*3-|- 3*4 0. ^
C’est un système d’équations homogènes. En outre, il possède plus d’incon­
nues que d ’équations; le système doit donc être indéterminé. Les seconds mem­
bres étant nuis, nous ne transformons que la matrice des coefficients
4 1 —3 —1\ /O 9 5 —13\ /O 2 0 — 2\

(2
1 —2 —2
3 1 —5 J —^ I 0 7
3/ \1 ~ 2 —2
Nous sommes conduits au système
5 —11 J —> J 0
3/ \1
7
—2 —2
5 -1 1 ]
3/

2*2 —2*4= 0, \
7*2+ 5*3—11*4 =0, >
*j—2*2—2*3*"b3*4—0. J
On peut prendre comme inconnues « libres » (non principales) aussi bien
*2 que *4. Soit * 4 = a. La première équation donne alors : *2 = a ; on déduit
ensuite de la deuxième équation *a = -=- a et, finalement, on obtient de la troisiè-
0
me équation *4 = a. Ainsi
U
3 4
— a, a, y a, a
est la forme générale des solutions du système donné.
§ 2] DÉTERMINANTS DU DEUXIÈME ET DU TROISIÈME ORDRE 23

§ 2. Déterminants du deuxième et du troisième ordre


La méthode de résolution des systèmes d’équations linéaires,
exposée au paragraphe précédent, est très simple et ne nécessite
que des calculs d’un même type facilement réalisables sur les ordi­
nateurs. Néanmoins, son défaut essentiel est de ne pas permettre
de formuler au moyen des coefficients et des seconds membres les
conditions pour qu’un système donné soit compatible ou déterminé.
D’autre part, même dans le cas d’un système déterminé, cette
méthode ne permet pas de trouver les formules exprimant la solution
du système par ses coefficients et ses seconds membres. Pourtant,
tout ceci est nécessaire pour l’étude de certains problèmes théori­
ques, en particulier, pour la géométrie. C’est pourquoi la théorie
des systèmes d’équations linéaires doit être développée par d’autres
méthodes plus efficaces. Le cas général sera étudié dans le chapitre
suivant, tandis que ce chapitre sera consacré à l ’étude des systèmes
déterminés qui ont autant d ’équations que d’inconnues. Nous com­
mencerons par les systèmes à deux et trois inconnues étudiés dans
le cours d’algèbre élémentaire.
Soit un système de deux équations linéaires à deux inconnues
alla:i + Æ12a?2= ^l» 1
û21xl **22^2 1=3 /
dont les coefficients forment une matrice carrée du deuxième ordre

Appliquant la méthode d’identification des coefficients au système (1),


il vient
{U\\a22—&i2^2l) ~ ^i®22 —^12^2*
(#11^22 —^12û2l) ^2 = ^11^2 —^1^21»
Supposons que ana22—«12^21 ^ 0- Alors
x _ M 22—aiafrg x _ flu^2—^ia%\ /g\
1 a 1i a 22 — a i 2 a 2 I * 2 fll i a 22 — û 12a 21 ' '
Substituant dans les équations (1) les valeurs trouvées aux
inconnues correspondantes il est facile de vérifier que (3) est une
solution du système (1) ; le problème d’unicité de la solution sera
étudié au § 7.
Le dénominateur commun dans les formules (3) s ’exprime de
façon très simple par les éléments de la matrice (2) : il est égal au
produit des éléments de la diagonale principale duquel on retranche
le produit des éléments de la diagonale non principale. Ce nombre
est appelé déterminant de la matrice (2), ou encore déterminant
2'i SYSTÈMES D ’ÉQUATIONS LINÉAIRES. DÉTERMINANTS [GH. I

du deuxième ordre, car la matrice (2) est une matrice du deuxième


ordre. Pour désigner le déterminant de la matrice (2), nous utili­
serons le symbole suivant : on écrit la matrice (2) en mettant à la
place de chaque parenthèse un trait vertical; ainsi,
a,i a12
— 1^22 —^12^21*
a2\ a2Z
Exemples.
1) 37
= 3 .4 -7 .1 = 5 ;
14
1 -2
= 1.5— ( - 2 ) . 3 = 11.
3 5
Il faut souligner, une fois de plus, que le déterminant d'une
matrice est un nombre, tandis que la matrice carrée à laquelle ce
nombre est associé est un tableau de nombres. Les produits an a22
et a12a21 sont appelés termes d'un déterminant du deuxième ordre.
Les numérateurs des expressions (3) ont la même forme que leur
dénominateur, c’est-à-dire ils sont aussi des déterminants du deuxiè­
me ordre. Le numérateur de l ’expression donnant n ’est autre
que le déterminant de la matrice qui s’obtient de la matrice (2) par
substitution de la colonne des seconds membres du système (1)
à la première colonne de la matrice (2) ; de même, le numérateur
de l’expression donnant x 2 est le déterminant de la matrice qui
s’obtient de la matrice (2) par substitution de la colonne des seconds
membres du système (1) à la deuxième colonne de la matrice (2).
Maintenant on peut récrire les formules (3) sous la forme :
bx a, 2 lan à,
b2 a22 |û21 &2
t '
all û12 ali ai2
a21 a22 <*21 a22
Ces formules (dites formules de Cramer), donnant la solution d ’un
système de deux équations à deux inconnues, peuvent s’énoncer
de la manière suivante :
Si le déterminant (4), formé par les coefficients du système d'équa­
tions (1), n'est pas nul, la solution du système (1) s'obtient en prenant
pour valeurs des inconnues les fractions dont les dénominateurs sont
le déterminant (4) et le numérateur de l'inconnue x t (i = 1,2) est
le déterminant qui s'obtient en substituant à la ième colonne du déter­
minant (4) 1 la colonne des seconds membres du système (1).
1 Pour ne pas alourdir l ’exposé nous parlons ici de substitution des colon­
nes « d’un déterminant ». De même, dans ce qui suit et quand cela sera néces­
saire, nous aurons recours aux vocables : lignes, colonnes, éléments, diagonales
d’un déterminant, etc.
DÉTERMINANTS DU DEUXIÈME ET DU TROISIÈME ORDRE 25

Exemple. Résoudre le système


2^i + *2= L \
—3*2 ——2. i
Le déterminant des coefficients

n’étant pas nul, nous pouvons appliquer à ce système les formules de Cra­
mer. Les numérateurs dans les expressions des inconnues sont respectivement
7 1 7
*1= —2 —3 = - 1 9 , do = = - 11.
-2
Le couple de nombres (valeurs des inconnues x t et x2)
d\ 19 ,^ „ d2 _ 11.
Xi~ d ~~ 7 • 2— T ~ 7
est donc la solution de notre système.
L’introduction des déterminants du deuxième ordre n ’apporte
guère de simplifications à la résolution* des systèmes de deux équa­
tions linéaires à deux inconnues. Du reste, la résolution de ces systè­
mes sans avoir recours aux déterminants ne comporte aucune diffi­
culté. Il n’en est plus ainsi pour les systèmes de trois équations li­
néaires à trois inconnues où l ’introduction des déterminants est déjà
plus efficace. Soit un système
a iix \ + #12^2 + 013^3 —
#21*^1+ a22^2 + #23^3 = fy&i
a Z \x i + ^32^2 + a 33x 3 “ &3>

dont la matrice des coefficients est

(7)

En multipliant les deux membres de la première équation par


le nombre a22a33 ~~ a23a32» les deux membres de la deuxième par
al3a32 — ^i2a33i les deux membres de la troisième par a12a 23 ~ a13a 22
et les additionnant, il est facile de vérifier que les coefficients de x 2
et de x3 s’annulent, c’est-à-dire les inconnues x 2 et x3 disparaissent,
et l ’on obtient
( a l l a 22a 33 + 12^23^31 “ h a l3a 2 ia 32 — a 13^22^31 —

—a12Û2ia33 ^11^23^32) xi = &la22a33+ <*12^23^3+


+ ai3^2a32. —a 13^*22^3—û 12^2^33— ^1^23^32- (8)
26 SYSTÈMES D ’ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

Le coefficient de xx dans (8) est appelé déterminant du troisième


ordrey associé à la matrice (7). On utilise, pour le noter, le même
symbole que pour le déterminant du deuxième ordre ; ainsi
ai\ a12 a\s I
®21 a22 &2Z —fl11^22^33“H^12^23^31
a 3 l ®32 a 33 + û 1 3 ^ 2 ia 3 2 “ a 13a 22a 3 1 “ '
—Û|2®2i^33 —G11^23^32• (9)
Bien que l'expression (9) d’un déterminant du troisième ordre
soit assez encombrante, la loi selon laquelle ses termes sont formés

à partir des éléments de la matrice (7) est très simple. En effet, l ’un
des trois termes précédés du signe + dans (9) n ’est autre que le
produit des éléments de la diagonale principale, les deux autres
termes étant les produits des éléments des diagonales parallèles
à la principale par les éléments situés dans les points les plus éloi­
gnés des diagonales correspondantes. Les termes précédés du signe —
dans (9) sont formés d’après la même loi appliquée à la diagonale
non principale. Nous avons ainsi un procédé permettant de calculer
assez rapidement les déterminants du troisième ordre. On a repré­
senté schématiquement sur la figure 1 la règle de calcul des termes
précédés du signe + (à gauche) et des termes précédés du signe —
(à droite).
Exemples.
1) 2 1 2
— 4 3 1 =2-3*5 + M . 2 + 2 ‘( — 4)-3 —
2 3 5 —2-3-2— 1 ( —4). 5 — 2-1.5 =
= 30 + 2 —24 —12 + 20 —6=
= 10.
2) 1 0 -5
2 3 2 = 1 *3*0 + 0‘2«l + ( —5) •( — 2) ■(—2) —
1 -2 0 —(-5 ).3 ‘1—0. ( - 2).0—1-2.(—2) =
= - 2 0 + 15 + 4 = —1.
§ 2] DÉTERMINANTS DU DEUXIÈME ET DU TROISIÈME ORDRE 27

Le second membre de l’expression (8) est également un détermi­


nant du troisième ordre associé à la matrice.qui s’obtient de la
matrice (7) par substitution de la colonne des seconds membres
du système (6) à sa première colonne. Notons par d le déterminant
(9) et par dj le déterminant qui s’obtient par substitution de la colon­
ne des seconds membres du système (6) à la ;ôme colonne du déter­
minant (9) (; = 1, 2, 3). La formule (8) prend alors la forme dx1 —
— du d’où il vient (à condition que d 0)

*i=4- <10)
Multipliant les équations (6) respectivement par a23a31 — a2ïa33,
^13^311 ^i3^2i nous obtenons de la meme maniéré
pour x 2 l ’expression suivante (en supposant toujours d^= 0) :
* * -4 - • (in
Enfin, multipliant ces équations respectivement par a%iaZ2—
—^22^31) ^12^31 —^n^32> ^n^22 —^12^21» nous sommes conduits
à l ’expression suivante pour x3:
( 12)

Substituant aux inconnues xu x 2, x3 dans les équations (6) les


valeurs (10) — (12) (les déterminants d et dj étant développés)
on peut vérifier, en faisant des calculs quelque peu laborieux, que
toutes les équations (6) sont satisfaites, c’est-à-dire que les nombres
(10) — (12) forment une solution du système (6). Ainsi, si le détermi­
nant des coefficients d'un système de trois équations linéaires à trois
inconnues n'est pas nul, la solution de ce système est donnée par les
formules de Cramer, qui s'énoncent de la même manière que dans le cas
d'un système de deux équations. Une autre démonstration de cette
proposition (qui ne sera pas basée sur les calculs omis ci-dessus)
ainsi que la démonstration de l’unicité de la solution (10) — (12)
du système (6) seront données au § 7,
Exemple. Résoudre le système :
2x\ — x 2 -f - x 3 — 0, *\
3 ^ 4 - 2 x 2 — 53 :3 = 1 , V
x i 4- 3x 2 — 2x3 = 4. i
Le déterminant des coefficients
2 -1 1
d = 3 2 —5 = 28
1 3 — 2
28 SYSTÈMES D'ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. i

n'étant pas nul, nous pouvons appliquer à ce système les formules de Cramer.
Los numérateurs dans les expressions des inconnues étant
0 —1 1 2 0 1 2 —1 0
1 2 —5 - 1 3 , = 3 1 —5 -4 7 . d3= 3 2 1
4 3 —2 1 4 —2 1 34
la solution du système est
13 47 21 3
*1“ 28’ ~ 28 ’- 13 284

§ 3. Permutations et substitutions
Pour définir et étudier les déterminants d’ordre n, il faut intro­
duire certaines notions et établir certaines propriétés des ensembles
finis. Soit M un ensemble fini composé de n éléments. Vu que les
éléments de M peuvent être numérotés au moyen des entiers 1,2, . . .
. . n et que, en l’occurrence, les propriétés individuelles de ces
éléments ne jouent aucun rôle, nous pouvons supposer que les élé-
ments de l’ensemble M sont précisément les entiers 1, 2, . . ., n.
L’ordre naturel des n premiers nombres entiers 1, 2, . . n
n ’étant pas le seul possible, nous pouvons les ordonner de plusieurs
manières différentes. Ainsi, les nombres 1, 2, 3, 4 peuvent être
ordonnés comme suit: 3, 1, 2, 4 ou bien 2, 4, 1, 3, etc. Toute suite
des nombres 1, 2, . . ., n ordonnée selon une loi bien déterminée
s’appelle permutation de n nombres (ou de n éléments).
Le nombre des permutations distinctes de n éléments est égal au
produit 1 -2 •. . . •n, que nous notons par n \ (il faut lire factorielle n).
En effet, toute permutation est de la forme il7 i2, . . ., in, la suite
ti, . . in étant composée de n nombres distincts prenant les va­
leurs : 1, 2, . . ., n. Par conséquent, ix peut prendre a priori n valeurs
distinctes 1, 2, . . ., n, ce qui donne n permutations différentes.
Une fois i± fixé, i2 ne peut prendre que n — 1 valeurs distinctes,
c’est-à-dire il y a n (n — 1) façons distinctes de choisir les éléments
i1 et i2, etc.
Ainsi, pour n = 2 le nombre des permutations est 2! — 2.
Ce sont les permutations 12 et 21 (nous ne séparons pas les éléments
par une virgule dans tous les exemples où n 9) ; pour n — 3
ce nombre est 3! = 6, pour n = 4, il est 4! = 24. Lorsque n
croît, le nombre des permutations croît bien plus rapidement ;
ainsi, pour n = 5, ce nombre est: 5! = 120, et pour n — 10, il est
déjà égal à 3 628 800.
Echangeant deux éléments distincts d’une permutation (pas
forcément ceux qui sont voisins) et laissant tous les autres éléments
invariants, nous obtenons, évidemment, une autre permutation.
Cette transformation est dite transposition.
§ 3] PERMUTATIONS ET SUBSTITUTIONS 29

On peut ordonner les n\ permutations de n éléments en une suite


de manière que toute permutation s'obtienne par une trampositiôn
de celle qui la précède ; en outre la suite peut commencer par une permu­
tation quelconque.
Il est clair que cette proposition est vraie pour n = 2. En effet,
si nous commençons par la permutation 12, alors l ’ordre cherché
est 12, 21 ; si, par contre, nous voulons commencer par 21, l’ordre
en question sera 21, 12. Supposons que notre proposition soit prouvée
pour n — 1. Prouvons-la pour n, Supposons que l ’on commence
par la permutation
*11 • ■• y ifi' (1)
En vertu de l’hypothèse de récurrence nous pouvons ordonner les
permutations de n — 1 éléments, conformément à l’énoncé du théorè-
me, en commençant par une permutation quelconque, en particu­
lier, par e’2, . . in, de telle sorte que les permutations de n élé­
ments qui commencent par ij seront ordonnées, selon l ’énoncé
du théorème, en partant de la permutation (1). Dans la dernière
des permutations de n éléments ainsi obtenues, transposons l ’élé-
ment iv avec un autre élément quelconque, par exemple, i2. Commen­
çant par cette permutation, ordonnons d ’après la loi précédente
les permutations dont le premier élément est i2, etc. Il est clair
que de cet te manière nous obtenons toutes les permutations de n élé­
ments.
Il résulte du théorème démontré ci-dessus qu’on peut passer
d'une permutation, donnée, à toute autre par une série de transpositions.
On dit qu'un couple de nombres i, j présente une inversion dans
une permutation donnée si i précède j et j. Une permutation
est dite paire si le nombre d’inversions dans cette permutation est
pair et impaire dans le cas contraire. Ainsi, la permutation 1,2, . . .
. . ., n est paire quel que soit n, car le nombre d’inversions est
égal à zéro. La permutation 451362 (n — 6), ayant 8 inversions,
est paire. La permutation 38524671 (n = 8) est impaire, car elle
possède 15 inversions.
Toute transposition change la parité d'une permutation. Pour
prouver cette proposition importante, nous allons d’abord considérer
le cas où les éléments i et j qu’on transpose sont voisins, c’est-à-dire
le cas où la permutation est de la forme . . ?, 7, . . . . les points
de suspension désignant les éléments qui ne changent pas par la
transposition. Après cette transposition notre permutation devient
i, . . . . Il est clair que les nombres des inversions présentées
par les couples de ces deux permutations, excepté les couples (i, j)
et (/, i), coïncident. Si le couple (?’, /) ne présente pas d ’inversion,
en échangeant i et /, le nombre des inversions de la permutation
.. i, . . . augmentera d ’une unité. Si, par contre, le couple (i, /)
30 SYSTÈMES D'ËQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

présente une inversion, transposant i et 7, le nombre des inversions


de la permutation . . 7, i, . . . diminuera d’une unité. Dans les
deux cas la parité de la permutation sera changée.
A présent, supposons qu’il y ait s éléments situés entre les élé­
ments qu’on transpose, $ > 0, c’est-à-dire que la. permutation soit
de la forme
. . . , i, /cg, ■■*» k8i 7, .. (2)
On peut réaliser la transposition échangeant les éléments i et 7
par application successive de 2s + 1 transpositions ne portant que
sur des éléments voisins. Notamment, ce sont les transpositions
échangeant les éléments ^ et i, puis k 2 et i, etc. et, enfin, k s et i;
après ces s transpositions vient celle qui permute i et 7, puis viennent
les transpositions, au nombre de s, échangeant 7 avec tous les k ;
finalement i prend la place de 7, 7 prend celle de i, tandis que les
éléments k reprennent leurs places initiales. La parité de la permu­
tation ayant changé un nombre impair de fois, les permutations (2)
et
. . / , k u *2, i, .. . (3)
sont de parité opposée.
Le nombre, des permutations paires de n éléments est égal au nombre
des permutations impaires, par conséquent, ce nombre est y n ! (n ^ 2).
En effet, le théorème démontré ci-dessus nous permet d ’ordonner
les permutations de n éléments de manière que chaque permutation
soit une transposition de la précédente. Cet ordre étant, deux permu­
tations voisines sont de parité opposée, autrement dit les permuta­
tions paires et impaires alternent. Le nombre n 1 étant pair pour
n ^ 2, notre proposition en résulte immédiatement.
Introduisons maintenant une autre notion, celle de substitution
de degré n. Ecrivons deux permutations de n éléments l’une au-
dessous de l ’autre en les mettant entre parenthèses. Par exempler
pour n = 5 :
/3 5 1 4 2\
( 5 2 3 4 1 )*
Ici 1 le nombre 5 se trouve en dessous du nombre 3, le nombre 2 en
dessous du 5, etc. Nous dirons que le nombre 3 se transforme en 5T
le nombre 5 en 2, le nombre 1 en 3, le nombre 4 en 4 (ou ne change
pas de place) et, enfin, le nombre 2 en 1. Ainsi, deux permutations
écrites sous la forme (4) définissent une application bijective de

1 Bien qu’il ressemble à une matrice à deux lignes et cinq colonnes, ce


signe a un sens tout différent.
§ 3] PERMUTATIONS ET SUBSTITUTIONS 31

l’ensemble, composé des nombres entiers 1, 2, 3, 4, 5, sur lui-


même, c’est-à-dire une application qui fait correspondre à chacun
de ces nombres un autre nombre de cet ensemble ; de plus, à deux
nombres distincts correspondent deux nombres distincts. Cet en­
semble étant composé de cinq éléments, c’est-à-dire étant un ensemble
fini, chacun de ces cinq nombres correspond à un des nombres 1, 2,
3, 4, 5, notamment à celui dont il est l ’image par l ’application envi­
sagée.
Il est clair que l ’application bijective (4) peut être donnée au
moyen d’autres couples de permutations de cinq éléments écrites
l’une en dessous de l ’autre. Chacun de ces couples de permutations
s’obtient de (4) par un certain nombre de transpositions de colonnes.
Telles sont, par exemple, les substitutions de degré 5:
/2 1 5 3 4 \ / I 5 2 4 3\ /2 5 1 4 3\
VI 3 2 5 4 / ’ \3 2 1 4 ôj ’ \i 2 3 4 5J '(5)
Ici 3 se transforme toujours en 5, 5 en 2, etc.
De même, deux permutations de n éléments, écrites l ’une en
dessous de l ’autre, définissent une application bijective de l ’ensem­
ble des n nombres entiers 1, 2, . . ., n sur lui-même. Toute appli­
cation bijective A de l ’ensemble des entiers 1, 2, . , n sur lui-
même est appelée substitution de degré n. Evidemment, toute
substitution A de degré n peut être exprimée au moyen de deux
permutations, écrites l’une en dessous de l ’autre, soit
(iil, * • • i in
-4 = 1 .
» oc%n
a i étant le nombre que la substitution A fait correspondre au nombre
i, i = 1, 2, . . ., n.
Toute substitution A de degré n possède une multitude d ’écri­
tures de la forme (6). Ainsi, (4) et (5) sont des formes différentes
d’une même substitution de degré 5.
On peut passer de l ’une des formes (6) d’une substitution A
à une autre par un certain nombre de transpositions de colonnes.
En outre, procédant de la sorte, on peut toujours obtenir .pour toute
substitution A une forme (6) telle que la première (ou bien la deu­
xième) ligne soit une permutation donnée de n éléments. En parti­
culier, toute substitution A de degré n peut être mise sous la forme
2 ... n
A = (
\oci a 2 . . .
c’est-à-dire sous la forme où la première ligne est la permutation
identique. Il découle de la forme (7) que deux substitutions de degré
32 SYSTÈMES D ’ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

n se distinguent l ’une de l ’autre par les permutations dans leurs


secondes lignes. Par conséquent, le nombre de substitutions de degré
n est égal à celui de permutations de n éléments, c'est-à-dire à n\. *
La substitution identique

est un exemple de substitution de degré n, elle conserve à la même


place tous les éléments.
Il faut remarquer que le rôle joué par les deux lignes d ’une subs­
titution A (6) n ’est pas le même. Transposant les lignes nous obte­
nons, en général, une autre substitution. Par exemple, les substi­
tutions de degré 4

sont distinctes, car au nombre 2 la première fait correspondre le


nombre 4 et la seconde le nombre 3.
Ecrivons une substitution A de degré n sous une forme quelcon­
que. Les permutations formant respectivement la première et la
seconde ligne de ;î peuvent avoir la même parité ou être de parité
opposée. On sait qu’on peut passer de l ’une des formes d ’une subs­
titution A à une autre, en appliquant un certain nombre de trans­
positions à la ligne supérieure et celles correspondantes à la ligne
inférieure. Bien entendu, effectuant une transposition dans la ligne
supérieure de (6) et la transposition correspondante dans la ligne
inférieure, nous changeons simultanément la parité des deux permu­
tations formant la substitution A. Par conséquent, ayant au début
la même parité (ou bien la parité opposée), les deux permutations
conservent cette propriété après les transpositions. Il en découle
que deux permutations formant une substitution de degré n sont de
même parité ou de parité opposée, indépendamment de la forme sous
laquelle la substitution est écrite. Une substitution A est appelée
paire, si les permutations qui la forment sont de même parité;
elle est dite impaire dans le cas contraire. En particulier, la substi­
tution identique est paire.
Utilisant la forme (7) des substitutions, e’o t-à-dire la forme
où la première ligne est la permutation paire 1, 2, . . w, on voit
que la parité d ’une substitution A est définie par la parité de la1

1 Ces dernières considérations montrent qu’il n’y a aucune différence entre


le? notions de permutation de n éléments et de substitution de degré n. Dans
la littérature mathématique française on use généralement du terme « permuta­
tion » mais on rencontre parfois des auteurs qui emploient le terme « substitu­
tion ». Nous conservons ici le style de l’auteur. (N.d.T.)
PERMUTATIONS ET SUBSTITUTIONS 33

permutation alf a 2, . . an, constituant sa seconde ligne. Il en


résulte que le nombre de substitutions paires de degré n est égal à celui
de substitutions impaires, c'est-à-dire à
On peut aussi définir la parité d'une substitution de degré n de
manière suivante. Si dans (6) la parité des deux lignes est la même,
alors le nombre des inversions dans ces deux lignes est simultané­
ment pair ou impair, de sorte que dans ce cas le nombre total
inversions est toujours pair; si, par contre, la parité des lignes dans
(6) est opposée, alors le nombre total des inversions dans les deux
lignes est impair. Ainsi, une substitution A de degré n, écrite sous une
forme quelconque, est dite paire si le nombre total des inversions dans
ses deux lignes est pair et impaire dans le cas contraire.
Exemple. Soit la substitution de degré 5
/3 1 4 5 2 \
U 54 3 1j
La première ligne contient 4 inversions, la seconde en a 7, Le nombre total
des inversions étant 11, la substitution en question est impaire#
Mettons cette substitution sous la forme
/ I 2 3 4 5\
U 1 J’2 4 3
Le nombre des inversions dans sa première ligne étant nul et dans la seconde 5,
le nombre total est impair. On voit que les différentes formes d’une même subs­
titution ont le nombre d’inversions différent, mais chaque fois le nombre
total des inversions a la même parité.
A présent, nous allons donner d’autres définitions de la parité
des substitutions de degré n équivalentes aux définitions précé­
dentes l . Définissons d’abord la multiplication des substitutions
de degré n, qui est d’ailleurs d’un grand intérêt par elle-même.
On sait qu’une substitution de degré n est une application bijective
de l ’ensemble 1, 2, . . n sur lui-même. Deux applications bijec-
tives de l ’ensemble 1, 2, , . n sur lui-même, accomplies dans
un ordre bien déterminé, définissent manifestement une troisième
application bijective de cet ensemble sur lui-même. Autrement dit,
deux substitutions appliquées l’une après l ’autre nous conduisent
à une troisième substitution également bien définie, dite produit
des substitutions données. Par exemple, le produit des substitutions
de degré 4
/ I 2 3 4\ / I 2 3 4\
_________ A^XSiA2)' ^ = \1 3 4 2 /
1 Nous n’aurons besoin de ces définitions qu’au chapitre XIV, de sorte
qu’elles peuvent être omises en première lecture.
34 SYSTÈMES D'ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

est la substitution

En effet, la substitution A transforme l ’élément 1 en l ’élément


3 et la substitution B transforme l’élément 3 en l ’élément 4; par
conséquent, AB transforme l ’élément 1 en l ’élément 4, etc.
On ne peut multiplier que les substitutions de même degré.
La multiplication des substitutions de degré n n'est pas commutative
pour 3. En effet, pour les substitutions précédentes i4 et S ,
le produit B A est de la forme

c’est-à-dire la substitution B A ne coïncide pas avec la substitution


AB . On peut donner des exemples de non-commutativité pour tout
n, n ^ 3, bien qu’il arrive parfois que certains couples de substi­
tutions commutent.
La multiplication des substitutions de degré n est associative,
c’est-à-dire on peut parler du produit d’un nombre fini, quelconque,
de substitutions, l ’ordre des facteurs dans ce produit devant être
bien déterminé (rappelons que la multiplication n’est pas commuta­
tive). En effet, soient A, B y C trois substitutions de degré n ; sup­
posons que l ’image de l ’élément il7 1 ^ h ^ ra, par la substitution A
soit l’élément ï2, l ’image de i2 par B soit i9 et celle de iBpar C soit i4.
Alors, la substitution AB transforme ix en i3, et la substitution BC
i2 en ik. Ainsi, {AB) C et A (BC) transforment ix en i4. Il est clair
que le produit d'une substitution A de degré n par la substitution
identique E , ainsi que le produit de E par A , donne toujours la subs­
titution A :
AE = EA —A.
Enfin, nous appelons substitution inverse de A une substitution
de degré n , notée telle que
AA~1 = A~lA = E.
Il est facile de vérifier qu’une substitution

A=(l 2 ■■")
\<Xt a2 .. . anJ
a pour inverse la substitution
/a t 02 .... a*\
~ \t 2 ... n /
A*1 s’obtient en intervertissant l ’ordre des lignes de A.
PERMUTATIONS ET SUBSTITUTIONS 35

Considérons à présent les substitutions de degré n d’un type


spécial, à savoir celles qui s’obtiennent de la substitution identique
en transposant deux éléments dans sa seconde ligne. Ces substitu­
tions, qui sont manifestement impaires, s’appellent transpositions
et sont de la forme

les points de suspension désignent les éléments qui ne changent pas


de place. Convenons de noter cette transposition par le symbole
(i, ;). La transposition des éléments i et ; dans la seconde ligne d’une
substitution A écrite sous forme (7) est équivalente à la multipli­
cation à droite de A par la substitution (8), c’est-à-dire à la multi­
plication de A par (i, j). Comme on le sait, toute permutation de n
éléments s’obtient d’une permutation fixée, par exemple, de (1,
2, . . n) en y effectuant successivement un certain nombre de
transpositions; ainsi, toute permutation peut être obtenue de la
permutation identique au moyen de transpositions dans sa seconde
ligne, c’est-à-dire toute substitution de degré n est le produit de la
substitution identique par certaines substitutions du type (8),
Autrement dit, on peut affirmer que toute substitution est représen­
table sous la forme de produit de transpositions (le facteur E pouvant
être omis).
Il existe une multitude de façons de décomposer une substitution
donnée en un produit de transpositions. Par exemple, nous pouvons
toujours ajouter deux facteurs (i, /) (i, ;), dont le produit est égal
à E . Voici un exemple moins trivial :

(2 5 4 3 i ) = (12) (15) (34) = (14) (24) (45) (34) (13).


Une autre définition de la parité des substitutions est basée
sur le théorème suivant :
Quelle que soit la décomposition d'une substitution en un produit
de transpositions, la parité du nombre de ces transpositions est la meme
et elle coïncide avec celle de la substitution considérée.
Ainsi, la substitution de l ’exemple précédent est impaire, comme
il est facile de le vérifier en calculant le nombre des inversions.
Le théorème sera prouvé si nous montrons que le produit de k trans­
positions quelconques est une substitution dont la parité est celle du
nombre Zc. Ceci est manifestement vrai pour k = 1, car une transpo­
sition est une substitution impaire. Supposons que le théorème soit
prouvé pour (k — 1) facteurs. Les nombres (k — 1) et k étant de
parité opposée et la multiplication d’une substitution (ici c’est
la substitution A x composée des (k — 1) premiers facteurs) par une
36 SYSTÈMES D'ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

transposition étant équivalente à l'application de cette transposition


dans la seconde ligne de A l9 le théorème est prouvé par la récurrence
sur k.
Un moyen commode d ’écrire les substitutions, qui perm ette trouver facile­
ment leur parité, est la décomposition des substitutions en cycles. Une substitu­
tion de degré n peut conserver à la même place certains éléments de l ’ensemble
1, 2, . . n y tandis qu’à tout autre elle fait correspondre un élément distinct
de ce dernier. On appelle substitution cyclique, o u cycle y toute substitution qui
par sa réitération un nombre suffisant de fois peut pour tout couple d’éléments
non conservés faire correspondre l ’un de ceux-ci à l ’autre. Telle est, par exemple,
la substitution de degré 8 :
/ I 2 3 4 5 6 7 8\
I l 8 6 4 5 2 7 3j 1
qui échange les entiers 2, 3, 6 et 8; en outre, elle fait correspondre l’entier 8 à
l ’entier 2, 3 à 8, 6 à 3 et 2 à 6.
Toute transposition est un cycle. Par analogie avec les transpositions on a
recours à l ’écriture suivante, pour désigner les cycles : soit un cycle, on ordonne
les éléments qui ne sont pas conservés par ce cycle et on les met entre parenthèses,
l ’ordre des éléments non conservés étant conforme à celui de leur apparition
à la suite de la réitération du cycle considéré ; le premier signe du cyclé peut
être pris arbitrairement parmi les éléments non conservés par lui ; en outre, le
cycle fait correspondre le premier élément au dernier élément de la ligne. Ainsi,
pour le cycle ci-dessus l ’écriture en question est de la forme:
(2 8 3 6).
Le nombre des éléments non conservés par un cycle est appelé longueur du
cycle.
Deux cycles de degré «sont dits indépendants, s’ils n’ont pas d’éléments
communs non conservés. Il est clair que le produit de deux cycles indépendants
ne dépend pas de l ’ordre des facteurs.
Toute substitution peut être décomposée d'une façon unique en un produit de
cycles indépendants deux à deux. La démonstration de cette proposition ne repré­
sente aucune difficulté et peut être omise. En pratique, la décomposition se
fait de la manière suivante : on commence par un élément non conservé quelcon­
que et l ’on écrit successivement les éléments, images correspondantes du premier
élément par la substitution en question réitérée, jusqu’à ce que l’on retrouve le
premier élément; ceci étant, on fixe un élément non conserve quelconque parmi
ceux qui n’appartiennent pas au premier cycle, l ’élément fixé engendrant par
ce même procédé le second cycle, etc.
Exemples.
/I 2 3 4 5\
(3 5 1 2 4) - < ‘3)<254»-
/1 2 3 4 56 7 8\
2’ ( 5 2 8 7 6 1 4 ,)-<'»><*><«>-
Inversement, pour toute substitution mise sous la forme d’un produit de
cycles indépendants, on peut trouver son écriture usuelle (à condition que l’on
connaisse le degré de la substitution). Par exemple,
/#r /I 2 3 4 5 6 7\
3) (13J2) 6 4 , J ,

si cette substitution est de degré 7.


DÉTERMINANTS D ’ORDRE n 37

Soit une substitution de degré n et soit s la somme du nombre de ses cycles


indépendants et de celui de ses éléments conservés 1. La différence n — $ est
appelée décrément de cette substitution. Il est clair que le décrément est la
différence du nombre des éléments non conservés et de celui des cycles indé­
pendants dans la décomposition de la substitution considérée. Pour les exemples
1), 2) et 3) ci-dessus, le décrément est respectivement 3, 4 et 4.
La parité d'une substitution coïncide avec celle de son décrément.
En effet, tout cycle de longueur k se décompose de la manière suivante
en un produit de {k — 1) transpositions:
(h> h .......h) (h* h) *•. (h* **)-
Supposons maintenant qu’une substitution A soit décomposée en un produit de
cycles indépendants. Utilisant la représentation ci-dessus pour chaque cycle
intervenant dans l ’expression de A , nous obtenons la décomposition de la subs­
titution A en un produit de transpositions. Il est clair que le nombre de ces
transpositions est égal à la différence du nombre des éléments non conservés
par A et de celui des cycles indépendants dans l'expression correspondante de
cette substitution. Il en résulte que A peut être décomposée en un produit de
transpositions dont le nombre coïncide avec le décrément ; par conséquent, la
parité de la substitution A coïncide avec celle de son décrément.

§ 4. Déterminants d’ordre n
Nous voulons à présent généraliser, pour tout n, les résultats
obtenus au § 2 pour n = 2 et 3. Il nous faut pour cela introduire
les déterminants d’ordre n. Or, il est impossible de le faire par le
procédé employé dans le cas des déterminants d’ordres 2 et 3, c’est-à-
dire par la résolution des systèmes d’équations linéaires, car les
calculs deviennent de plus en plus laborieux au fur et à mesure que
n augmente et pour n assez grand ils sont pratiquement irréalisables.
Nous allons utiliser une autre méthode : partant des déterminants
d’ordres 2 et 3, nous tâcherons de trouver la loi générale selon laqueK
le les déterminants s’expriment au moyen des éléments des matrices
correspondantes et nous utiliserons cette loi pour définir les détermi­
nants d’ordre n. Nous démontrerons ensuite que les formules de
Cramer, avec les déterminants d ’ordre n ainsi définis, restent valables.
Rappelons les expressions des déterminants d’ordres 2 et 3 en
fonction des éléments des matrices correspondantes:
« il «12
—«11«22 —«12«2ii
«21 «22

a11 «12 «13


«21 «22 «23 =—«H«22«33 «I2«23«31 "H«13«2i«32 —
«31 «32 «33 — «13«22«31 —«12«21«33 —«H«23«32*
1 On pourrait faire correspondre à tout élément conservé par une substi­
tution un cycle de « longueur » 1 ; par exemple, dans l ’exemple 2) ci-dessus
on aurait pu écrire : (156) (38) (47) (2). Toutefois, par la suite nous ne le ferons
pas.
38 SYSTÈMES D ’ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

Nous constatons que tout terme du déterminant d’ordre 2 est


le produit de deux éléments appartenant à des colonnes et à des
lignes distinctes. En outre, tous les produits, c’est-à-dire tous les
termes qu’on puisse former de cette manière à partir des éléments
de la matrice d’ordre 2 (ils sont au nombre de deux), interviennent
dans la somme qui représente le déterminant. De même, tout terme
du déterminant d’ordre 3 est le produit de trois éléments apparte­
nant à des lignes et à des colonnes distinctes. En outre, tous les
produits de ce genre interviennent dans l’expression du déterminant.
Soit à présent une matrice carrée d’ordre n
a ii a iz • • • a in
^21 ®22 «• « #271
(l)
\Æ/il &n2 • ■• #nn /
Formons tous les produits possibles de n éléments de la matrice
appartenant à des lignes et à des colonnes distinctes. Autrement
dit, considérons tous les produits de la forme
aiai a2«a *• • ( 2)

les indices a x, a 2, . . ., an formant une permutation quelconque


des nombres 1, 2, . . ., n. Le nombre de tels produits est égal à celui
de toutes les permutations de n éléments, c’est-à-dire à n\. Tous
ces produits interviennent dans l ’expression du déterminant d’ordre
n correspondant à la matrice (1).
Pour déterminer le signe avec lequel le produit (2) intervient
dans la composition d’un déterminant, notons qu’à l ’aide des indi­
ces de ce produit on peut former la substitution
/I 2 ... n
\ a 4 a 2 . . . an
c’est-à-dire i devient a * si le produit (2) contient l ’élément situé
à l ’intersection de la ième ligne et de la afme colonne de la matri­
ce (1). Revenant aux déterminants d’ordres 2 et 3 nous constatons que
les produits intervenant dans leurs expressions sont munis du signe
ou -- selon que les indices de leurs éléments forment une substi­
tution paire ou impaire. II est logique de conserver cette loi pour
la définition des déterminants d’ordre n.
Ainsi nous sommes conduits à la définition suivante : on appelle
déterminant d'ordre n associé à la matrice (1) une somme algébrique
de n\ termes formée d’après la loi suivante: chaque terme de la
somme est le produit de n éléments distincts, dont les indices défi­
nissent une substitution, ce produit étant muni du signe si la
DÉTERMINANTS D'ORDRE n 39

substitution est paire et du signe — dans le cas contraire; en outre,


la somme est étendue sur toutes les substitutions distinctes de n élé­
ments.
De même que pour les déterminants d'ordres 2 et 3, nous utili­
sons le symbole
#1 1 #12 • » ■ # 1 ti

#21 #22 • ■■a2n ^

# / i i #712 • • - #7t7i

pour désigner le déterminant d'ordre ra, associé à la matrice (1).


Les déterminants d’ordre n pour n = 2 et 3 coïncident avec les
déterminants du deuxième et du troisième ordre définis au § 2 ; si
n = 1, c’est-à-dire si la matrice est composée d'un seul élément,
le déterminant est égal à cet élément. Il n ’est pas encore évident
que nous pourrons appliquer les déterminants d’ordre n, n > 3,
à la résolution des systèmes d’équations linéaires. On le montrera
au § 7 ; préalablement il faut donner une étude détaillée des déter­
minants et, en particulier, trouver des méthodes qui permettent
de les calculer. Cela est d’autant plus nécessaire qu’utiliser directe­
ment leur définition pour le calcul des déterminants d ’ordre n est
assez laborieux, même si n est relativement petit.
Maintenant, nous allons établir quelques propriétés simples des
déterminants d’ordre n, se rapportant, de préférence, à l ’un des
deux problèmes suivants: d’une part, quelles sont les conditions
pour qu’un déterminant d’ordre n s’annule et, d’autre part, quelles
sont les transformations d’une matrice qui conservent son détermi­
nant sinon le modifient de façon qu’on puisse facilement en tenir
compte.
Une matrice est dite transposée de la matrice (1) si ses lignes
coïncident avec les colonnes correspondantes de la matrice (1) et
inversement, autrement dit, la transposée de la matrice (1) est
Ja matrice
#11 #21 • *• am
#12 #22 * * • #712

#171 #271 • • • #7171

On peut dire, par abus de langage, que la transformation faisant


correspondre à la matrice (1) sa transposée est une rotation de la
matrice (1) autour de sa diagonale principale. De même, on appelle
déterminant transposé le déterminant de la matrice transposée ;
40 SYSTÈMES D ’ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

ce déterminant est de la forme :


#11 #2i • • * am
a i2. a Z2 • • • Æn2
( 6)

&W a2n **• &n7i |


Propriété 1. Un déterminant coïncide avec son transposé.
En effet, chaque terme du déterminant (4) est de la forme :
a i a \ û 2 a a • • • flnttn» (7)
les indices a 2, a 2, . . an formant une, certaine permutation des
éléments 1, 2, . . ., n. Or, tous les facteurs du produit (7) appartien­
nent à des lignes et à des colonnes distinctes du déterminant (6),
et, par conséquent, le produit (7) est un des termes du déterminant
transposé. Evidemment, la réciproque est également vraie, de sorte
que les déterminants (4) et (6) contiennent les mêmes termes.
Le signe du produit (7) dans l ’expression du déterminant (4) dépend
de la parité de la substitution

(8)

dans le déterminant (6) les premiers indices indiquent le numéro


de la colonne, les seconds indices celui de la ligne, donc le terme (7)
dans le déterminant (6) correspond à la substitution

(9)

Bien que les substitutions (8) et (9) soient, en général, différentes,


leur parité est, évidemment, la même, de sorte que le terme (7)
est muni du même signe dans Texpression des deux déterminants.
Ainsi, les déterminants (4) et (6) sont exprimés par la somme de
termes identiques et, par conséquent, coïncident.
Il découle de la propriété 1 que toute proposition concernant
les lignes dTun déterminant est également valable pour ses colonnes
et inversement. Autrement dit, les lignes et les colonnes d'un déter­
minant jouent exactement le même rôle (contrairement aux lignes
et aux colonnes d'une matrice). Tenant compte de ce fait nous n'énon­
çons et ne montrons les propriétés 2-9 des déterminants que pour
les lignes, étant donné que les propriétés analogues pour lès colonnes
n’exigent point de démonstration.
Propriété 2. Un déterminant est nul, si tous les éléments d'une
de ses lignes sont nuis.
DÉTERMINANTS D'ORDRE n Ai

En effet, supposons que tous les éléments de la tème ligne du dé­


terminant soient nuis. Etant donné que chaque terme du détermi­
nant comprend un élément et un seul de la ième ligne, tous les termes
sont donc nuis.
Propriété 3, En échangeant deux lignes quelconques d'un déter­
minant on obtient un déterminant dont les termes sont les mêmes que
ceux du déterminant initial mais munis de signe opposé. Autrement
dit, en.échangeant deux lignes quelconques d'un déterminant, ce dernier
change de signe.
En effet, supposons que Ton ait échangé entre elles la ième et
la ;ème ligne d'un déterminant (4), i /, et que toutes les autres
lignes soient restées à leur place. On obtient le déterminant
a \i ®12 • • ■■

a Ji aJ» • • ■ Q'jn (0

! an a^ . . . a\n ( / )

« &nl Cbi2 • ■ ■• ünn


(les parenthèses indiquent les numéros des lignes). Le produit
alai ^2cs2 *• • anan (H)
étant un des termes du déterminant (4), tous ses facteurs appartien­
nent à des lignes et à des colonnes distinctes du déterminant (10).
Ainsi, les déterminants (4) et (10) s'expriment par les mêmes termes.
Au terme (11), dans le déterminant (4), correspond la substitution
/I 2 ... i ... / ... n
\a i ct2... • «i . . . ccj . . . O*
et dans le. déterminant (10) la substitution
/1 2 ... / ... i ... n
0^2... ... CCj ... CCji

En effet, l ’élément aiav par exemple, se trouve après la transposi­


tion de la ième et de la ; ème ligne du déterminant (4) à l'intersection
de la / ème ligne et de la a ime colonne du déterminant (10). La subs­
titution (13) s'obtenant de la substitution (12) par une transposition
dans sa première ligne, sa parité est. opposée. Il*en résulte que tous
les termes du déterminant (4) interviennent dans le déterminant
(10) munis de signe opposé, c’est-à-dire les déterminants (4) et (10)
ont la même valeur absolue mais sont de signes opposés.
42 SYSTÈMES D’ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

Propriété 4, Un déterminant ayant deux lignes identiques est nul.


En effet, soit d la valeur de ce déterminant et supposons que
ses i*me et /ôme lignes soient identiques (i =£=j ). Echangeant ces deux
lignes, on obtient, d’après la propriété 3, un déterminant dont la
valeur est — d. Comme, d'autre part, on échange des lignes identi­
ques, le déterminant, en réalité, conserve sa valeur. Donc, d = —d,
d’où d = 0.
Propriété 5. En multipliant par un nombre k tous les éléments
d'une ligne quelconque d'un déterminant d'ordre n on obtient un déter­
minant dont la valeur est celle du déterminant initial multipliée par k ,
Supposons que tous les éléments de la ième ligne soient multipliés
par k > Tout terme du déterminant contient un seul élément de la
jfcme ligne, de sorte que chaque terme du déterminant nouveau
se trouve multiplié par k, d’où découle la propriété 5.
Cette propriété peut être également énoncée de la manière suivan­
te : si tous les éléments d'une ligne quelconque d'un déterminant d'ordre
n sont multipliés par un nombre k> ce nombre peut être mis en facteur
devant le déterminant.
Propriété 6. Si les éléments de deux lignes quelconques d'un déter­
minant sont proportionnels, alors le déterminant est nuL
En effet, supposons que les éléments de la /ème ligne d’un déter­
minant, divisés par le nombre k , donnent les éléments correspondants
de la îôme ligne (i j). La propriété 5 montre que le déterminant
est égal au produit du nombre k par un déterminant ayant deux
lignes identiques, d’où il résulte, vu la propriété 4, que le déterminant
initial est nul.
Evidemment la propriété 4 (ainsi que la propriété 2, pour n > 1)
est un cas particulier de la propriété 6 (pour k = 1 et k = 0).
Propriété 7. Si tous les éléments de la ième ligne d'un déterminant
d'ordre n sont de la forme
*ij=bj+Cj> J = li • > n,
alors le déterminant est la somme de deux déterminants, dont les ièmcs
lignes sont composées respectivement des éléments bj et Cj et toutes les
autres lignes sont identiques aux lignes correspondantes du déterminant
initial.
En effet, tout terme du déterminant donné peut être représenté
sous la forme
aia^2a2 • • • ~ aia^2a2 • ** 4“ ^
—^ia^2a2 • • ■fyxj • *• ^nari“h ûla1®2a2 • • »cai • *• ananm
§ 4] DÉTERMINANTS D ’ORDRE n 43

Groupant dans la somme représentant le déterminant donné tous


les termes de la forme . . . fca . . . . anan (munis de mêmes
signes que les termes correspondants du déterminant donné), nous
obtenons, manifestement, un déterminant dont la iôme ligne est
composée des éléments à la place des atj et toutes les autres lignes
sont identiques aux lignes correspondantes du déterminant initial.
De même, la somme algébrique des termes de la forme alaia2aa . . .
. . . ca. . . . an(Xn n ’est autre qu’un déterminant dont la ième ligne
a pour éléments les cj et toutes les autres lignes coïncident avec les
lignes correspondantes du déterminant donné. Ainsi

a \i ai2 . - aW a ii al2 *.. ain an ai2 . . . atn |


i
+ Ci &2+ C2 ‘ ■• bn -f- cn = bi b2 . ■• bn + Ci c2 . . . Cji

tint an2 • • &nn &ni &n2 ' .. ann i &nt an2 ♦♦. ann

La propriété 7 s’étend sans difficulté au cas où tout élément


de la ième ligne est la somme de m termes, m ^ 2.
On dira que la ième ligne d’un déterminant est une combinaison
linéaire de toutes les autres lignes, s’il existe des nombres kj, ] —
= 1,2 , . . ., i — 1, i + 1, . . ., n, tels que aiS = kxa^ + k9a2j +
+ ••• + + k i+i,s + • • • + Ko*.}, quel que soit /, / =
= 1, 2, . . n. Certains des nombres k} peuvent être nuis, c’est-à-
dire la ième ligne est, dans ce cas, une combinaison linéaire seule­
ment de certaines lignes du déterminant et non pas de toutes. Si, tm
particulier, tous les nombres kj, excepté un seul, sont nuis, alors
on retrouve le cas où les deux lignes d’un déterminant sont propor­
tionnelles. Enfin, si l ’une des lignes du déterminant est composée
de zéros, alors elle est toujours une combinaison linéaire des autres
lignes, car, dans ce cas, tous les kj sont nuis.
Propriété 8. Si l'une des lignes d'un déterminant d'ordre n est une
combinaison linéaire des autres lignes, alors ce déterminant est nul.
Supposons, par exemple, que la ième ligne soit une combinaison
linéaire de s lignes quelconques du déterminant, 1 ^ s ^ n — 1.
Tout élément de la ième ligne est dans ce cas une somme de s termes.
Utilisant la propriété 7, décomposons notre déterminant en une
somme de déterminants dont chacun possède une ligne identique
à sa ième ligne. D’après la propriété 6, tous ces déterminants sont
nuis, de sorte que le déterminant initial l’est aussi.
44 SYSTÈMES D'ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

Cette propriété est une extension de la propriété 6. En outre,


il sera prouvé au § 10 qu’elle représente le cas général où un déter­
minant d’ordre n est nul.
Propriété 9. Un déterminant d'ordre n ne varie pas si Von ajoute
aux éléments de Vurie de ses lignes les éléments correspondants d'une
autre ligne, multipliés par un même nombre.
En effet, supposons que la valeur d’un déterminant soit d et
que l ’on ajoute aux éléments de la ième ligne les éléments correspon­
dants de la ;èine ligne multipliés par un nombre k . Autrement dit,
tout élément de la ième ligne du déterminant obtenu de cette manière
est de la forme ais + kaJs, s — 1, 2, . . rc, i /. Selon la pro-
priété 7, le déterminant est égal à la somme de deux déterminants
dont le premier est égal à d et le second, possédant deux lignes pro­
portionnelles, est donc nul.
Le nombre k pouvant être négatif, il en résulte qu'en retranchant
d'une ligne quelconque une autre ligne multipliée par un nombre
quelconque d'un déterminant d'ordre n, la valeur de ce dernier ne change
pas. Plus généralement, un déterminant d'ordre n ne change pas si
l'on ajoute à l'une de ses lignes une combinaison linéaire quelconque
des autres lignes.
Considérons un exemple. Un déterminant est dit antisymétrique si les élé
ments symétriques par rapport à la diagonale principale ont les mêmes valeurs
absolues mais sont de signes opposés. Autrement dit, les éléments d’un déter­
minant antisymétrique doivent vérifier, pour tous i et les égalités a# =
= — . Il en résulte, en particulier, que an — — au — 0 pour tous i. Ainsi,
tout déterminant antisymétrique est de la forme :
0 a 12 a 13 am
— a 12 0 «23 * • • a 2n
— «13 ~ a 23 0 . . . a 3n

--- a lTl ■— a 2 n — « 3 n . *• 0

Multipliant chaque* ligne de ce déterminant par le nombre —1, nous obtenons


un déterminant qui est le transposé du precedent, c’est-à-dire le même que le
déterminant initial. Il en résulte, en vertu de la propriété 5, que
(—1)n d = d.

Si n est impair il en découle que —d = d = 0. Donc, tout déterminant antisy­


métrique d'ordre impair est nul .
I 5] MINEURS ET GOPAGTEURS 45

§ 5. Mineurs et cofacteurs
Comme il a été mentionné au paragraphe précédent, il serait
difficile de calculer les déterminants d'ordre n en s’appuyant sur
leur définition, c’est-à-dire en écrivant chaque fois tous les ni termes
munis de signes correspondants. Il existe d ’autres méthodes de
calcul, plus simples. Elles sont basées sur le fait qu’un déterminant
d’ordre n peut être exprimé par des déterminants d’ordres inférieurs
à n. Pour trouver les formules correspondantes introduisons une
notion.
Soient d un déterminant d’ordre n et k un nombre entier tel
que 1 ^ n — 1. Fixons k lignes et k colonnes quelconques du
déterminant d. Les éléments situés à leurs intersections, c’est-à-dire
les éléments qui appartiennent à l ’une des k lignes et à l ’une des k
colonnes choisies, forment manifestement une matrice carrée
d’ordre k . Le déterminant de cette matrice est appelé mineur d'ordre
k du déterminant d. Autrement dit, tout déterminant qui s’obtient
en y supprimant n — k lignes et n — k colonnes quelconques est
appelé mineur d ’ordre k du déterminant d. Notamment, en suppri­
mant une ligne et une colonne quelconques d ’un déterminant nous
obtenons un mineur d’ordre n — 1 ; d’autre part, tout élément
du déterminant d est un mineur du premier ordre.
Soit M un mineur d’ordre k d’un déterminant d d ’ordre n.
En supprimant les lignes et les colonnes qui engendrent M , on ob­
tient, évidemment, un mineur M' d’ordre n — k qui est appelé mineur
complémentaire de M . Inversement, en supprimant les lignes et les
colonnes qui forment M \ on retrouye le mineur M. Ainsi, on peut
parler d’un couple de mineurs du déterminant d qui sont complé­
mentaires Vun par rapport à Vautre. En particulier, l’élément a et
le mineur d’ordre n — 1 qui s’obtient du déterminant d en suppri­
mant la ièjne ligne et la ; ème colonne sont complémentaires l ’un
par rapport à l’autre.
Soient il9 i2, . . ., ih et ; lt ; 2, . . ., jh les indices respectivement
des lignes et des colonnes formant le mineur M d’ordre k. Le mineur
complémentaire M ' muni du signe plus ou moins, selon la parité
de la somme:
5m — + • • * + ^ + /l + 7 * 2 + • • • + /* > (1)

est appelé cofacteur du mineur Àf. Autrement dit, le cofacteur d’un


mineur M est le nombre (—1)*MM '.
Le produit d'un mineur quelconque M par son cofacteur dans un
déterminant d est une somme algébrique dont les termes qui s'obtiennent
en multipliant les termes du mineur M par les termes du mineur complé­
mentaire M 9 munis du signe (—i)*M sont certains termes du déterminant
46 SYSTÈMES D ’EQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

d\ en outre, leurs signes dans cette somme coïncident avec les signes
dont ils sont munis dans la composition du déterminant.
Commençons la démonstration de ce théorème par le cas où
le mineur M est formé des k premières lignes et des k premières
colonnes du déterminant d:
aîi . . . aîs aUft+i . . . ain
. ..
M ... ...
■. .
«ft1 . . . dkh . . . akn
aA+l, 1 *.. ak+uk ^aA+l. k+i «■• Æfc+i, n
M' ...
*■* &nh &n, Â+i . . . ann
Ici le mineur M ' est engendré par les (/z —k) lignes et les (n — k)
colonnes d’indices & +1, . »., n. Le nombre sM
Sm — 1 - } - 2 • • • ~f~Aî-|-1 '-j-2 -j- . . . + / c = 2 ( l + 2 + » . . - | - k)
est pair dans ce cas, c’est-à-dire le cofacteur de M est le mineur
M '. Soit
aiaia2a2i • «« (2)
un terme quelconque du mineur M \ son signe dans l’expression
de M est (— l)1, où l est le nombre d’inversions dans la substi­
tution
2 ... k
a 2 . . . aft (3)
Soit
3a+1^+2. Pa+2 • . • anK (4)
un terme quelconque du mineur M '. Son signe est ( — l)r , où V
est le nombre d’inversions dans la substitution
/ k -f-1 k "j- 2 . . . w \
i f W l Pft+2 (5)
Multipliant (2) par (4), on obtient le produit de n éléments
Giai02a2 ■• • akakak ^\y3A+1aft+2, pft+2 • • an$n (6)
qui appartiennent à des lignes et à des colonnes distinctes du déter­
minant d\ le produit (6) est donc un des termes du déterminant d.
Il est clair que le signe dont est muni le terme (6) dans le produit
M - M ' est le produit des signes des termes (2) et (4), c’est-à-dire
(—! / - ( —!)*' — (—l)'+ r . Le terme (6) est muni du même signe
MINEURS ET COFACTEURS 47

dans le déterminant d. En effet, la seconde ligne de la substitution


/I 2 ... k k + l k + 2 ... n \
Va l a 2 • • ■ fWi Pfc+2 • «• pTi/
formée par les indices des facteurs du terme (6), n ’a que l + V
inversions, car aucun des indices a ne peut former une inversion
avec aucun des indices P : rappelons que tous les a ^ k et p >
k 1*
Ainsi, le cas particulier du théorème énoncé ci-dessus est prouvé.
Passons maintenant au cas général. Supposons que le mineur M
soit situé à l ’intersection des lignes d ’indices i19 . . ., ih et des colon­
nes d ’indices j x, . . j h. Supposons, en outre, que
h < k < • • ■< h . J i < h < ■• ■< /V
Echangeant des lignes et des colonnes, tâchons de faire passer le
mineur M dans l ’angle gauche supérieur du déterminant et cela
de façon que le mineur complémentaire soit conservé. Pour cela
échangeons la ijme et la {ix — l)ème ligne, ensuite la ifmG et la
(ix — 2)ème, etc., jusqu’à ce que la i*me ligne prenne la place de
la première; pour aboutir à ce résultat il faut, évidemment,
transposer — 1) fois les lignes. Echangeons maintenant de la
même façon la /Jme ligne et toutes les autres qui la précèdent jusqu’à
ce qu’elle prenne la place de la seconde ligne du déterminant. Comme
il est facile de le voir, il faut pour cela transposer (i2 — 2) fois les
lignes. Faisons passer, d’une manière analogue., la i%me ligne à la
place de la troisième et ainsi de suite, jusqu’à ce que la i|me ligne
prenne la place de la kème. Le nombre total de transpositions de
lignes, que nous avons eu à accomplir pour aboutir à ce résultat, est
(ii — 1) + (1*2—2)+ . . + (k —k) =
= (ii + *2+ • ••' + **)—(1+2-)- . . . +/c).
Après ces transpositions le mineur M se trouve à l ’intersection
des k premières lignes et des colonnes d ’indices j v . . j h . Echan­
geons maintenant successivement la ;Jme colonne et toutes celles
qui la précèdent jusqu’à ce que la ;fme colonne occupe la place de la
première; ensuite la /£me et les colonnes précédentes jusqu’à ce que
la ;Jme colonne prenne la place de la deuxième et ainsi de suite.
Pour aboutir à ce résultat il faut transposer les colonnes
(/1 + /2 + . . . + j k) - ( i + 2 + . . . + k)
fois.
L ’application de ces transformations nous conduit à un détermi­
nant df dans lequel le mineur M se trouve à la même place que dans
le cas particulier considéré au début de la démonstration. Comme
48 SYSTÈMES D ’ÉQUÀTIONS LINÉAIRES. DÉTERMINANTS [CH. I

nous n ’avons échangé chaque fois que des lignes et des colonnes
voisines, les lignes et les colonnes formant le mineur M ' ont conservé
leurs places respectives. Par conséquent, le mineur M, en tant que
mineur du déterminant d \ a pour complémentaire le mineur M f
qui, cette fois, est situé dans l ’angle droit inférieur du déterminant d \
Comme nous l ’avons déjà démontré, le produit M - M r est égal à la
somme d’un certain nombre de termes du déterminant df munis
des mêmes signes qu’ont ces termes dans le déterminant d \ Or, le
nombre total de transpositions des lignes et des colonnes qui nous
ont conduits du déterminant d au déterminant df est égal à
\{h + l2 + • •• + &*)—(1 + 2 + . . . + &)] +
+ f(/i + / 2+ • • • + / * ) — (1 + 2 + . . • +&)] =
—sm — 2 (1 + 2 + . . . + &) .
Par conséquent, en vertu des résultats du paragraphe précédent,
chaque terme du déterminant d' est égal à son homologue dans le
déterminant d, multiplié par (—l)siu (évidemment, le nombre
pair 2 (1 + 2 + . . . + k) n ’influe pas sur le signe). Il en résulte
que le produit (—i)*M M - M f est une somme d’un certain nombre
de termes intervenant dans l ’expression du déterminant d, ces
termes étant munis exactement des mêmes signes que dans l’expres­
sion du déterminant d. Le théorème est prouvé.
Faisons une remarque. Soient deux mineurs M et M ’, complé­
mentaires l’un par rapport à l’autre ; alors les nombres sM et sM*
ont la même parité. En effet, l ’indice de toute ligne (ou colonne)
n ’intervient que dans l ’une des sommes représentant les nombres
,sM et sM*. Par conséquent, sM+ sM> est la somme des indices
de toutes les lignes et colonnes du déterminant, c’est-à-dire le nombre
pair 2 (1 + 2 + . . . + ri).

§ 6. Calcul des déterminants


Les résultats du paragraphe précédent permettent de ramener
le problème du calcul d’un déterminant d’ordre n à celui du calcul
d’un certain nombre de déterminants d’ordre (n — 1). Introduisons
d ’abord les notations suivantes : on désigne par le mineur com­
plémentaire de l ’élément a du déterminant d d’ordre n (on l ’appel­
lera tout simplement mineur de Vélêment a i;), autrement dit M ^
est le mineur d’ordre (n — 1), qui s’obtient en supprimant la ième
ligne et la ; ème colonne du déterminant d. Le cofacteur de atj sera
noté A\j, c’est-à-dire
= ( —Di+W</-
CALCUL DES DÉTERMINANTS 49

Comme il a été montré au paragraphe précédent, le produit


aijAij est égal à la somme de plusieurs termes intervenant dans
le déterminant d ; en outre, ces termes ont les mêmes signes que
dans le déterminant. Il est facile de calculer le nombre des termes
figurant dans le produit aijA ij : fl est égal au nombre des termes
contenus dans le mineur M\j, c’est-à-dire à (n — 1)!.
Soit une ligne quelconque d’un déterminant d, par exemple,
la ième; formons les produits des éléments de la ième ligne par leurs
cofacteurs respectifs :
Üi i At i , *• * y alnA in• (i)
Chaque terme du déterminant d n’intervient que dans un et
seulement un des produits (1). En effet, chaque terme du détermi­
nant d intervenant dans le produit a pour facteur l ’élément
axj de la iëme ligne et, par conséquent, est distinct de tout terme des
produits ai2A i2, ces derniers contenant tous un autre élément de la
ième ligne, à savoir aiz, etc.
D’autre part, le nombre total des termes du déterminant d,
intervenant dans tous les produits (1), est
(n —1) = !,
autrement dit, on retrouve tous les termes du déterminant d. Ainsi,
nous avons démontré qu’un déterminant d peut être développé de la
manière suivante par rapport à la ième ligne:
d— #*2^12+ • • • (2)
c’est-à-dire le déterminant d est égal à la somme des produits des élé­
ments d'une ligne quelconque par les cofacteurs correspondants. Evidem­
ment, on a un développement analogue par rapport aux éléments
d ’une colonne quelconque du déterminant d.
Remplaçant dans la formule (2) les cofacteurs par les mineurs
correspondants munis des signes plus ou moins, le problème du cal­
cul d'un déterminant d'ordre n se ramène à celui du calcul d'un certain
nombre de déterminants d'ordre (n — 1). Evidemment, si la ième
ligne possède des éléments nuis, il n ’y a aucun besoin de calculer
les mineurs correspondants. Ceci dit, il est donc commode de trans­
former d’abord le déterminant, en utilisant la propriété 9 (cf. § 4),
de manière que l ’une des lignes ou l ’une des colonnes ait de nombreux
éléments nuis. En réalité, la propriété 9 permet de transformer un
déterminant d'ordre n de manière que tous les éléments d'une ligne
ou d'une colonne quelconque, sauf un, soient nuis. En effet, si aik ^ 0,
alors tout élément j A, peut être remplacé par l ’élément nul
à la suite de la transformation suivante: on retranche de la j éme
colonne la Aème colonne multipliée par . Ainsi, on peut ramener
4—121 2
50 SYSTÈMES D’ÉQUATIONS LINÉAIRES. DÉTERMINANTS tCH. I

le calcul d’un déterminant d’ordre n à celui d’un seul déterminant


d’ordre (n — 1).
Exemples.
1. Calculer le déterminant du quatrième ordre
3 1 —1 2
—5 1 3 —4
2 0 1 —1
1 —5 3 —3

La troisième ligne de ce déterminant ayant un élément nul, il y a intérêt


à le développer par rapport aux éléments de cette ligne. Il vient :

1 -1 2
<2= ( - 1)3+1.2. 1 3 —4 +
-5 3 -3
3 1 2 3 1 —1
+ (-1)3+3.1. - 5 1 -4 -5 1 3
1 —5 —3 1 -5 3

Calculant les déterminants du troisième ordre, on obtient :


<2= 2*16—40+48= 40.

2. Calculer le déterminant d'ordre 5 :

-2 5 0 —1 3
1 0 3 7 -2
<2= 3 —1 0 5 -5
2 6 -4 1 2
0 —3 — 1 2 3

Ajoutant à la seconde ligne la cinquième ligne multipliée par 3 et retran­


chant ensuite de la quatrième ligne la cinquième ligne multipliée par 4, il
vient :
—2 5 0 —1 3
1 —9 0 13 7
3 —1 0 5 —5
2 18 0 — 7 —10
0 —3 - 1 2 3
Développant ce déterminant par rapport aux éléments de la troisième colonne
qui n’a qu'un élément non nul (la somme des indices de cet élément est 5 + 3#
CALCUL DES DÉTERMINANTS 51

c’est-à-dire un nombre pair)» il vient:


2 5 —1 3
1 —9 13 7
3 —1 5 —5
2 18 —7 — 10
Transformons le déterminant obtenu, en ajoutant à sa première ligne la
seconde ligne multipliée par 2 et retranchant de sa troisième ligne la seconde
ligne multipliée par 3 et de sa quatrième ligne la seconde ligne multipliée
par 2 ; il vient :
0 — 13 25 17
_ 1 —9 13 7
d=~ 0 26 —34 - 2 6 5
0 36 —33 —24
développant ce dernier déterminant par rapport aux éléments de sa premier*
colonne et remarquant que Tunique élément non nul de cette colonne a pour
somme des indices un nombre impair, nous obtenons :

—13 2517
{{as 26 - 34 —26 .
36 - 3 3 —24
Calculons ce déterminant d'ordre 3 en le développant par rapport aux élé­
ments de sa troisième ligne ; il vient :

25 171 -1 3 17 -1 3 25
d—36* (-3 3 ) + (-2 4 ).
—34 —26] 26 —26 26 - 3 4
=»36*(—72) —(—33)*( —104) + (—24)‘( —208)— —1032,
3. Soit un déterminant d'ordre n. Supposons que tous ses éléments, se trou­
vant d'un même côté de la diagonale principale y soient nuis . Alors » le déterminant
considéré est égal au produit des éléments de sa diagonale principale.
Pour les déterminants d ’ordre deux cette proposition est évidente. Ainsi,
par récurrence sur n nous démontrons le cas général ; autrement dit, supposons
que la proposition soit vraie pour tout déterminant d ’ordre (n — 1) et démon­
trons qu’elle est encore vraie pour un déterminant d’ordre n ; pour cela considé­
rons
*11 *12 *13 . . . ain
0 *22 *23 . . . a2n
0 0 <*33 *• • *3n

1 o 0 0 • • • *nn
Développant ce dernier par rapport aux éléments de la première colonne, l’uni­
que élément non nul de cette colonne étant an (dont la somme des indices
4*
52 SYSTÈMES D'ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

est paire), nous obtenons :


*22 *23 • • ■ *2 n

0 *33 *371

il
0 0 ... * rm

Or, on peut appliquer T hypothèse de récurrence au mineur dans le second mem­


bre de la dernière égalité, son ordre étant (n — 1) ; selon cette hypothèse le
mineur en question est égal au produit <*22*33 • ? • <hmi de sorte que
d = *n*22 ... 4nn.
4. On appelle déterminant de Vandermonde le déterminant
1 1 1 . . . 1

*1 *2 *3 *• « an
*ï -1 *1 - « • a?n

■ r 1 « r 1 *3
an

Montrons que, quel que soit /*, le déterminant de Vandermonde est le pro­
duit de toutes les différences a j —ajy avec 1 < / < En effet, pour n = 2
on a
1 1
—*2—*t«
*i *2
Nous allons raisonner par récurrence sur n . Supposons que notre proposition
soit déjà démontrée pour les déterminants de Vandermonde d’ordre (n — 1).
Transformons le déterminant d de la façon suivante: retranchons de la nème
ligne de d la (n —l)eme ligne multipliée par au puis de la (n—l)ème la (»—2)ôme
ligne multipliée par ai%' etc.; enfin, retranchons de la deuxième ligne de d sa
première ligne multipliée par aA. Nous obtenons:
1 1 1 1

0 * 2 — *1 * 3 — *1 «n — «i
D <*1— a t a i * 1 — * 1* 3 ...

nn —\ _ y .n -2
0 . 3- 1— i« S " * *3 — * 1*3
Développant ce déterminant par rapport aux éléments de sa première colonne,
nous sommes conduits à un déterminant d ’ordre (n — 1) ; mettant en facteur
toutes les' différences aj — aly 2 < ) n (aj — <*4 est le facteur commun des
éléments de la (/ — l)èiaae colonne du déterminant d ’ordre (n — 1) obtenu), le
déterminant d prend la forme
i' i .. 1
*2 *3 •. • *n
d = (a2 — al){ a 3 — ai) . . . ( * « — *i)« *i *1 - .. **

,n -2 a n -2
l2 *3 • • °!T 2
§ 6] CALCUL DES DÉTERMINANTS 53

Le dernier facteur dans le second membre est le déterminant de Vandermonde


d’ordre (n — 1), qui, selon l ’hypothèse de récurrence, est le produit de toutes
les différences —-aj avec 2 •< / < i < n. Utilisant le symbole II pour dé­
signer les produits, on peut écrire la formule
d = (a2— a x) (a3— ai) . . . (an — Il —«f) = II (a* —aj).
On démontre d’une façon analogue que le déterminant
an - i
« r 1 « r 1 a3 • r

d' = *ï a% al . . .

*1 #2 a3 an
1 1 1 . . . 1
est le produit de toutes les différences a i— aj avec 1 <1 i < / n, c’est-à-dire
que
<2'— Il (a t— aj ).

Le théorème suivant généralise le développement d’un détermi­


nant d’ordre n par rapport aux éléments d’une de ses lignes ou colon­
nes, obtenu précédemment. Cette généralisation donne un dévelop­
pement par rapport aux mineurs extraits de plusieurs lignes ou colonnes
quelconques d'un déterminant donné d'ordre n.
Théorème de Laplace. Soient k lignes (ou k colonnes) quelconques
d'un déterminant d d'ordre n avec 1 /t — 1. Alors d est égal
à la somme des produits de tous les mineurs d'ordre k extraits des lignes
choisies par les cofacteurs correspondants.
Démonstration. Soient î2, . . i&lés indices des lignes fixées
du déterminant d. On sait que le produit d’un mineur M d’ordre
k de d, extrait de ces lignes, par son cofacteur est une somme de
plusieurs termes intervenant dans le déterminant d qui sont pris
avec les mêmes signes qu’ils ont dans la composition du déterminant.
Le théorème sera donc prouvé si nous montrons que nous obtenons,
une fois et seulement une fois, tous les termes du déterminant lors­
que M parcourt tous les mineurs d’ordre k extraits des lignes choisies*
Soit
Ælaj^2a2 • • • anan (®)
un terme quelconque du déterminant d. Groupons les facteurs du
produit (3) appartenant aux lignes iu Il vient
Æûai1^i2ai2 • • • ’ (^)
k facteurs du produit (4) appartiennent à des colonnes distinctes,
à savoir aux colonnes d ’indices a^, . . aife. Donc, ces indices
sont bien définis dès que l ’on se donne un produit de la forme (3).
Si on note par M le mineur d’ordre k se trouvant à l’intersection
54 SYSTÈMES D ’ÉQUATIONS LINÉAIRES. DÉTERMINANTS [CH. I

des colonnes d’indices . . ., aih et des lignes d’indices ily . . .


. . ., ih, fixées d’avance, le produit (4) est un des termes du mineur
M , tandis que le produit de tous les autres éléments du terme (3)
représente un des termes du mineur complémentaire de M dans d.
Ainsi, chaque terme du déterminant entre dans le produit d’un
mineur d ’ordre bien déterminé, extrait des lignes choisies, par
son mineur complémentaire. Enfin, pour que chaque terme du pro­
duit soit muni du même signe que dans le déterminant, il faut,
comme on le sait, remplacer le mineur complémentaire par le cofac­
teur correspondant. Ainsi s’achève la démonstration du théorème.
On aurait pu démontrer le théorème par une autre voie. En effet,
le produit d’un mineur M d ’ordre k extrait des k lignes choisies
par son cofacteur est une somme de k ! ( n - A ) ! termes, car M en
contient k\ et son cofacteur, qui, au signe près, coïncide avec le
mineur complémentaire d’ordre ( n — k) possède (n — fc)! termes.
D’autre part, le nombre de mineurs distincts d’ordre k qu’on peut
extraire de k lignes d’un déterminant d’.ordre n est égal au nombre
de combinaisons de n éléments k à k, c’est-à-dire à

k \ ( n — k) I '
Il en résulte que la somme de tous les produits des mineurs d’or­
dre k extraits des k lignes fixées par leurs cofacteurs respectifs comprend
exactement n i termes. Or, le déterminant d en contient autant.
Le théorème sera donc prouvé si nous montrons que chaque terme
du déterminant d intervient au moins une fois dans la somme des
produits en question. Nous laissons au lecteur le soin de répéter
avec certaines simplifications les raisonnements donnés dans la
démonstration précédente.
Le théorème de Laplace permet de ramener le problème du calcul
d ’un déterminant d’ordre n à celui du calcul d’un certain nombre
de déterminants d’ordre k et n — Ar. En général ce nombre est assez
grand, c’est pourquoi l ’application du théorème de Laplace n’est
utile que dans les cas où l ’on peut choisir les k lignes (ou colonnes)
du déterminant donné de manière que de nombreux mineurs d ’ordre
k extraits de ces lignes soient nuis.
Exemples.
1. Soit un déterminant dont les éléments qui se trouvent à l'intersection
des k premières lignes et des (n — k) dernières colonnes sont tous nuis :
«il • • • a lh
• • • ...................... 0

aki ... akh


d=
a h+ it 1 . . . a ft+it h a * +1( h+i . . . ak+ un

an 1 ■• • ank art.fc+1 • • • ann


$ 7] RÈGLE DE CRAMER 55

Alors le déterminant est égal au produit de deux mineurs :


ûn aih ak+i,h+it ••• n
— • » • • • ■

aht ••• ahk an,k+i •** ana


Pour démontrer cette formule il suffit de développer le déterminant d
par rapport aux mineurs des h premières lignes.
2. Soit d un déterminant d ’ordre 2n dont le mineur d’ordre n formé par
les n premières lignes et les n premières colonnes a tous les éléments nuis. Notant
respectivement par Af, M f et M" les mineurs d’ordre n formés par les n premiè­
res lignes et les n dernières colonnes, ensuite par les n dernières lignes et les n
premières colonnes et, enfin, par les n dernières lignes et les n dernières colonnes,
le déterminant d s’écrit symboliquement comme suit : d = , d ’où d =
= (—
Pour le montrer, il suffit de développer le déterminant d par rapport aux
mineurs d’ordre n extraits des n premières lignes. Le résultat est immédiat, étant
donné que
sM — (1 + 2 + . . . + w) + l(n + ! ) + (* + 2) • .. -f“2»] = 7i+2rtaf
de sorte que sM et n ont la même parité.
3. Calculer le déterminant
-4 1 2 —2 1
0 3 0 1 —5
2 -3 1 -3 i
—1 - 1 3 0
0 4 0 2 5
Développant ce dernier par rapport aux mineurs de la première et de la
troisième colonne (ces colonnes ayant les éléments nuis convenablement pla­
cés) il vient:
3 1 —5
-4 2
d = ( — l)l+ 3+l+ 3 - 1 —1 0 +
21
4 2 5
3 1 —5
—4 2
l)l+4+l+3 -3 —3 1+
-1 3
4 2 5
1 -2 1
-J -(_ l)S + 4 + l+ 3
2 1J
3 1 —5 =
-1 3 4 2 5
= ( _ 8) •( —20) —(— 10) -(—62)—7*87= —1069.

§ 7. Règle de Cramer
Les déterminants d’ordre n, introduits dans le paragraphe pré­
cédent de façon analogue aux déterminants d ’ordres 2 et 3, peuvent
être utilisés, tout comme ces derniers, pour la résolution des systèmes
56 SYSTÈMES D ’ÉQUATIONS LINÉAIRES. DÉTERMINANTS fCH. I

d‘équations, linéaires. Faisons d’abord une remarque supplémentaire


concernant le développement d’un déterminant par rapport aux élé­
ments de l ’une de ses lignes pu de l ’une de ses colonnes; ultérieure­
ment cette remarque sera utilisée plus d’une fois.
Développons le déterminant
a\t • • • alj • • • ain
d = a2i • • • &2j . *• &271
&ni • • • Qnj •• ■ ünn
par rapport aux éléments de sa ; ème colonne :
d= 4* a2jA2j + • • - + (bijAnj,
et remplaçons dans ce développement les éléments de la /ème
colonne par n nombres arbitraires bu b2,.. > , b n. Bien entendu,
l ’expression
biAfj -)- b^A^j 4- . . . 4- bjiAnji
que nous obtenons après cette transformation, représente le déve­
loppement du déterminant df :
aii • . . h . . . &\n
a21 - . - h , . a2n

1Ût/il • - . bn . .. ann
par rapport aux éléments de sa yème colonne ; d' s’obtient de d en
y remplaçant les éléments de la ;èmc colonne par 61? &2, . . bn.
En effet, cette transformation conserve les mineurs complémentaires
des éléments de la / èm® colonne et, par conséquent, les cofacteurs
de ces éléments.
On va utiliser cette remarque dans le cas où les nombres bly
b2l . . bn ont pour valeurs respectives les éléments de la
colonne du déterminant d, k ^ /. Le déterminant d' correspondant
est, dans ce cas, nul, car il a deux colonnes identiques, de sorte
qu’il en est de même pour son développement par rapport aux élé­
ments de sa yème colonne :
aihAij + a2kA 2j 4- . . . + anhAnj = 0 pour j^= k.
Ainsi, la somme des produits de tous les éléments d'une colonne
quelconque par les cofacteurs des éléments correspondants est nulle.
Evidemment, le même résultat est vrai pour les lignes.
Passons maintenant à l ’étude dés systèmes d ’équations linéaires,
en nous bornant dans ce paragraphe aux systèmes ayant le même
nombre d'équations que d'inconnues, c’est-à-dire aux systèmes de la
RÈGLE DE CRAMER 57

forme
# i2 # 2 H” « • • H” nx n = ^ 1 ?

a 2 \x i H” ^22^2 H” • • • “h a 2 nx n = &2?

Q n tx i ~f" &n2x 2 * * • “"h —fyri*


Supposons en outre que le déterminant d des coefficients des
inconnues du système (1) (dit encore déterminant du système) n ’est
pas nul. Nous allons montrer qu’avec ces hypothèses le système (1)
est toujours compatible et même déterminé.
Au § 2, en résolvant un système de trois équations à trois incon­
nues nous avons multiplié chaque équation par un facteur convenable­
ment choisi, puis nous avons additionné les équations obtenues.
Après quoi, les coefficients de deux des inconnues se sont avérés
être nuis. Nous allons montrer maintenant que le facteur en question
n’était autre que le cofacteur de l ’élément akj du déterminant du
système, ahj étant le coefficient de l ’inconnue Xj dans la kème équation.
Le même procédé sera utilisé pour la résolution du système (1).
Supposons d’abord que le système (1) soit compatible et que
à v a 2, • • •» ctn soit une de ses solutions. Ainsi, les identités suivan­
tes sont vérifiées :
Æi i a l + a 12a 2 + • • •+ a in& n = &1j

a2iOCi + #22a 2+ • • • + n&n = b2i

Qn\&t ~b 07*2a 2“!“ «• • + Gnn^n = bn.


Soit j un entier, 1 j ^ n. Multiplions les deux membres de la.
première des identités (2) par A ljy c’est-à-dire par le cofacteur de
l ’élément a^ du déterminant d du système, puis, les deux membres
de la seconde des identités (2) par A 2j, etc. ; finalement, multiplions
les deux membres de la dernière des identités (2) par AnJ. Addition­
nant les identités obtenues, il vient
(aaAij a2iA2j + . . . -j- a,n\Anj) oci -j-
+ (a12^1J + a22^2} + «*• + an2Anj) a 2+

(uijAij-\-a2jA2j Jr .. • anjAnj) &j-\-

~b{ & \n A ij -f- U 2jiA 2j + . . . + O'nnAnj) CCn =


= biAij -f- b^A^j + . . . + bnAnj.
Dans cette égalité, le coefficient de aj est égal à d, les coefficients
des autres ah (k =£ j) étant nuis en vertu de la remarque faite au
58 SYSTÈMES D ’ËQTJATIONS LINÉAIRES. DÉTERMINANTS [CH. I

début du paragraphe, tandis quelle second membre est égal au déter­


minant, qui s'obtient du déterminant d en remplaçant sa ;'ème colon­
ne par la colonne des seconds membres du système (1). Notant,
comme au § 2, ce déterminant par dj, notre égalité prend la forme
daj — dj,
d’où

car d=£ 0.
Ceci prouve que si le système (1) est compatible, il possède
alors une solution unique
(3)
Maintenant nous allons montrer que la suite des nombres (3)
vérifie réellement le système d'équations (1), c'est-à-dire que le
système (1) est compatible. Au cours de la démonstration nous allons
utiliser les symboles usuels, permettant d'abréger l ’écriture.
n
Toute somme ax + a2 + . . . + an sera notée 2 a*. Si l’on
i= i
considère une somme dont les termes sont munis de deux indices,
i et i = 1, 2, . . n, / = 1, 2, . . m, on peut former d'abord
m
les sommes i — 1, 2, . . ., n, et additionner ensuite les
j= i
sommes obtenues. Pour désigner la somme des éléments nous
utiliserons l’écriture
n n
2 .2
t - 1 i=l
On aurait pu sommer les a%j par rapport au premier indice et
additionner ensuite les sommes obtenues. Ainsi
n m m n
S 2 au = 2 2 aih
i= l j = i j= l i= l
autrement dit, on peut intervertir Vordre de sommation dans une somme
double.
Remplaçons les inconnues dans la ième équation de (1) par leurs
valeurs (3). Le premier membre de la ième équation étant récrit
71 71

sous la forme et compte tenu de la formule d j= 2


;= i fc=i
il vient
i» j r* i» i» f
2 m~d~ ~ ~d~ 2 au ( 2 bkAhj ^ —-j- 2 j (2 *
i= l j —i h=\ h=\ j= 1
5 7] RÈGLE DE CRAMER 59

Notons que le nombre - j intervient dans tous les termes, de sorte


qu’on peut le mettre en facteur dans la somme ; par ailleurs, après
avoir interverti l ’ordre de sommation, le nombre bk est mis en fac­
teur dans la somme par rapport à l’indice ; puisque bk ne dépend pas
de f.
n
Comme on le sait, l ’expression 2 = an^fn + 012^2 +
i=t
+ . . . + ainA hn est égale à à pour k = i et est nulle pour k^= i.
Par conséquent, la somme par rapport à l ’indice k ne comprend qu’un
seul terme, à savoir btd, c’est-à-dire

2 = bt.
i=i
Ceci prouve que la suite des nombres (3) est réellement la solution
du système d’équations (1).
Nous avons obtenu le résultat important suivant:
Un système de n équations linéaires à n inconnues, dont le détermi­
nant est non nul, possède une solution unique. Cette solution est de la
forme (3), c’est-à-dire elle s’exprime par les formules de Cramer ;
la formulation de la règle de Cramer est la même que dans le cas
d ’un système de deux équations (cf. § 2).
Exemple, Résoudre le système d’équations linéaires

2xi ~+-x2—5xz-\~x^ 8, >


—3xa —6x4 = 9,
2X2*—Xg~|-2x4= “ 5,
* i+ 4 x 2—7x3-j-6x4= 0.
Le déterminant
2 1 —5 1
1 -3 0 —6
0 2 —1 2
1 4 —7 6
de ce système n’étant pas nul, les formules de Cramer donnent la solution.
Les valeurs des inconnues auront pour numérateurs les déterminants
8 1 -5 1 2 8 —5 1
9 -3 0 -6 1 9 0 -6

= 81, = —108,
»
1!
[>

<*1= —5 2 -1 2 0 —5 — 1 2 1
0 4 —7 6 1 0 —7 6
60 SYSTÈMES D’ÉQUATIONS LINÉAIRES. DÉTERMINANTS [GH. I

2 1 8 1 2 1 —5 8
1 —3 9 -6 1 —3 0 9


toJ
d4=

n
i
0 2 —5 2 0 2 — 1 —5
1 4 0 6 1 4 —7 0
Ainsi
—3, x%— —4, £3=-= 1» ~1
est la solution de notre système; en outre cette solution est unique*
Nous n’avons pas considéré le cas de systèmes (1) de n équations
linéaires à n inconnues à déterminant nul. Ce cas sera étudié au
chapitre II, où il sera question de la théorie générale des systèmes
d’équations linéaires à un nombre quelconque d’équations et d’in­
connues.
Faisons encore une remarque concernant les systèmes de n équa­
tions à n inconnues. Soit un système de n équations homogènes à n
inconnues (cf. § 1) :
a \ix \ 4“ ^12*2 “1“ • • • 4" a inx n — 0, ^
fl21r l 4~ #22:r2 4“ • • • + ff2 — ^

Q'n\%\ 4 “ ®n2*^2 4 “ . . . 4 “ d nnX n 2=5 0 * >

Dans ce cas, chaque déterminant dj, j = 1, 2, . . ., n, contient


une colonne dont tous les éléments sont nuis et, par conséquent,
dj est nul. Ainsi, si le déterminant du système (4) est non nul, c’est-à-
dire si les formules de Cramer donnent la solution de (4), celle-ci,
qui est dans ce cas unique, est la solution nulle :
“ 0, *»»y = 0. (5)
Il en découle le résultat suivant :
Si un système de n équations linéaires homogènes à n inconnues
possède des solutions non nulles, alors son déterminant est nul.
La réciproque sera démontrée au § 12, c’est-à-dire on montrera
que si le déterminant d’un système homogène est nul, ce système
possède alors, en plus de la solution triviale (5), des solutions non
nulles.
Exemple. Quelles sont les valeurs du paramètre k pour lesquelles
le système d'équations
kxi + x2 = 0, "l
xi kx%= 0 J

possède des solutions non nulles?


RÈGLE DE CRAMER 61

Le déterminant de ce système

est nul pour = d=l. Il est facile de vérifier que pour chacune de ces valeurs
de k t le système possède effectivement des solutions non nulles.
L ’importance de la règle de Cramer consiste, d ’une manière
générale, en ce que, dans les cas où cette règle s’applique, elle donne
l’expression explicite de la solution du système, en fonction des
coefficients. Néanmoins l ’utilisation pratique des formules de Cra­
mer exige des calculs assez laborieux : pour un système de n équations
linéaires à n inconnues, on est obligé de calculer (n + 1) déterminants
d’ordre n. La méthode d’élimination successive des inconnues, expo­
sée au § 1, est, de ce point de vue, beaucoup plus commode, car les
calculs que cette méthode nécessite sont, en substance, équivalents
à ceux d’un seul déterminant d’ordre n.
Dans les diverses applications on rencontre des systèmes d’équa­
tions linéaires dont les coefficients et les seconds membres sont des
nombres réels, obtenus à la suite de mesures de certaines grandeurs
physiques, c’est-à-dire ils ne sont connus qu’avec une certaine pré­
cision. Pour la résolution de tels systèmes la méthode exposée ci-
dessus n’est pas toujours valable, car elle donne le résultat avec
une erreur assez grande. A ce dessein de nombreuses méthodes d'ité­
ration ont été élaborées qui permettent de trouver la solution avec
une certaine précision à l ’aide d’approximations successives. Le lec­
teur trouvera l ’exposé de ces méthodes dans les livres sur la théorie
des calculs approchés L

1 Voir, par exemple, le livre de A. Karganoff Méthodes de calcul numériquer


tome I. (JV.d.7\)
Chapitre I I SYSTÈMES D’ÉQUATIONS LINÉAIRES
(THÉORIE GÉNÉRALE)

§ 8, Espace vectoriel à n dimensions


Les méthodes que nous avons utilisées avec un tel succès pour
la résolution des systèmes cramériens ne suffisent pas pour rétablis­
sement de la théorie générale des systèmes d’équations linéaires.
Outre les déterminants et les matrices il nous faudra faire appel
à une nouvelle notion, celle d'espace vectoriel à plusieurs dimensionsr
cette notion jouant un rôle encore plus important pour les mathé­
matiques que celles introduites aux paragraphes précédents.
Faisons d’abord quelques remarques. Comme on le sait du cours
de géométrie analytique, tout point d’un plan est défini par ses
deux coordonnées, les axes de coordonnées étant fixés, c’est-à-dire
par un couple ordonné de nombres réels; tout vecteur d’un plan
est défini par ses deux composantes, c’est-à-dire encore par un couple
ordonné de nombres réels. De même, tout point d ’un espace à trois
dimensions est bien déterminé par ses trois coordonnées et tout
vecteur par ses trois composantes.
Cependant il existe en géométrie, en mécanique et en physique
des phénomènes dont la description nécessite fréquemment plus
de trois nombres réels. Considérons, par exemple, l ’ensemble des
boules dans un espace à trois dimensions. Pour qu’une boule soit
bien déterminée, il faut se donner les coordonnées de son centre
et son rayon, c’est-à-dire un ensemble ordonné de quatre nombres
réels, dont le quatrième (le rayon) ne prend que des valeurs positives.
Considérons, d’autre part, tous les états possibles d’un corps solide
dans un espace à trois dimensions. Pour bien déterminer sa position,
il faut les trois coordonnées de son centre de gravité (c’est-à-dire
trois nombres réels), la direction d’un axe fixé passant par le centre
de gravité (c’est-à-dire deux nombres, deux des trois cosinus direc­
teurs) eft, enfin, l ’angle de rotation autour de cet axe. Ainsi, un
corps solide dans un espace à trois dimensions est bien défini par
un ensemble ordonné de six nombres réels.
Ces exemples montrent la nécessité de considérer l’ensemble
de tous les rc-uples ordonnés de n nombres réels. Cet ensemble muni
de la structure algébrique d’addition et de multiplication par un
scalaire (ces opérations seront définies ultérieurement de façon
ESPACE VECTORIEL À n DIMENSIONS 63'

analogue aux opérations correspondantes avec les composantes des


vecteurs d’un espace à trois dimensions) est dit espace vectoriel
à n dimensions. Ainsi, l’espace vectoriel à n dimensions est une
notion purement algébrique, conservant certaines propriétés des
plus simples des vecteurs issus de l ’origine d’un espace à trois dimen­
sions.
Un ensemble ordonné de n nombres
cc= (alt a2, . . * , a n) (1)
est dit vecteur a n dimensions. Les nombres au i = 1, 2, . . . , n,
sont les composantes ou coordonnées du vecteur a. Les vecteurs a et
P = (&i, b2, bn) (2)
sont égaux si et seulement si les composantes de mêmes indices
coïncident, c’est-à-dire si a%= bt pour tout i, i = 1, 2, . . n.
Nous désignerons les vecteurs par les lettres grecques minuscules,
tandis que les lettres latines minuscules seront utilisées pour noter
les nombres.
Voici quelques exemples de vecteurs: 1) Les vecteurs segments
de droite issus de l ’origine dans un plan ou dans un espace à trois
dimensions sont, par rapport à un système d ’axes de coordonnées
fixé, des vecteurs respectivement à deux ou trois dimensions au
sens de la définition précédente. 2) Les coefficients de toute équation
linéaire à n inconnues forment un vecteur à n dimensions. 3) Toute
solution d’un système d’équations linéaires à n inconnues est un
vecteur à n dimensions. 4) Les lignes d’une matrice à s lignes et n
colonnes forment 5 vecteurs à n coordonnées tandis que ses colonnes
sont n vecteurs à s coordonnées. 5) La matrice elle-même peut être
considérée comme un vecteur à sn composantes: il suffit d’ordonner
les éléments de la matrice en disposant les lignes les unes à la suite
des autres; en particulier, toute matrice carrée d ’ordre n peut être
considérée comme un vecteur à ri2 composantes et, réciproquement,
tout vecteur à n2 coordonnées peut être obtenu de cette manière
à partir d’une matrice d ’ordre rc.
Le vecteur
a + 13—(a4+ £>i, a2-\-b2> . + (3)
est dit la somme des vecteurs (1) et (2) ; ses composantes sont la somme
des coordonnées correspondantes des vecteurs a et p. L ’addition
des nombres étant commutative et associative, il en est de même
des vecteurs.
L’élément nul est le vecteur
0 = (0, 0, . . . . 0). (4)
64 SYSTÈMES D'ÉQUATIONS LINÉAIRES (THÉORIE GÉNÉRALE) [CH, II

En effet,
& 0 = (ût -f- 0, û2+ 0, „.., an + 0) = (alT a2î • .*i an) — cc.
Le nombre nul et le vecteur nul seront notés par le même signe 0 ;
il est toujours facile de comprendre s’il s’agit, selon le contexte,
du nombre 0 ou du vecteur nul, de sorte que les confusions sont
pratiquement exclues ; néanmoins, le lecteur doit prendre en consi­
dération que dans les paragraphes suivants le symbole 0 peut avoir
ces deux significations.
On appelle vecteur opposé au vecteur (1) un vecteur à n dimensions
de la forme :
— <X=( — flll — Og, . . — On). (5)
Il est clair que a + (— a) = 0. Maintenant il est facile de voir
qu’il existe une opération inverse de l ’addition, elle est appelée
soustraction des vecteurs (1) et (2) et est définie par la relation
a — p = a + (— P), c’est-à-dire par
a — p = (a, —bu a2— b2, . . an — bn). (6)
L’addition des vecteurs à n dimensions, définie par la formule
(3), est la généralisation immédiate de la règle géométrique du paral­
lélogramme, qui est valable pour l’addition des vecteurs dans un
plan ou dans un espace à trois dimensions. En géométrie, on utilise
aussi la multiplication des vecteurs par un nombre réel (ou scalaire) :
la multiplication d’un vecteur a par un nombre k signifie que le
vecteur a a subi, pour k > 0, une homothétie de rapport k (soit
une dilatation pour k > 1, soit une contraction pour 0 < k < 1),
et, pour k < 0, une homothétie de rapport | k | et que son sens
a été remplacé par le sens opposé. Cette règle appliquée aux coordon­
nées d’un vecteur a et étendue au cas des vecteurs à n dimensions
nous conduit à la définition suivante :
On appelle produit d'un vecteur (1) par un nombre k le vecteur
ka de composantes:
k a ~ a k = (kau ka2> . . . , kon). (7)
On déduit de cette définition les propriétés importantes, dont
la vérification est laissée au lecteur :
k (oc ± P) = ka dt &P ; (8)
(k ± l) ce —ka ± la ; (9)
k (la) = (kl) a ; (10)
l-a«a. ( H)
DÉPENDANCE LINÉAIRE DES VECTEURS 65

Les relations
0-a = 0; (12)
( — l)oc ——a ; (13)
*.0 = 0 ; (14)
si &a = 0, alors ou &= 0, ou a = 0, (15)
sont également très faciles à vérifier; elles sont des conséquences
des propriétés (8) — (11).
L ’ensemble de tous les vecteurs à n dimensions de composantes
réelles muni des opérations d’addition et dém ultiplication par un
scalaire est appelé espace vectoriel à n dimensions.
Il faut noter que la multiplication des vecteurs n Test pas exigée
dans la définition des espaces vectoriels à n dimensions. Il ne serait
pas difficile de définir une telle opération, en définissant, par exem­
ple, le produit de deux vecteurs a et p comme un vecteur dont les
composantes sont les produits des composantes correspondantes
de a et p. Néanmoins une telle multiplication trouverait peu d’appli­
cations. En effet, comme on le sait, les vecteurs segments de droite
issus de l ’origine dans un plan ou dans un espace à trois dimensions
forment, rapportés à un systènje d’axes de coordonnées fixé, des
espaces vectoriels respectivement à deüx et trois dimensions ; leur
addition et leur multiplication par un scalaire ont un sens géométrique
bien défini, tandis que la multiplication „de ces vecteurs selon la
règle définie ci-dessus n ’en a aucun.
Considérons encore un exemple. Le premier membre d’une
équation linéaire à n inconnues, c’est-à-dire une expression de la
forme
/ = ÜjXi -f 02^2 + . . *+ Ctn^ily
est dit forme linéaire des indéterminées xly . . ., xn. La forme linéaire
/ est bien définie par la donnée du vecteur (alt . . ., an) engendré
par ses coefficients; réciproquement, tout vecteur à n dimensions
définit de façon unique une certaine forme linéaire des indéterminées
xx, . . ., xn. Par conséquent, l ’addition des vecteurs ainsi que leur
multiplication par un scalaire définissent les opérations correspon­
dantes sur les formes linéaires ; ces opérations ont été beaucoup
utilisées au § 1. La multiplication de deux vecteurs définie ci-dessus
n ’a aucun sens pour les formes linéaires.

§ 9. Dépendance linéaire des \ ecteurs


Un vecteur p d’un espace vectoriel à n dimensions est dit propor­
tionnel à un autre vecteur a s’il existe un nombre k tel que p = ka
(cf. la formule (7) du paragraphe précédent). En particulier, le vecteur
5 -1 2 1 2
SYSTÈMES D ’ÉQUATIONS LINÉAIRES (THÉORIE GÉNÉRALE) [CH. II

nul est proportionnel à tout vecteur a, en vertu de l ’identité 0 =


= 0*a. Si p = ka et p =£ 0, d’où k 0, alors a = fc^p, c’est-à-dire
pour les vecteurs non nuis la propriété d’être proportionnel est
symétrique.
Maintenant, nous allons introduire une notion généralisant celle
de vecteurs proportionnels (nous avons déjà eu à faire à cette notion
au § 4 dans le cas des lignes d’une matrice). Un vecteur p est dit
combinaison linéaire des vecteurs a x, • . «, a 8 s’il existe des nombres
lly . . ., l$ tels que
P=• ZiOCj-j- H" • • -
Ainsi, la /èTO0 composante du vecteur p, j = 1, 2, . . n, en vertu
de la définition de la somme des vecteurs et du produit d ’un vecteur
par un scalaire, est égale à la somme dès ;èmes composantes des vec­
teurs <xlt . . a sy multipliées respectivement par les nombres
Les vecteurs
a u «2, or ( r > 2) (1)
sont dits linéairement dépendants si l ’un au moins de ces vecteurs
est une combinaison linéaire des autres vecteurs de l ’ensemble (1).
Dans le cas contraire les vecteurs (1) sont dits linéairement indé­
pendants. Un ensemble de vecteurs linéairement dépendants (resp,
indépendants) s’appelle parfois système ou famille non libre (resp,
libre).
Cette définition importante peut encore être énoncée de façon
suivante: on dit que les vecteurs (1) sont linéairement dépendants
s’il existe des nombres kv , . ., kr non tous nuis, tels que
k ia i + k2az + . . . +& ra r = 0. (2)
Il n ’y a aucune difficulté à montrer l ’équivalence de ces défini­
tions. Supposons, par exemple, que le vecteur a r de l ’ensemble (1)
soit une combinaison linéaire des autres vecteurs de (1):
Of = lia* -|- I2OC2 Zr-i&r-i-
Ceci entraîne l’égalité
ïl«t + + '• ■• + —a r = 0»
c’est-à-dire une relation de la forme (2) avec k t = lu f = 1, 2, ♦ . .
. . r — 1 et kT = — 1, kr =£ 0. Inversement, supposons que les
vecteurs (1) vérifient une relation de la forme (2) avec, par exemple,
k T =j£ 0. Alors

“pSS ( ~ ~ w ) a i + ( ~ t t ) “2 + • • • + ( ~ ^ r )
§ 9] DÉPENDANCE LINÉAIRE DES VECTEURS 67

c’est-à-dire le vecteur ar est une combinaison linéaire des vecteurs


O&l* &2> ,• • Otr-1*
Exemple. Les vectèurs
oti = (5, 2, 1), otg~ { 1» 3, 3), 0^3—(9t 7t 5), <X4= (3> 8, 7)
sont linéairement dépendants car ils vérifient la relation
4«i — —3a3+ 2a4= 0.
Dans cette relation tous les coefficients sont non nuis. Il existe néanmoins
d’autres relations linéaires entre les vecteurs donnés avec des coefficients qui
ne sont pas tous nuis, comme le montrent les deux égalités suivantes
2çCj-j-tt2—#3 ” 0, 3(X2*j"tt3—2o£r4= 0.
La seconde définition de la dépendance linéaire est également
valable pour r = 1, c’est-à-dire pour un ensemble composé d’un
vecteur a : cet ensefnble sèra linéairement dépendant si et seulement si
a = 0. En effet, si a — 0, alors ka = 0 pour k = 1. Inversement,
si ka ~ 0 et k 0, alors a = 0.
Il faut noter une propriété de la notion d’ensemble de vecteurs
linéairement dépendants.
Si un souè-ensemble d'un ensemble (1) est constitué de vecteurs
linéairement dépendants, alors Vensemble (1) Vest aussi.
En effet, soient les vecteurs a x, . . ., a 8 de l ’ensemble (1),
où s < r, liés par la relation
k&i -f- ktfx,2 -\- . . = 0,
avec les coefficients k j, / ~ 1, 2, a, non tous nuis. On en déduit
la relation
^ia t 4r ki&z 4" • • «4- k8a 8 0 •a8+l -f-. .. 4" 0 •a r = 0,
autrement dit, l ’ensemble (1) est constitué de vecteurs linéairement
dépendants.
Il découle de cette propriété que tout ensemble de deux vecteurs
identiques ou, en général, de deux vecteurs proportionnels ainsi que
tout ensemble contenant le vecteur nul sont des familles non libres.
Notons que la propriété que nous venons de démontrer peut être
encore énoncée de la manière suivante : si les vecteurs (1) sont linéaire­
ment indépendants, alors tous les Vecteurs d'un sous-ensemble quelcon­
que de (1) le sont aussi.
La question suivante se pose : combien de vecteurs peut contenir
une famille libre de vecteurs à n dimensions et, en particulier, existe-
t-il de familles libres contenant un nombre arbitrairement grand
de vecteurs? Pour répondre à cette question considérons dans un
espace vectoriel à n dimensions l ’ensemble de vecteurs à n dimensions
68 SYSTEMES D'ÉQUATIONS LINÉAIRES (THÉORIE GÉNÉRALE) [CH. II

suivant
e, = ( l , 0, 0, . . . , 0),
62 = (0, 1, 0, . . 0 ) ,

sn —(0, 0, 0, . 1 ) ,
qu’on appelle vecteurs unités de cet espace. Les vecteurs unités sont
linéairement indépendants. En effet, supposons que
*i®i + *2«2 + . . . + kn£n = 0 ;
puisque le premier membre de cette relation est le vecteur
(ku *2, . . kn), il vient
(&i, &2i *• • » kn) = 0,
c’est-à-dire k t = 0 pour i = 1, 2, . . n .
Ainsi, nous avons trouvé dans un espace vectoriel à n dimensions
un système de n vecteurs linéairement indépendants. Le lecteur
verra plus loin qu’il y existe une infinité de différentes familles
libres.
D’autre part, démontrons le théorème suivant:
Toute famille de s vecteurs d'un espace vectoriel à n dimensions est
non libre si s > n.
En effet, soient
a i = (a ii> a i2> • • • * a in)t
OC2= (Û2!, û22> ■V ♦<hn) i

<xs — a$g, . . . , asn)


les vecteurs donnés. On doit trouver des nombres ku k^y
non tous nuis de façon que
a t + *2^2 + . . . + ksa 8 = 0. (4)
Passons de cette égalité aux égalités correspondantes pour les
coordonnées des vecteurs; il vient
an k i ^ 2 \k 2 ^\~ • . • H”Æsj&s = 0,
Ûi2^l "h fl22&2+ . . • H- a8zks = 0, ^ ^

&inki -h a2TJk2 -h ... + asnks = 0. j


Or, les égalités (5). forment un système de n équations linéaires
homogènes à s inconnues kt, fc2, . . k s. Le nombre des inconnues
étant supérieur à celui des équations, le résultat correspondant
§ 9] dépendance l in é a ir e des vecteurs 69

du § 1 montre que le système (5) possède des solutions non nulles.


Par conséquent, on peut choisir des nombres kt, Zc2, . . ., k s non
tous nuis qui satisfont à (4)* Le théorème est ainsi démontré.
Une famille libre de vecteurs à n dimensions
OC,, «2, . . a r (6)
est dite maximale si la famille a lT . . ., a^, P est non libre quel que
soit le vecteur p à n dimensions. Toute relation linéaire entre les
vecteurs a 1? a 2» * . a r, p devant contenir p avec un coefficient
non nul (dans le cas contraire, la famille (6) serait non libre), le
vecteur p est donc une combinaison linéaire des vecteurs a 2, . . .
. . a r. Par conséquent, la famille (6) ne peut être maximale que
lorsqu'elle est libre et tout vecteur p à n dimensions est une
combinaison linéaire des vecteurs a l7 a 2, . . a r*
Il découle des résultats obtenus ci-dessus que toute famille libre
de n vecteurs dans un espace à n dimensions est toujours maximale,
de même qu'une famille maximale de cet espace ne peut pas contenir
plus de n vecteurs.
Quelle que soit la famille libre de vecteurs à n dimensions, on peut
toujours trouver une famille maximale qui la contient. En effet, si la
famille donnée n’est pas maximale, on peut y ajouter un vecteur
de manière que la famille ainsi obtenue soit libre. Si cette dernière
n ’est pas maximale, on peut y ajouter encore un vecteur et ainsi
de suite. Ce' processus doit s’arrêter car toute famille de {n + 1)
vecteurs à n dimensions est non libre.
Toute famille composée d’un vecteur non nul étant libre, il en
résulte que tout vecteur non nul appartient à une certaine famille
maximale ; par conséquent, il existe une infinité de différentes familles
maximales dans un espace à n dimensions.
Il est naturel de se demander s’il existe dans un espace à n dimen­
sions des familles maximales contenant moins de n vecteurs, ou bien
le nombre des vecteurs de telles familles est toujours égal à n. La
réponse à cette question importante sera donnée un peu plus bas,
après quelques considérations préliminaires.
Si un vecteur p est une combinaison linéaire des vecteurs
a ,, 02, . . . , a r, (7)
on dit souvent que p s'exprime linéairement par les vecteurs (7).
Evidemment, si un vecteur p s’exprime linéairement par les vecteurs
formant une sous-famille de la famille (7), alors il s'exprime linéaire­
ment par tous les vecteurs (7): il suffit d’ajouter à la combinaison
linéaire donnant p les autres vecteurs de la famille (7) avec des
coefficients nuis. Plus généralement, on dit que les vecteurs d'une
famille donnée
Pu P2» ■• •> P* (8)
70 SYSTÈMES D*EQTJATIONE LINÉAIRES (THÉORIE GÉNÉRALE) [GH. II

s'expriment linéairement par les vecteurs de la famille (7) si tout vecteur


i — 1, 2, . . s, est une combinaison linéaire des vecteurs (7).
Nous allons démontrer que cette notion est transitive, autrement
dit, si les vecteurs de la famille (8) s'expriment linéairement par les
vecteurs de la famille (7) et si les vecteurs
Yi> ?2» •••»■?< (9)
s'expriment linéairement par les vecteurs (8), alors les vecteurs (9)
s'expriment linéairement par ceux de la famille (7).
En effet,
S

Vj ~ S A/ïPi» /^ 1» 2,(10)
i=l
T

avec p i= 2 ftimGCm» *= 1» 2, Substituant ces expressions


771 1
dans (10), il vient
8 T

Yj — 2 hi ( 2 klm&rn) =
i=l 771=1
r 8
- 2 ( 2 Ijikim)
m=i i=l
autrement dit, tout vecteur ÿ/, pour / = 1, 2, . . t, est une com­
binaison linéaire des vecteurs (7).
Deux ensembles de vecteurs sont dits équivalents si leurs vecteurs
s’expriment linéairement les uns par les autres. La propriété de
transitivité que nous venops.de démontrer montre que l ’équivalence
de deux ensembles de vecteurs est une propriété transitive ; il en
résulte aussi la proposition suivante: un vecteur qui s’exprime
linéairement par les vecteurs d’un ensemble donné est également
une combinaison linéaire des vecteurs de tout autre ensemble équiva­
lent.
Si un ensemble de vecteurs donné est équivalent à une famille
libre, alors cet ensemble n ’est pas forcément une famille libre.
Mais si les deux ensembles de vecteurs sont équivalents et sont
en même temps des familles libres, on peut en déduire une conclu­
sion importante sur le nombre des vecteurs appartenant à ces deux
ensembles. Démontrons d’abord le théorème suivant que nous appel­
lerons désormais, vu son importance (et pour la commodité des
références), théorème fondamental.
Soient dans un espace vectoriel a n dimensions deux familles de
vecteurs équivalentes :
(I) a u OC2 , . . . , O r ,

(II) *• Pi, p2, . . ., p«.


DÉPENDANCE LINÉAIRE DES VECTEURS 71

Si la première famille est libre, alors le nombre de ses vecteurs n'est


pas supérieur à celui des vecteurs de la seconde famille, c'est-à-dire
r < s.
Supposons que r > s. En vertu des hypothèses du théorème,
tout vecteur de (I) est une combinaison linéaire des vecteurs de l'en­
semble (II):
ai = aiiPi + a12P2+ • *• + fli«Pa>
0&2= fl2lPl “4" &22&2 “h • • • H" a 2S&8i

ar — ariPi + <2r2P2 + • - - + ^rsPs-


Les coefficients de ces relations linéaires forment un système de r
vecteurs à s dimensions:
Tl = 0^11? ®12> • • • >^ls)»
72= a22> • • •} a2»)i

Tr — (#n> ^r2t • • »t ®r»)«


Comme r > s , les vecteurs y j, 7 — 1, 2, r, sont linéairement
dépendants :
&lVi + *2V2+ . • ■+ *rVr — 0,
les coefficients &2, . ftr n’étant pas tous nuis. Cela nous
conduit aux égalités correspondantes pour les composantes :
r
2j 0, y = l, 2, *.«, 5. (12)
i= l
Formons maintenant la combinaison linéaire des vecteurs de l’en­
semble (I) avec les coefficients kj:
r
k la i -\-k 2a2+ . • - + k ra r = 2
i—i
Utilisant (11) et (12), jl vient:

2
1= 1
S M j=
i= 1
21 Sj = l( 2i= 1
ce qui est en contradiction avec l’hypothèse du théorème d ’après
laquelle les vecteurs de l ’ensemble (I) sont linéairement indépendants.
On déduit du théorème fondamental démontré ci-dessus la
proposition suivante:
Deux familles libres équivalentes contiennent le même nombre de
vecteurs.
72 SYSTEMES D'ÉQUATIONS LINÉAIRES (THÉORIE GÉNÉRALE) fCH. Il

Deux familles maximales dans un espace à n dimensions sont


manifestement équivalentes. Par conséquent, elles contiennent le
même nombre de vecteurs et, comme il existe des familles maximales
comprenant exactement n vecteurs à n dimensions, il en résulte que
toute famille maximale, dans un espace à n dimensions, contient n
vecteurs. C’est la réponse à la question posée ci-déssus.
Bien d ’autres corollaires découlent des résultats obtenus*
Quelle que soit la manière dont on choisit dans une famille non
libre une sous-famille maximale, le nombre de vecteurs formant cette
sous-famille ne varie pas.
En effet, si dans une famille de vecteurs
à u a 2, . ar (13)
la sous-famille
ai, a 2, a s, s< r, (14)
est maximale, alors chaque vecteur a/, / = s + 1» . . r, est une
combinaison linéaire des vecteurs (14). D’autre part, tout vecteur
a j de la famille (13) s’exprime linéairement par les vecteurs de cette
famille ;'il suffit pour cela de prendre a , avec le coefficient 1 et les
autres vecteurs de la famille (13) avec les coefficients nuis. A pré­
sent, il est facile de voir que les familles (13) et (14) sont équivalentes.
Il en résulte que la famille (13) est équivalente à toutes ses sous-
familles maximales, de sorte que toutes ses sous-familles maximales
sont équivalentes. Mais comme elles sont, en même temps, libres,
il en résulte immédiatement qu’elles contiennent le même nombre
de vecteurs.
Le nombre de vecteurs d ’une sous-famille maximale quelconque
d’un ensemble de vecteurs donné est appelé rang de ce dernier.
Utilisant cette notion nous allons maintenant déduire encore une
conséquence du théorème fondamental.
Soient deux ensembles de vecteurs à n dimensions
« i, a 2» . . . i «r, (15)
Pi» P2* » • • » Ps (15)

(pas forcément linéairement indépendants) respectivement de rang k


et l. Si les vecteurs du premier ensemble s'expriment linéairement en
fonction des vecteurs du second, alors k ^ L Si ces ensembles sont
équivalents, alors k — L
En effet, soient
a <lf ai2, . . . , <Xih (17)
et
Pii» Pia» • • •> P (18)
§ 10] RANG D ’UNE MATRICE 73

deux sous-familles maximales extraites respectivement des ensembles


(15) et (16). Alors les ensembles (15) et (17) sont équivalents et il
en est de même pour les familles (16) et (18). Les vecteurs (15) s’ex­
primant linéairement par les vecteurs (16), il en résulte que les
vecteurs (17) s’expriment linéairement par les vecteurs de l ’ensemble
(16) et, par conséquent, par les vecteurs de la famille équivalente (18).
Vu l ’indépendance linéaire des vecteurs de la famille (17), il .ne
reste donc qu’à appliquer le théorème fondamental. La seconde
partie de notre proposition est une conséquence directe de la première.

§ 10* Rang d’une matrice


Soit un ensemble de vecteurs à n dimensions ; il est naturel
de se poser la question : est-ce que cet ensemble est une famille
libre ou non libre? On ne peut pas s’attendre à ce que, dans chaque
cas concret, la réponse à cette question puisse être obtenue sans
difficulté. Par exemple, un examen superficiel ne permet pas d’éta­
blir des relations linéaires entre les vecteurs
a = (2, —5, 1, —-1), p = (l, 3, 6, 5), y = ( - l , 4, 1, 2),
bien qu’il en existe une de la forme
7 a—3p + lly = 0.
Le § 1 donne une des méthodes permettant de répondre à cette
question. Les composantes des vecteurs étant supposées connues,
on obtient un système d ’équations linéaires homogènes par rapport
aux coefficients de la relation linéaire entre les vecteurs donnés,
ce système d’équations pouvant être résolu par la méthode de Gauss.
Dans ce paragraphe nous donnerons une autre approche du problème
considéré; en même temps cela nous permettra d’atteindre notre
but fondamental : trouver une méthode de résolution des systèmes
arbitraires d ’équations linéaires.
Soit une matrice
/ a il a i2 • • * a in

A = \ Ü2i ü 22 *** Ü2n


\ U$2 • • • Q'sn /
à s lignes et n colonnes, les entiers s et n sont arbitraires. Les colon­
nes de la matrice A , interprétées comme des vecteurs à s dimensions,
peuvent être linéairement dépendantes. Le rang du système des
colonnes de A, c’est-à-dire le nombre maximal de colonnes de la
matrice A linéairement indépendantes (plus précisément, le nombre
de colonnes formant une sous-famille maximale quelconque du systè­
me des colonnes de A), est appelé rang de la matrice A .
74 SYSTÈMES D’ÉQUATIONS LINÉAIRES {THÉORIE GÉNÉRALE) [CH- II

Il est clair que l ’on peut considérer de la même manière les


lignes d’une matrice A comme des vecteurs à n dimensions. Comme
on le verra plus bas, le rang du système des lignes d ’une matrice A
est égal à celui du système de ses colonnes, c’est-à-dire au rang
de la matrice A. La démonstration de cette proposition inattendue
sera donnée après l’introduction d’une autre définition du rang d’une
matrice, qui donne en même temps un procédé pratique de son calcul.
Nous allons d ’abord généraliser la notion de mineur pour des
matrices rectangulaires. Fixons k lignes ,et k colonnes quelconques
d’une matrice .A, où k ^ min (5, n). Les éléments se trouvant à l ’in­
tersection des lignes et des colonnes fixées forment une matrice carrée
d’ordre dont le déterminant est dit mineur d'ordre k de la matrice A .
Ce sont les ordres des mineurs non nuis de la matrice A qui nous
intéressent particulièrement et, surtout, l'ordre le plus élevé* de ces
mineurs. Pour trouver l’ordre le plus élevé des mineurs non nuis,
il est utile de prendre en considération la remarque suivante : si tous
les mineurs d'ordre k de la matrice A sont nuis, alors tous les mineurs
d'ordre supérieur à k de cette matrice s'annulent également. En effet,
d’après le théorème de Laplace, développant chaque mineur d’ordre
k + 7, k < k + 7 min (s, n) par rapport aux mineurs extraits
des k lignes quelconques d ’une matrice A , nous mettons ce mineur
sous la forme d ’une somme de plusieurs mineurs d’ordre A, multi­
pliés chacun par un certain mineur d’ordre 7, ce qui prouve notre
proposition.
A présent, démontrons le théorème suivant sur le rang d'une
matrice :
L'ordre le plus élevé des mineurs non nuis d'une matrice A est
égal au rang de A .
Démonstration* Soit r l ’ordre le plus élevé des mineurs non nuis
de la matrice A. On peut supposer, sans restreindre la généralité,
que le mineur D d’ordre r, se trouvant à l ’intersection des r premières
lignes et des r premières colonnes de A,

an . . . air ai>r+i . dm \
D ...
ari .. . arr ar, r+i .. arn
A=
ar+1. 1 • »* ar+Ur ar+l, r+i *• • ar+i, n
1 ’ ’ ‘ *
a>8i ; .. a8T aSt r+i -■ ;
n ’est pas nul, D 0. Alors les r premières colonnes de A sont
linéairement indépendantes. En effet, s’il existait une relation
linéaire entre ces colonnes, alors les colonnes du mineur D seraient
§ 10] RANG D’UNE MATRICE ‘ 75

également linéairement dépendantes de sorte que D serait nul, car


l’addition des vecteurs est équivalente à celle de leurs composantes.
Montrons maintenant que toute colonne de la matrice A d’indice
l avec r < l n est une combinaison linéaire des r premières colon­
nes de A . Pour i quelconque, 1 ^ i s, formons le mineur auxiliai­
re Ai d’ordre (r + 1)
Æt i • • • a i r a ll

A i= Ori ... Œrr OrJ ‘


Un . . . U\f Un
Ai s’obtient de D en le complétant de la Zôme colonne et de la îème
ligne de la matrice A , Le mineur Ai est nul pour tout indice i.
En effet, si i > r, alors Ai est un mineur d’ordre (r + 1) de la matri­
ce A et, par conséquent, est nul, en vertu du choix de l ’entier r.
Si, par contre, i ^ r, alors Ai n ’est plus un mineur de la matrice A ,
car il ne peut pas être obtenu en supprimant un certain nombre
de lignes et de colonnes de A ; néanmoins, dans ce cas Ai s ’annule,
car il contient deux lignes identiques. ,
Considérons les cofacteurs des éléments de la dernière ligne dans
le déterminant A*. Il est clair que le mineur D est le cofacteur de
an dans A*. Le cofacteur de l ’élément dans A*, pour 1 < / < r,
est le nombre
ail *- - &i, j-i uu j+i . . . air an

üri • ■• UTl Urt jî+i . . . drr &rl


ce nombre ne dépendant pas de i, notons-le donc par Aj* Dévelop­
pant le déterminant A* par rapport aux éléments de sa dernière
ligne, nous obtenons, vu que Aj = 0,
a i\A \ + 0*2^2+ • ■■+ d'irA f + anD = 0,
i
yu, encore, vu que 0,
Ai Ao Ar
Un — —j y U t i y U\2
— ZT*
Cette égalité est valable pour tout i, i = 1, 2, . . $; les coeffi-
Aj
cients — - y ne dépendant pas de i, il en résulte donc que la léme
colonne est une combinaison linéaire des r premières colonnes de la
matrice A, les coefficients de la combinaison linéaire étant, respecti-
Af _A% Ar
vement, — ^ ‘ M ~7T ■
76 SYSTÈMES D ‘ÉQUATIONS LINÉAIRES (THÉORIE GÉNÉRALE) [CH. II

Ainsi, nous avons trouvé parmi les colonnes de la matrice A une


sous-famille maximale contenant exactement r colonnes. Ceci
démontre que le rang de A est égal à r. Le théorème sur le rang d’une
matrice est démontré.
Ce théorème donne une méthode pratique de calcul du rang d’une
matrice et, par conséquent, permet de répondre à la question posée
au début du paragraphe : une famille de vecteurs donnée est-elle
libre ou non libre? Formant la matrice dont les colonnes sont les
vecteurs donnés et calculant son rang, on trouve le nombre maximal
de vecteurs linéairement indépendants de l’ensemble en ques­
tion.
La méthode de calcul du rang d’une matrice, basée sur le théorè­
me du rang, nécessite, généralement, le calcul d’un nombre assez
élevé, quoique fini, de mineurs. Une remarque permet, cependant,
de simplifier considérablement ces calculs. Si le lecteur veut se don­
ner la peine de revoir la démonstration du théorème du rang, il
constatera que dans nos raisonnements nous n ’avons pas tenu compte
de ce que tous les mineurs d’ordre (r + 1) étaient nuis, mais seule­
ment de ce que les mineurs d ’ordre (r + 1), obtenus du mineur D
non nul d’ordre r en le complétant d’une ligne et d’une colonne,
étaient tous nuis (tous ces mineurs d’ordre (r + 1) contiennènt
le mineur Z?). Cela était suffisant pour en déduire que le nombre
maximal de colonnes linéairement indépendantes d’une matrice A
était égal à r, ce qui entraîne que tous les mineurs d’ordre (r + 1)
de A sont nuis. Nous sommes conduits à la réglé suivante de calcul
du rang d'une matrice:
Pour calculer le rang d'une matrice, il faut passer des mineurs
d'ordres inférieurs à ceux d'ordres plus élevés. Un mineur D d'ordre k
non nul une fois trouvé, il suffit de calculer les mineurs d'ordre (k + 1)
contenant le mineur D. Si tous ces mineurs d'ordre (k + 1) sont nuis,
alors le rang de la matrice est k .
Exemples.
1. Calculer le rang de la matrice

Le mineur d’ordre 2, se trouvant à l ’intersection des deux premières lignes


et des deux premières colonnes de A , est nul. Néanmoins, la matrice A possède
des mineurs d ’ordre 2 non nuis, par exemple,
§ 101 RANG D ’UNE MATRICE 77

Le mineur (Tordre 3
2 —4 3
d' = 1 —2 1
0 1 —1
encadrant le mineur d est non n u l: = 1. Par contre, les deux mineurs
d ’ordre 4, qui contiennent d \ sont nuis :
2 —4 3 1 2 -4 30
i —2 i —4 1 —2 12

©
h
0 1 —1 3

O
■H
1
4 —7 “ 4 5
Sjl
t—
i

Ainsi, le rang de la matrice A est trois,


2. Trouver une sous-famillè maximale dans Tensemble de vecteurs
04 = (2, - 2 , - 4 ) , a 2- ( l , 9, 3), a 3= ( - 2 , - 4 , 1),
a 4= (3, 7, - 1 ) ,
Formons la matrice
2 1 - 2 3\

( —2 9 —4

—4 3 1 -1 /
7I

qui a pour colonnes les vecteurs donnés. Le rang de cette matrice est deux car
le mineur D d’ordre 2 se trouvant à T intersection des deux premières lignes
et des deux premières colonnes de la matrice est non nul et tous les mineurs
d ’ordre 3 contenant D sont nuis. Il s’ensuit que les vecteurs a t et a 2 forment une
des La proposition
sous-familles suivante
maximales (déjà énoncée
de l ’ensemble donné. précédemment) est un
corollaire du théorème sur le rang d’une matrice:
Le nombre maximal de lignes linéairement indépendantes dans une
matrice est égal au nombre maximal de ses colonnes linéairement indé­
pendantes, c'est-à-dire au rang de la matrice.
Pour prouver cette proposition considérons la transposée de la
matrice donnée, c’est-à-dire la matrice dont les lignes sont les colon­
nes de la matrice initiale disposées selon le même ordre. L’ordre
le plus élevé des mineurs non nuis de la matrice transposée est, mani­
festement, le même que celui de la matrice initiale, car la transposi­
tion d’une matrice ne change pas les déterminants et, de plus, pour
tout mineur de la matrice initiale, le mineur transposé se trouve
parmi les mineurs de la matrice transposée et inversement. Il en
résulte que le rang de la matrice transposée est égal à celui de la
matrice donnée ; or, le rang de la matrice transposée est égal au nombre
maximal de colonnes linéairement indépendantes de cette matrice,
à savoir au nombre maximal de lignes linéairement indépendantes
de la matrice initiale.
78 SYSTÈMES D ’EQTJATIONS L IN É A IR ES (TH ÉO RIE GÉNÉRALE) [CH. I l

Exemple. Nous avons déjà introduit au § 8 les formes linéaires de n indé­


terminées et défini leur addition, ainsi que la multiplication des formes par un
scalaire. Cette définition permet d’étendre aux formes linéaires de n indétermi­
nées la notion d’indépendance linéaire ainsi que tous les résultats qui s’y rat­
tachent.
Soit un ensemble de formes linéaires
fi = xi “1" 2*2 + *3 +
fz = *2 5*3*
h = x t —3*2—4*3—7*4,
f^= 2 x^-^~X2 —*3.
Il faut en indiquer une sous-famille maximale.
Formons la matrice des coefficients des formes

et calculons le rang de cette matrice. Comme il est facile de le vérifier, le mineur O


d’ordre. 2 se trouvant à l ’intersection des deux premières lignes et des deux
premières colonnes n ’est pas nul, par contre tous les mineurs d’ordre 3 qui con­
tiennent D sont nuis. Il en découle que les deux premières lignes de notre matri­
ce sont linéairement indépendantes, tandis que la troisième et la quatrième
ligne sont des combinaisons linéaires des deux premières. Donc, les formes f A
et f 2 forment une sous-famille maximale dans ^ensemble des formes linéaires
données.
Indiquons encore un corollaire important du théorème sur le
rang d'une matrice:
Pour qu'un déterminant d'ordre n soit nul, il faut et il suffit qu'il
existe une dépendance linéaire entre ses lignes.
La propriété 8, démontrée au § 4, montre la suffisance de cette
condition. Montrons sa nécessité. Supposons qu’un déterminant
d ’ordre n soit nul, autrement dit, soit une matrice carrée d ’ordre n
dont le seul mineur d’ordre n est nul. Il en résulte que l ’ordre le
plus élevé des mineurs non nuis de cette matrice est strictement
inférieur à n, c’est-à-dire le rang de la matrice est inférieur à n ;
en vertu de la proposition correspondante, démontrée ci-dessus,
les lignes de cette matrice sont linéairement dépendantes. Bien
entendu, dans l ’énoncé de ce corollaire nous aurions pu remplacer
les lignes par les colonnes.
Il existe encore une méthode de calcul du rang d’une matrice, qui n’a
pas recours au théorème sur le rang d ’une matrice et qui n’exige pas le
calcul de déterminants. Mais cette méthode n ’est valable que lorsque nous
voulons calculer le rang lui-même et ne sommes pas intéressés à savoir quelles
colonnes (ou lignes) de la matrice donnée forment une sous-famille maximale.
Exposons cette méthode.
On appelle transformations élémentaires d’une matrice A les transformations
suivantes.
§ 10] RANG D ’UNE MATRICE 79

(a) permutation de deux lignes (ou colonnes);


(b) multiplication d’une ligne (ou colonne) par un nombre non nul;
(q) addition d’une ligne (ou colonne) multipliée par un nombre quelconque
à une autre ligne (ou colonne).
Il est facile de vérifier que les transformations élémentaires conservent le
rang d'une matrice. En effet, si nous les appliquons, par exemple, aux colonnes,
le système des colonnes d’une matrice, à la suite de ces transformations, est
remplacé par un système équivalent. Montrons cette proposition seulement pour
la transformation (c), car elle est évidente pour (a) et (b). Supposons que la
yême coionne multipliée par un nombre h soit ajoutée à la ième colonne. Notant
les vecteurs colonnes de la matrice initiale par
....aj, .... an, (1)
après la transformation (c) ces colonnes deviennent
«i.......a[ = at + kaj, ah ..., an. (2)
Les vecteurs de l’ensemble (2) s’expriment linéairement par les vecteurs de
l’ensemble (1) et inversement, comme le montrent les formules :
a j = a { — ka.j.
Donc, ces ensembles sont équivalents et, par conséquent, leurs sous-familles
maximales contiennent toutes le même nombre de vecteurs.
Ainsi, pour calculer le rang d ’une matrice on peut d ’abord la simplifier
par une série de transformations élémentaires.
Une matrice à s lignes et n colonnes est dite diagonale si tous ses éléments
atj sont nuis, excepte les éléments atl, a22» • • •> arr (0 O «C min (s, n)),
égaux à l ’unité. Il est clair que le rang d’une telle matrice est r.
Toute matrice peut être réduite à la forme diagonale par dés transformations
élémentaires.
En effet, soit une matrice

Si tous ses éléments sont nuis, alors elle a déjà la forme diagonale. Supposons
donc que cette matrice possède des éléments non nuis. Alors, permutant certai­
nes lignes et colonnes, nous sommes ramenés au cas où an n’est pas nul. Multi­
pliant la première ligne par l’élément ati devient égal à l ’unité. Retran­
chant de la / ème colonne la première colonne multipliée par a±j9 f > 1, l ’élé­
ment aij est remplacé par l ’élément nul. Transformant de cette manière toutes
les colonnes à partir de la seconde, ainsi que toutes les lignes, nous sommes
ramenés à une matrice de la forme

A9

Opérant de la même façon sur la matrice à éléments aij ayant (s — 1) lignes


et (n — 1) colonnes et ainsi de suite, nous obtenons, après un nombre fini de pas,
une matrice diagonale, ayant le même rang que la matrice initiale A ,
Ainsi, pour calculer le rang d'une matrice il faut la réduire d'abord à la forme
diagonale ; le nombre d'éléments de la diagonale principale qui sont égaux à Vunité
est le rang de la matrice initiale .
80 SYSTÈMES D ’ÉQUATIONS LINÉAIRES (THÉORIE GÉNÉRALE) [CH. II

Exemple. Calculer le rang de la matrice


0 2 -4 \
1 —4 5\
A— 3 1 7 1
0 5 —10 I
2 3 0/
Permutant la première et la seconde colonne, puis multipliant la première
ligne par il vient

Ajoutant à la troisième colonne la première multipliée par 2, puis ajoutant


la nouvelle première ligne multipliée par des nombres convenablement choisis
aux autres lignes de la matrice, il vient

Enfin, multipliant la seconde ligne par —1, retranchant la seconde colonne,


multipliée par 3, de la troisième, puis retranchant la nouvelle seconde ligne,
multipliée par des entiers convenablement choisis, de la troisième et de la
cinquième ligne, nous sommes ramenés a la forme diagonale cherchée
1 0 0\
0 10\
000 .
000 I
0 0 0/
Donc, le rang de la matrice A est deux.
Nous reviendrons encore dans le chapitre XIII aux transformations élémen­
taires et aux formes diagonales des matrices ; ces matrices auront cependant pour
éléments non plus des nombres, mais des polynômes.

§ 11. Systèmes d'équations linéaires


A présent, nous sommes en mesure d’aborder l ’étude des systèmes
d ’équations linéaires arbitraires, sans nous restreindre au cas où
le nombre des inconnues est égal à celui des équations. Nos résultats
serons toutefois valables dans le cas où le nombre des équations
coïncide avec celui des inconnues, mais le déterminant du système
est nul (ce cas n'ayant pas été étudié au § 7).
§ 11] SYSTÈMES D ÉQUATIONS LINÉAIRES 81

Soit un système d’équations linéaires


^11*^1 H " ^ 1 2 ^ 2 • • • “ t~ O'inx n “ ^1 »

#21^1 ^22*^2 • • • "h &2nxn =^2?


d)
Û8txl “h ÜS2X 2 “h • • • “1“ &snxn —bs* )
Comme on le sait du § 1, il faut d’abord vérifier si le système (1)
est compatible. Pour cela formons la matrice A des coefficients
du système et la matrice « élargie » A qui s’obtient de A en complé­
tant ses colonnes de la colonne des seconds membres du système (1) :
f a ii a iZ • • • a in f,l l a i2 • « • a ln b i '

A „ I a 2i a 22 • • • a 2n £ __ | a2l a 22 • • • a2n b2

\flSl ü$2 • *• t^sn/ \ ^sl ^$2 .. . . Usn bs /


et calculons leur rang. Il est facile de voir que le rang de la matrice A
est égal à celui de A, ou lui est supérieur d'une unité. En effet, prenons
un système maximal quelconque des colonnes de la matrice A .
Ce système, considéré dans la matrice A , sera également linéaire­
ment indépendant. S’il est maximal dans le système des colonnes
de la matrice A , alors la colonne des seconds membres est une combi­
naison linéaire des autres colonnes de A , c’est-à-dire le rang de A
est égal à celui de A ; dans le cas contraire, ajoutant au système
maximal de la matrice A la colonne des seconds membres, nous
obtenons un système maximal de la matrice A.
Le problème de compatibilité des systèmes d’équations linéaires
est entièrement résolu par le théorème suivant.
Théorème de Kronecker-Capelli. Un système d'équations linéaires
(1) est compatible si et seulement si le rang de sa matrice A est égal
à celui de la matrice « élargie » A .
Démonstration. 1. Supposons le système (1) compatible et soit
ku . . ., kn l ’une de ses solutions. Substituant dans (1) ces nom­
bres à la place des inconnues, on obtient s identités montrant que
la dernière colonne de la matrice A est une combinaison linéaire
des autres colonnes de cette matrice, les coefficients de la combinai­
son Jinéaire étant respectivement fclf &2, . . ftn. Toute colonne
de A , excepté la dernière, est aussi une colonne de la matrice A
et ses éléments s’expriment donc linéairement par les éléments des
autres colonnes de A. Il en résulte que les systèmes des colonnes
des matrices A et A (considérées comme des vecteurs à s dimensions)
sont équivalents et, par conséquent, ont le même rang, comme
6—1212
82 SYSTÈMES D'ÉQUATIONS LINÉAIRES (THÉORIE GÉNÉRALE) [CH. II

on Ta déjà vu au § 9 ; autrement dit les matrices A et A ont le même


rang.
2. A présent supposons que les matrices A et A aient le même
rang. Il en découle que toute sous-famille maximale des colonnes
de la matrice A Test également dans le système des colonnes de la
matrice A . Ainsi, les éléments de la dernière colonne de A s ’expri­
ment linéairement par des éléments correspondants des colonnes
du système maximal et, par conséquent, par des colonnes de la ma­
trice A. Il existe donc une suite de coefficients telle que la combi­
naison linéaire des colonnes de A avec ces coefficients, soient kly
k2, . . kn, donne la colonne des seconds membres du système (1).
Cela signifié que les nombres Alf fc2, . . ., kn forment une solution
de (1). Ainsi, L’identité des rangs des matrices A et A entraîne la
compatibilité du système (1).
Le théorème est démontré. Son application à des exemples
concrets nécessite, avant’ tout, le calcul dû rang de la matrice A ;
pour cela il faut trouver un mineur non nul de A, soit M, tel que
tous les mineurs contenant M soient nuis. Ensuite, il suffit de véri­
fier que tout mineur de la matrice A, qui contient M et qui n ’est
pas un mineur de A, est également nul (on appelle ces mineurs
déterminants caractéristiques du système (1)). S’il en est ainsi, les
rangs de A et A coïncident et le système (1) est compatible; dans
le cas contraire, c’est-à-dire si au moins un des déterminants caracté­
ristiques est non nul, le système (1) est incompatible. Ainsi, on peut
encore énoncer le théorème de Kronecker-Capelli comme suit :
un système d'équations linéaires (1) est compatible si et seulement si
tous ses déterminants caractéristiques sont nuis.
A présent, supposons que le système (1) soit compatible. Le théorè­
me de Kronecker-Capelli permet d’établir la compatibilité de (1)
et garantit l’existence d ’une solution de ce système, mais ne donne
pas le moyen pratique de trouver toutes les solutions d’un système
donné. Nous allons nous occuper de ce problème.
Soit une matrice A de fang r. Selon le paragraphe précédent,
le rang r est le nombre maximal de lignes linéairement indépendan­
tes de la matrice A. Pour fixer les idées, supposons que les r pre­
mières lignes de A soient linéairement indépendantes et que toutes
les autres lignes soient leurs combinaisons linéaires. Alors, les r
premières lignes de la matrice A seront également linéairement
indépendantes, car s'il en était autrement, cela signifierait que les
r premières lignes de A sont linéairement dépendantes (voir l ’addi­
tion des vecteurs). L’identité des rangs de A et de A entraîne que
les r premières lignes de A forment ùne^sous-famille maximale
dans le système des lignés de la matrice A. Autrement dit, toute
§ 11] SYSTÈMES D’ÉQUATIONS LINÉAIRES 83

ligne de A est une combinaison linéaire des r premières lignes de


cette matrice.
Il en résulte que toute équation du système (1) est une combinai­
son linéaire des r premières équations avec certains coefficients
de sorte que toute solution des r premières équations satisfait éga­
lement à toutes les équations du système (1). Il suffit, donc, de trou­
ver toutes les solutions du système:
a lix l + ^12^2 + • • • + &inXn “ &iv ^
021^1 + #22^2 H“ • • • + A2nx n = &2» y {2)

"1“ flr2*^2 " h • • • H" A rn%n — j

Les lignes formées par les coefficients des inconnues dans les
équations (2) étant linéairement indépendantes, c’est-à-dire la
matrice des coefficients de (2) étant de rang r, il en résulte que n
et que, de plus, la matrice du système (2) possède au moins un mineur
d’ordre r non nul. Si r = n, le système (2) a le même nombre d’équa­
tions et d’inconnues et son déterminant n ’est pas nul; dans ce cas
ce système, ainsi que le système (1), possède une solution, qu’on
peut calculer par les formules de Cramer.
Soit, à présent, r < n. Pour fixer les idées, supposons que le
mineur d’ordre r formé par les coefficients des r premières inconnues
soit non nul. Faisons passer dans les seconds membres des équations
(2) tous les termes contenant les inconnues xr+1, . . ., xn auxquelles
nous attribuerons, respectivement, les valeurs cr+1, . . ., cn> Nous
obtenons un système de r équations à r inconnues xln x 2, . . x r :
f l l i ^ l + fli2 ^ 2 + • • * + f l i r # r = &| — f l j , r + l ^ r + l “ “ . . . — A inC *, ^

f l 2 i ^ i T # 2 2 ^2 ■• • ^ h fl2 r ^ r “ ^2 fl2. r + i^ r + l • • • A2hOi> ^

“H A r2^2 ~\r • ■ * A rr# r ~ ^ r %T+i^r + 1 « • • — ArnCn» j

On peut appliquer à ce système les formules de Cramer de sorte qu’il


possède une solution unique clf c2, , . cr ; il est clair que les
nombres clf . . ., cr, çr+1, . . cn forment une solution du système
(2) . Comme les valeurs cr+1, . . cn des inconnues x r+x, . . xn,
dites non principales, étaient choisies arbitrairement, nous obtenons
de cette manière une infinité de solutions distinctes du système (2).
D’autre part, toute solution de (2) peut être obtenue par ce pro­
cédé. En effet, soit cu c2, . . ., cn une solution quelconque de (2);
prenons pour valeurs des inconnues non principales les nombres
cT+ii . . -, crt. Alors, les nombres cv c2, . . ., cr vérifient le système
(3) et, par conséquent, ils forment la solution unique de (3) qui
est représentée par les formules de Cramer.
84 SYSTÈMES D'ÉQUATIONS LINÉAIRES (THÉORIE GÉNÉRALE) [CH. II

Tout ce qu'on vient de dire peut être résumé de façon suivante


en une réglé de résolution des systèmes arbitraires d'équations linéaires :
Soit un système compatible d'équations linéaires (1) dont la matrice
des coefficients A est de rang r. Fixons r lignes linéairement indépen­
dantes'quelconques de A et conservons les équations de (1) qui correspon­
dent aux lignes fixées. Dans ces équations choisissons r inconnues
de telle manière que le déterminant d'ordre r formé par leurs coefficients
soit non nul et faisons passer les autres inconnues dans les seconds
membres des équations correspondantes. Attribuant aux inconnues non
principales des valeurs arbitraires et calculant au moyen des formules
de Cramer les valeurs des inconnues principales, nous obtenons toutes
les solutions du système (1)<
Résumons encore une fois le résultat obtenu ci-dessus :
Pour qu'un système compatible (1) ait une solution unique, il faut
et il suffit que le rang de la matrice du système soit égal au nombre des
inconnues.
Exemples. 1. Résoudre le système:

Le rang de la matrice des coefficients est deux, car le mineur d ’ordre deux
formé par les deux premières lignes et les deux premières colonnes est non nul
et les deux mineurs d'ordre trois qui le contiennent sont nuis. Le rang de la
matrice « élargie » est trois, car J
5-17
2 1 1 = —35 ^ 0.
1 —3 0
Le système est donc incompatible.
2. Résoudre le système :
-f- 3 ^ 2 r= 2,
xi—2*2= — 3» >
+9*2= 11. J }
La matrice des coefficients est de rang deux, c’est-à-dire son rang coïncide
avec le nombre des inconnues; la matrice « élargie » est aussi de rang deux.
Le système est donc compatible et possède une solution unique; les premiers
membres des deux premières équations sont linéairement indépendants ; résol­
vant le système de ces deux équations, nous trouvons les valeurs des inconnues :
5 23
X2 = 1 T •
Il est facile de vérifier que ces valeurs satisfont à la troisième équation du
Système initial.
3. Résoudre le système :
§ U] SYSTÈMES D ’ÉQUATIONS LINÉAIRES 85

Le système est compatible, car la matrice « élargie » est de même rang que
la matrice des coefficients, ce dernier étant égal à deux. Les premiers membres
de la première et de la troisième équation sont linéairement indépendants, car
les coefficients de xx et de x 2 dans ces équations forment un mineur d’ordre deux
non nul. Résolvons le système formé par la première et la troisième équation
du système initial (ici les inconnues *3, *4, *5 sont non principales et on les
fait passer dans les seconds membres des équations correspondantes, en leur
attribuant les valeurs numériques). Appliquant les formules de Cramer, on
trouve les valeurs des inconnues principales x x et x 2 :
5 ,1 3
_ "4 - f — *3— ^-*4—*5*
1 7 7
*2= — 4 + 4- *3+ 4-*4-

Ces égalités donnent la solution générale du système considéré: les incon­


nues non principales prenant des valeurs numériques i rbitraires, nous obtenons
toutes les solutions de notre système. Ainsi, les vecteurs (2, 5, 3, 0, 0), (3,5,
2, 1, —2), ^0, — , —1, 1, —^ , etc., sont des solutions du système en question.
D’autre part, substituant dans chaque équation du système donné aux incon­
nues Xi et x2 leurs expressions obtenues ci-dessus en fonction de x 3l *4, *5,
l ’équation est identiquement vérifiée; par exemple, on vérifie aisément qu’en
substituant dans la seconde équation à xt et x 2 leurs expressions on obtient une
identité.
4. Résoudre le système:
4*i+ *2 —2*3+ x4= 3+
*1—2*2 — *3+ 2*4= 2,
2*i + 5 * 2 — * 4 = — 1,
3 * i + 3 * 2 — *3 — 3*4 1. ^

Bien que le nombre des inconnues soit égal à celui des équations, on ne
peut pas appliquer les formules de Cramer, le déterminant du système étant
nul. La matrice des coefficients est de rang trois, son mineur d ’ordre trois à
l ’angle droit en haut étant non nul. La matrice <t élargie » étant également de
rang trois, le système donné est compatible. Ne considérant que les trois premiè­
res équations et l ’inconnue xx étant non principale, on trouve aisément la solu­
tion générale :
1 2# 8.9 _n
*2“ g g" Xl> x3 — g" + "g" xl* Xi —11.

5_^Soit un système de (n + 1) équations à n inconnues. La matrice « élar­


gie » A de ce système est une matrice carrée d ’ordre (n + 1). Si notre système
est compatible^ alors en vertu du théorème de Kronecker-Capelli, le déterminant
de la matrice A est nul.
Ainsi, soit donné le système
*1 — 8 * 2 =

2 * i + *2 = 1»
4 x i + 7*2 — — 4.
86 SYSTÈMES D'ÉQUATIONS LINÉAIRES (THÉORIE GÉNÉRALE) [CH. II

Le déterminant, formé par les coefficients et les seconds membres, est


non nul :
1 —8 3
2 1 1 -7 7 ,
4 7 —4
le système est donc incompatible.
La réciproque n’est pas vraie en général : si le déterminant de la matrice
 est nul, cela n’entraîne pas nécessairement que le rang de A soit égal à celui
de J .

§ 12» Systèmes d'équations linéaires homogènes


Appliquons les résultats du paragraphe précédent à un système
d'équations linéaires homogènes :
anx \ 4~ ^12^2 + • • • + amxn —0,
#21^1 “I” ^ 22x 2 4“ • • • “h a2nxn =• 0,

"T 082^2 + • • • + Q'St&n —0*


Un système homogène, selon le théorème de Kronecker-Capelli,
est toujours compatible. En effet, si on ajoute à un système des
colonnes la colonne identiquement nulle, le rang en reste invariant.
D’ailleurs, comme le système (1) a pour solution le vecteur nul
(0, 0, . . 0), la compatibilité .de (1) est évidente.
Supposons que la matrice A des coefficients du système (1) soit
de rang r. Si r = rc, alors la solution nulle est la solution unique
du système (1) ; pour-r < n, le système (1) possède d'autres solutions,
non nulles, et pour les trouver toutes on utilise le même précédé
que dans le cas d’un système arbitraire. Notamment, ùn système
de n équations linéaires homogènes à n inconnues possède des solutions
non nulles si et seulement si son déterminant est n u ll. En effet, si le
déterminant du système est nul, cela signifie que le rang de la matri­
ce A est strictement inférieur à n. D’autre part, si dans un système
d'équations linéaires homogènes le nombre des équations est inférieur
à celui des inconnues, le système possède des solutions non nulles, car,
dans ce cas, le rang de la matrice ne peut pas être égal au nombre
des inconnues ; ce résultat avait déjà été obtenu au § 1 par d’autres
raisonnements.
Considérons, en particulier, un système de (n — 1) équations linéaires
homogènes à n inconnues et supposons que les premiers membres de ces équa-

1 La nécessité de cette condition a été montrée au § 7.


§ 12] SYSTÈMES D ’ÉQUATIONS LINÉAIRES HOMOGÈNES 87

lions soient linéairement indépendants. Soit


aii «12 . a| n
«21 «22 • «2 n

( « n - i , f an~U 2 *■ ■ « n - i, n
la matrice des coefficients de ce système ; soit Mi le mineur d’ordre (n — 1) que
l ’on obtient de la matrice A en supprimant sa ième colonne, i = 1. 2, . . ., n.
Alors une des solutions de notre système est de la forme
M ti - M 2, . . . , ( —-l)n~ i M nt (2)
et toute autre solution est proportionnelle à celle-ci.
Démonstration, Par hypothèse, le rang de la matrice A étant n — 1, un
des mineurs soit Mn , est différent de zéro. Prenons xn pour inconnue non
principale et faisons passer le£ termes contenant xn dans ]es seconds membres
des équations correspondantes; il vient
aUx 1 4 «12*24 * *. .4 fll, n - l x n - i — — ûtnx ni
a2ixi 4 «22*2“b ... 4 «2, n - l * « - l = ~~a2nxm

an-U ix i 4«fi-i. 2*24 - - - 4 «n- i, — —an - 1, n*n*


Appliquant ensuite les formules de Cramer, on trouve la solution générale du
système donné, qui, après quelques transformations évidentes, prend la forme
Xi = ( - i ) n - i * * L Xn< i = 1, 2...........» - l . (3)

Posant xn = (—l)n-1A/,lT on trouve: xi = (— i = 1, 2, . . .


. n — 1, ou encore x t = (— la différence (2n —- i — 1) — (i — 1)=
= 2n — 2i étant paire; autrement dit, les nombres (2) donnent réellement une
solution de notre système. Toute autre solution du système s’obtient des for*
mules (3) en attribuant a l ’inconnue xn une autre valeur numérique et, par con­
séquent, cette solution est proportionnelle à la solution (2). Evidemment, notre
proposition est encore valable si Mn = 0, mais un des mineurs 1< i<
n — 1, est non nul.
Les solutions des systèmes d'équations linéaires homogènes
jouissent des propriétés suivantes. Le vecteur p = (bj , 62, . . . » bn)
étant solution du système (1), le vecteur &p = (kbu kb2> . . ., kbn),
où k est un nombre quelconque, l'est aussi. On vérifie cela directe*
ment en substituant les composantes du vecteur fcp aux inconnues
. . ., xn dans les équations (1). Puis, le vecteur y = (cly c2, . . .
. . cn) étant une autre solution du système (1), le vecteur P +
+ Y = (&i + Cn b2 + c2, . . bn 4- cn) l ’est également; en effet,
n n n
S <Hj(b} + Cj)= S aubj+ 2 aijCj = 0, i = 1, 2, . . . . s.
j —1 J—1 j= l
Plus généralement, toute combinaison linéaire des solutions d'un
système homogène (1) est encore une solution de ce système. Notons
que pour un système non homogène, dont les seconds membres ne
sont pas tous nuis, la proposition correspondante n'est pas vraie:
88 SYSTÈMES D ’ÉQUATIONS LINÉAIRES (THÉORIE GÉNÉRALE) [CH. II

la somme de deux solutions, ni le produit d’une solution par un sca­


laire n ’est plus solution du système non homogène.
Comme on le sait du § 9, tout ensemble de vecteurs à n dimen­
sions, contenant plus de n vecteurs, constitue une famille non libre.
Il en résulte que l ’on peut choisir dans l ’ensemble de solutions d’un
système homogène, qui sont des vecteurs à n dimensions, une sous-
famille maximale finie de sorte que toute solution de (1) soit une
combinaison linéaire des vecteurs linéairement indépendants de
cette sous-famille. On appelle famille fondamentale de solutions d ’un
système homogène (1) toute famille maximale appartenant à l ’en­
semble des solutions de (1).
Notons une fois de plus qu’un vecteur à n dimensions est solution
du système (1) si et seulement si ce vecteur est une combinaison linéaire
des vecteurs d'une famille fondamentale de solutions de (1).
Il est clair qu’une famille fondamentale de solutions n ’existe
que lorsque le système (1) possède des solutions non nulles, c’est-à-
dire si le rang de la matrice des coefficients de (1) est inférieur au
nombre d’inconnues. S’il en est ainsi, le système peut posséder
plusieurs familles fondamentales distinctes. Toutes les familles
fondamentales sont, néanmoins, équivalentes, car chaque vecteur
d’une famille fondamentale s’exprime linéairement par les vecteurs
d’une autre famille fondamentale, de sorte que toutes les familles
fondamentales ont un même nombre de vecteurs solutions.
Le théorème suivant est valable :
Soient r le rang de la matrice des coefficients du système (1), n le
nombre d'inconnues, et supposons que r < n. Toute famille fondamen­
tale de solutions contient exactement (n — r) vecteurs solutions de (1).
Pour démontrer ce théorème, notons que le nombre des inconnues
non principales est exactement (n — r) ; supposons que les inconnues
xr+1, x r+2, . . ., xn soient non principales. Soit à un déterminant
d’ordre (n — r) quelconque, d=^= 0, que nous écrivons sous la forme;
| r+ i> C\y r+2> • r . » c in \

c 2 , r +1, ^2» r+2> ■>

Cn—r, r + n Cn-r> r+ 2 i • « • î C n-r, n

Prenant les éléments de la ièmc ligne pour valeurs des inconnues


non principales, nous obtenons, comme on le sait déjà, des valeurs
bien déterminées pour les inconnues xlf x 2, . . ., x T, soit respecti­
vement ci2, . . cir, c’est-à-dire une solution bien déterminée
du système (1):
CLi —■(C ii, Ci%, . . . , Cj>, C ( t r+i? Cj, r+21 » • * » »

pour tout i, i = 1,2, . . n — r.


§ 12] SYSTÈMES D ’ÉQUATIONS LINÉAIRES HOMOGÈNES 89

L ’ensemble de vecteurs a lt a 2, . . ctn^P, obtenu par ce pro­


cédé, est une famille fondamentale de solutions du système (1).
En effet, les vecteurs a x, a 2, . . a n_r sont linéairement indépen­
dants, car la matrice, dont les lignes sont ces vecteurs, a un mineur
d’ordre (n — r) non nul, à savoir le mineur d. D’autre part, soit
P “ (&1» &2» *• • r ^r+1j ^r+2» ■• • î &»)
une solution ^quelconque du système d’équations (1). Montrons
que P est une combinaison linéaire des vecteurs a.lt a 2, . . a n_r.
Notons par al, i = 1, 2, . . n — r, la iCme ligne du détermi­
nant d considérée comme un vecteur à (n — r) dimensions. Posons,
ensuite
P —(frr+1, •••! &7i)*
Les vecteurs a$, i = 1, 2, . . rc —r, sont linéairement indépendants,
car d=£ 0. Or, l ’ensemble de vecteurs à (rc —-r) dimensions
t t r ar
aiy a 2, • » • î a n_r , P

est linéairement dépendant, car le nombre de ses vecteurs est plus


grand que celui des composantes de chaque vecteur. Il existe, donc,
des nombres k u h2, . . . , kn-r tels que
P' ” k ia[ + &2a a~h **• + kn-T&n-y (4)
Considérons à présent le vecteur à n dimensions
ô = kfiLi -f- &20t2“h • • • kn-r<Xn-r —P*
Le vecteur fi étant une combinaison linéaire des vecteurs solutions du
système homogène (1), il est, à son tour, une solution de (1). Comme
il vient de (4), les inconnues non principales de la solution ô sont
nulles. Or, l ’unique solution du système (1) qui corresponde aux
valeurs nulles des inconnues non principales est la solution nulle.
Ainsi, 6 — 0, c’est-à-dire
P = ÆiOCi -f' &2a 2“f“ • • • kn~r<Xn-r*
Le théorème est démontré.
Notons que la démonstration qui vient d ’être donnée permet
d’affirmer que toute famille fondamentale de solutions d’un système-
homogène (1) peut être obtenue en choisissant convenablement
le déterminant d d ’ordre (n — r).
Exemple. Soit le système d ’équations linéaires homogènes
3*j 'j- —8x3 -J- —
|—
*5—0,
2x 1—2*2 —8*3 —7*4 -j- 2*5 = 0,
xi + 11*2—12*3+ 84*4 —5*5 = 0,
Xi — 5*2 -r 2*3 — 16*4 + 8*5 = 0 .
90 SYSTÈMES D'ÉQUATIONS LINÉAIRES (THÉORIE GÉNÉRALE) [CH. II

Le rang de la matrice de ses coefficients est deux, le nombre d'inconnues


est cinq ; donc, toute famille fondamentale de solutions de ce système est compo­
sée de trois vecteurs solutions. Résolvons ce système en prenant pour inconnues
non principales x3t *5 et en nous bornant aux deux premières équations. Nous
obtenons la solution générale sous la forme
19 ,3 1
*1===1T x5»
7 25 , 1
*2=-g“ x3--- g-
Considérons les trois vecteurs linéairement indépendants à trois dimensions:
(1, 0, 0), (0, 1, 0), (0, 0, 1). Substituant les composantes de chaque vecteur
aux inconnues non principales dans les formules de la solution générale et cal­
culant les valeurs correspondantes des inconnues xj et x 2, nous trouvons une
famille fondamentale de solutions du système d'équations donné :

y , 1, 0, O) , «2 = ( | - . —f - ’ °* 4* °) •

a3=( ~ T ’ T ’ °’ °* *) •
Terminons ce paragraphe en établissant la relation qui existe
entre les solutions des systèmes homogènes et des systèmes non
homogènes.
Soit un système d’équations linéaires non homogènes:
ÛHx i 4"012^24• • 4“ainxn = &l» >
021^14 022^24 • «• 4 a2nxn = , (5)
aSix i + &&2X24 • • ■4 &snxn — b3. ^
Le système d’équations linéaires homogènes:
aUx \ 4* 012^24
• • • 4 a lnxn = 0, ^
a2l^l 4 a22^24 • - - + <hnxn = 0, ^
(6)
aaiXi + a32x 2+ ... + a mXn = 0, ÿ
obtenu du système (5) en remplaçant tous les bi par 0, est dit système
homogène associé au système (5). Il y a une relation intime entre
les solutions des systèmes (5) et (6), comme le montrent les deux
théorèmes suivants.
I. La somme d'une solution quelconque du système (5) et d'une
solution quelconque du système (6) est encore une solution de (5).
En effet, soient cly c2, . ♦ cn et dv d2> . . d* deux solutions
quelconques respectivement de (5) et de (6). Considérons une équation
quelconque de (5), soit la &ème, et remplaçons dans cette équation
les inconnues par les nombres c1 4- dt, c2 + d29 . . cn 4 dn.
§ 12] SYSTÈMES D'ÉQUATIONS LINÉAIRES HOMOGÈNES 91

Il vient :
n n n
2 ahj (Cj + dj) = 2 ahjCj + 2 akjdj = bk + 0 = bk.
j~ 1 5= 1 5= 1

II. La différence de deux solutions quelconques du système (5) est


une solution du système (6).
En effet, soient clf c2, . . cn et c[, c'T . . <4 deux solutions
quelconques de (5). Alors, remplaçant les inconnues z v . . xnr
dans les équations (6), par les nombres
Cl ^ij ^2 ^21 •••»
il vient:
n n n
S ***/ (fy —^i) = S ühjCj — S Q'hjCj = bk 6* = 0,
5=1 5*1 5—1

pour tout k , fc = l, 2t .
Il résulte de ces théorèmes que pour trouver la solution générale
du système non homogène (5), il faut d'abord en trouver une solution
particulière, puis Vajouter à la solution générale du système homogène
(6) associé au système (5).
Chapitre I I I ALGÈBRE DES MATRICES

§ 13. Multiplication des matrices


La notion de matrice introduite dans les chapitres précédents
a été utilisée comme un outil auxiliaire, mais essentiel, pour l ’étude
des systèmes d’équations linéaires. Les nombreuses autres applica­
tions de cette notion en ont fait l’objet d’une grande théorie auto­
nome qui en maintes parties sort du cadre de notre cours. Nous
nous occuperons des fondements de cette théorie en commençant
par introduire deux opérations algébriques dans l’ensemble des
matrices carrées d’un même ordre: l ’addition et la multiplication.
Nous allons commencer par la multiplication; l ’addition sera défi­
nie au § 15.
On connaît du cours de géométrie analytique les formules de pas­
sage d ’un système orthogonal de coordonnées à un autre système
orthogonal qui correspondent à une rotation du plan autour de l’ori-
gine:
x —x' cos a —y' sin a,
y — x r sin a -|- y' cos a.
Ici a est l ’angle de rotation, x , y et x', y' sont respectivement les
anciennes et les nouvelles coordonnées d’un point du plan; ainsi,
x et y s’expriment linéairement par x' et y' avec certains coeffi­
cients numériques. Il y a d’autres cas où il est nécessaire d’avoir
recours aux changements d ’indéterminées (ou de variables), dans
lesquels les anciennes indéterminées sont des fonctions linéaires
des nouvelles ; on a l’habitude d’appeler un tel changement d ’indé­
terminées transformation linéaire (ou substitution linéaire). Nous
sommes donc conduits à la définition suivante:
On appelle transformation linéaire d'indéterminées tout passage
d’un système de n indéterminées x1, x 2, . . xn à un système
de n indéterminées yu y 2, . . yn tel que les indéterminées x l7
xn sont des fonctions linéaires des nouvelles indéterminées
Un y2> V71 avec certains coefficients numériques, à savoir:
^1 —0ilS/i + 0i2*/2 + • . *+ Æln.yn,
^2 —021^1 + 022^2 4" • • • + 02nUm (1 )
§ 13] MULTIPLICATION DES MATRICES 93

La transformation linéaire (1) est bien définie par la matrice


de ses coefficients
an ûi2 . . . ai n
O'Zi a 22 • • • a 2n

car si deux transformations linéaires ont une même matrice, elles


coïncident à cette différence près que les indéterminées peuvent
être notées différemment ; évidemment on peut convenir que le
choix de notations dépend uniquement de nous. Inversement, en
partant d'une matrice carrée d'ordre n on trouve immédiatement
les formules de la transformation linéaire correspondante pour
laquelle cette matrice est la matrice des coefficients. Ainsi, il existe
une correspondance bijective entre les transformations linéaires
de n indéterminées et les matrices carrées d ’ordre rc, de sorte que
toute notion (ou toute propriété) concernant les transformations
linéaires correspond à la notion (ou à la propriété) analogue se rap­
portant aux matrices et inversement.
Considérons le résultat de l’application successive de deux
transformations linéaires. Après la transformation linéaire (1)
appliquons la transformation
#1 —^Hzi + &12z2+ • • ♦+
y% — ^21 zi &22z2 + • • - i>2nzU’i y
(2)
yn —bni%i + ^/i2z2 • **"f" bnn%m >
qui fait correspondre au système des indéterminées yx, y%, . . yn
le système des indéterminées z2, . . ., zn ; soit B la matrice de
cette transformation. Remplaçant dans (1) les indéterminées yx,
y2, ■* •, yn d’après les formules (2) nous sommes conduits aux expres­
sions linéaires des indéterminées xv xn par les indéterminées
zXJ z2> - • zn• Ainsi, le résultat de Vapplication successive de deux
transformations linéaires des indéterminées est encore une transformation
linéaire.
Exemple. L’application de deux transformations linéaires
«î= i — y\= zi + z2,
x 2 = Ul 4" 5ï/2» lf2 = 4Zi +2^2
est la transformation linéaire
xl —^ {ZX-j- Z2) —(4*1+ 2*2) —•—Z1"t"*2»
x 2 = (*i + H) + 5 (4zt + 2z2) =21^! + llz2*
ALGÈBRE DES MATRICES [CH. III

Soit C la matrice des coefficients de la transformation linéaire


qui est le résultat de l ’application successive des transformations
(1) et (2); nous allons trouver les expressions des éléments* c ih,
i , k = 1, 2, . . n , de cette matrice par les éléments des matrices
A et B . Utilisant le signe h pour récrire les transformations (1)
et (2) sous la forme
n n
= S i = l> 2, »*»y fi» y j = S bjk%h* J ^ 1»2, • • . » ,
j=l ft=1
il vient
n n n n
Xi =* 2 &ij ( S bjkZh) — 2 ( 2 î = 1, 2, . . ., n.
i=l fc=i ft=l i=l

Ainsi, le coefficient de z* dans l ’expression de xu c’est-à-dire


l ’élément cik de la matrice C, est de la forme
n
Cik = S a i2^Zk “h • • • “f"dinbrik \(3)
i=l

V é lê m e n t d e la m a tr ic e C q u i se tr o u v e à l'in te r s e c tio n d e la ièine lig n e


e t de la ftèmc c o lo n n e e s t é g a l à la so m m e d e s p r o d u its d e s é lé m e n ts d e la
ième lig n e d e la m a tr ic e A p a r le s é lé m e n ts d e la k ème c o lo n n e d e la
m a tr ic e B .
La formule (3) donnant l ’expression des éléments de la matri­
ce C en fonction des éléments des matrices A et B permet de trouver
directement la matrice C, sans qu’il soit nécessaire de considérer
les transformations linéaires de matrices A et B . De cette manière
on fait correspondre à tout couple de matrices carrées d’ordre n
une troisième matrice bien déterminée du même ordre. Autrement
dit, nous avons défini sur l ’ensemble des matrices carrées d’ordre n
une opération algébrique ; cette opération est appelée m u l t i p l i c a ­
t i o n d e s m a tr ic e s , la matrice C est le p r o d u i t de la matrice A par
la matrice B :
C = AB.

Enonçons, une fois de plus, la relation qui existe entre les trans­
formations linéaires et la multiplication des matrices:
L a tr a n s f o r m a tio n lin é a ir e d e s in d é te r m in é e s q u i s 'o b tie n t à la
s u ite d e V a p p l i c a t i o n su c c e ssiv e d e d e u x tr a n s fo r m a tio n s l in é a ir e s ,
d o n t le s m a tr ic e s d e s c o e ffic ie n ts s o n t r e s p e c tiv e m e n t A e t B y a p o u r
m a tr ic e d e s c o e f f ic ie n ts la m a tr ic e A B .
S 13] MULTIPLICATION DES MATRICES 95

Exemples.
/ 4 9 \ / 1 —3\ _ / 4.1 + 9 - ( - 2 ) 4>(—3)4- 9*1\ _
' \ - l 3 / \ —2 1 / \ ( - l ) . l + 3 . ( - 2 ) ( —!)•(—3 )+ 3*1/

-ciD-
/ 2 0 1\ / —3 1 0 \ / - 6 1 3\
2) I - 2 3 2 1 • I , 0 2-1 ) = ( 6 2 9 ).
\ 4 - 1 5/ V 0 - 1 3/ ' —12 —3 14/
n 2 \2 n 2 \ n 2 \ /5 i 16\
3) ( l l ) “ ( t l) (l l ) ~ ( 8 3) *

4) Trouver le résultat de l ’application successive des deux transformations


linéaires
*i = 5p! —yz+$y»,
* 2 = y i—2yj.
*3— 7y2—Va
et
Vt=2*i 4*3.
ÿ2 = *2—5*3»
V3= 2*2.
Multipliant les matrices, il vient :
/5 —1 3\ /2 0 1\ /10 5 10\
Il -2 0 ( 0 1 —5 ) = ( 2 - 2 1 1 ) ,
\0 7 —1/ VO 2 0/ \ 0 5 —35/
de sorte que la transformation linéaire en question est de la forme :
*1= 10*i 4* ^ ü 4 10*3,
*2 —2*( “ 2*24~ 11*3,
X3 = 5*2—35*3.
Revenons à un des exemples de multiplication des matrices, par
exemple 2), et trouvons le produit de ces mêmes matrices en inter­
vertissant l ’ordre des facteurs. Il vient:
/ —3 10 \ / 2 0 1\ / —8 3 - 1 \
I 0 2 1).[ - 2 3 2 )= 0 5 9 .
\ 0 - 1 3 / V 4 - 1 5 / \ 14 - 6 13/
Ainsi, la multiplication des matrices dépend essentiellement
de l ’ordre des facteurs, autrement dit, la m u l t i p l i c a t i o n d e s m a tr ic e s
n 'e s t p a s c o m m u ta tiv e . Il fallait, d'ailleurs, s ’y attendre car dans
la définition de la matrice C donnée par la formule (3) les matrices
A et B n’interviennent pas de façon équivalente. En effet, cette
formule utilise les lignes de A et lés colonnes de B .
96 ALGÈBRE DES MATRICES [CH. III

On peut donner pour tout n, à partir de n = 2, des exemples de


couples de matrices d’ordre n qui ne commutent pas, c’est-à-dire
le produit de telles matrices dépend essentiellement de l’ordre des
facteurs (en particulier, les matrices d’ordre deux dans l ’exemple 1)
ne commutent pas). D’autre part, il peut arriver que deux matrices
données sont commutatives, comme le montre l ’exemple suivant :
/ 7 —12\ /26 4 5 X / 2 6 45\ / 7 - 1 2 \ _ / 2 3\
V - 4 77A15 26/ _ \15 26/ \ —4 7 ' ) \ t 2/ '
La multiplication des matrices est associauve ; par conséquent,
on peut parler du produit bien défini d’un nombre fini de matrices
d’ordre n, l ’ordre des facteurs devant être bien déterminé en raison
de la non-commutativité de la multiplication.
Démonstration. Soient A, B et C trois matrices d ’ordre n.
Ecrivons ces matrices en indiquant leurs éléments génériques :
A = (a*y), B = (btj), C = (ctj). Introduisons ensuite les notations:
AB = U = (uu), B C = V = (vtJ),
(AB) C = S = (SiJ), A (BC) = (tij).
Il faut démontrer l ’égalité (A B )C ^ A (B C ) ou encore S ~ T . Or,
n n
Mil “ 2 Q'ikbhly. Vkj “ 2 bkiCiji
1=1
et, en vertu des égalités S ^ U C y T ~ A V 1 il vient
n n n.
Sij — 2 UuCij = 2 2j &ihbklClji
1= 1 1=1 f t = l
n n n
t'ij = -S ÛihVhj “ 2 2 aikbklclji
1 h=l !=1
c’est-à-dire Sij = pour iyj = 1, 2, . . ., n.
L’étude des autres propriétés de la multiplication des matrices
fait appel à leurs déterminants. Pour simplifier l ’écriture, nous
conviendrons de noter le déterminant de la matrice A par | A |.
Si le lecteur veut bien se donner la peine de calculer, dans les exem­
ples précédents, les déterminants des matrices imervenant dans
les produits correspondants et de comparer le produit de ces détermi­
nants avec le déterminant du, produit des matrices données, alors
il verra une chose assez curieuse qui est exprimée par le théorème
suivant de la multiplication des déterminants :
Le déterminant du produit d'un nombre fini de matrices d'ordre n
est égal au produit des déterminants de ces matrices.
§ 13] MULTIPLICATION DES MATRICES 97

Il suffit de démontrer ée théorème dans le cas de deux matrices.


Soient A = (a%j) et B = (6iy) deux matrices d ’ordre n et soit AB =
= C = (Cfj). Formons le déterminant auxiliaire A d’ordre 2n de la
manière suivante : la matrice A se trouve à l ’intersection des n pre­
mières lignes et colonnes de A, la matrice B à l’intersection des n
dernières lignes et colonnes; tous les autres éléments de A sont
nuis, excepté ceux de la diagonale principale de la matrice se trouvant
à l ’intersection des n dernières lignes et des n premières colonnes
qui sont tous égaux à —1. Ainsi, le déterminant A est de la forme:
a li à i2 . . . Cl\n 0 0 .. 0 1

a 2i a 22 • • . ^2n 0 0 .. 0 1

üni an2 • • &nn 0 0 .. . 0

— 1 0 .. 0 & 11 b iZ . . . . byi
0 - 1 .. 0 &2 i £> 2 2 • *■ • b 2n

0 0 .. . - 1 b n i bn% • ■• hnn

D’après le théorème de Laplace, le développement du détermi­


nant A par rapport aux mineurs extraits des n premières lignes
nous donne l ’égalité suivante:
A -\A \.\B \. (4)
D’autre part, essayons de transformer le déterminant A, sans
modifier sa valeur, de manière que les éléments 6^, i, j. = 1,2, . . .
. . ., w, soient remplacés par des zéros. Pour cela, ajoutons à la
(n + l)ème colonne de A sa première colonne multipliée par 6n ,
puis la deuxième colonne multipliée par fc21 et ainsi de suite jusqu’à
la nème colonne multipliée par 6nl. Après quoi, ajoutons à la (n +
+ 2)ème colonne du déterminant A sa première colonne multipliée
par è12t la deuxième multipliée par &22, etc. D’une façon générale,
ajoutons à la {n + ;)ème colonne de A la somme des n premières
colonnes multipliées respectivement par les coefficients 6i7, b2j . -
. . . , 6 ^ et cela pour tous les /, / = 1, 2, . . ., 71. Il est facile de
vérifier que ces'transformations nous conduisent à un autre détermi­
nant dont la m b u r est la même que celle du déterminant initial ;
en outre, dans ^déterm inant obtenu les éléments sont remplacés
par des zéros. En même temps, à la place des éléments nuis qui
se trouvaient à l ’intersection des n premières lignes et des n dernières
colonnes du déterminant donné on a les nombres suivants: à l’inter­
section de la ième ligne et de la (n + /)ème colonne se trouve la somme
aixbxj + ai2b2j + • • - + ainKj qui en vertu de (3) n’est autre que
l’élément de la matrice C = AB et cela pour tous les i et /,
ALGÈBRE DES MATRICES tCH. II £

i, / = 1, 2, , . n. C’est donc la matrice C qui se trouve à présent


à l ’intersection des n premières lignes et des n dernières colonnes:
a t\ 012 • * ^11 c 12 • • * Cfn
a2i 022 • • ■ C21 c22 * * . Czn

®nl fl«2 • • ■ &nn Cm Cn2 ■ • • Cnn


-1 0 ... 0 0 0 .. . 0
0 -1 ... 0 0 0 .. . 0

0 0 ... -1 0 0 .. . 0

Appliquant une fois de plus le théorème de Lapiace, développons


ce déterminant par rapport aux mineurs extraits des n dernières
colonnes. Le mineur complémentaire du mineur \C \ est égal à
(—1)” ; le mineur | C | étant engendré par les n premières lignes
et les n dernières colonnes et vu que
1 -f~2 -f- . . . n -|- (n -|-1) -f- iji -f- 2) -|- , . . 2n = 2tv*-|- /&,
il vient
A = ( - l)2n2+n ( _ 1)" | C | - ( - l) 2(n2+n>| c \
ou encore
A -iq , (5)
car le nombre 2 (n*-\-n) est p&ir.
Enfin de (4) et (5) découfe l ’égalité que nous voulons démontrer :
\C\ = \A \.\B \.
C
On aurait pu démontrer le théorème de la multiplication des
déterminants sans utiliser le théorème de Lapiace. Le lecteur trouve­
ra l ’une des démonstrations de ce genre à la fin du § 16.

§ 14. Matrice inverse •


Une matrice carrée est dite dégénérée ou singultâw si son détermi­
nant est nul, sinon elle est dite non dégénérée ou non singulière.
D’une façon analogue, une transformation linéaire des indéterminées
est dite singulière (dégénérée) ou non singulière (non dégénérée)
selon que le déterminant de ses coefficients est nul ou non nul.
La proposition suivante résulte du théorème démontré à la fin du
paragraphe précédent .
$14] MATRICE INVERSE 99

Le produit d'un nombre quelconque de matrices est une matrice


singulière si au moins un des facteurs est une matrice singulière.
Le produit d'un nombre arbitraire de matrices non singulières est
une matrice non singulière.
Etant donné la relation qui existe entre la multiplication des
matrices et le résultat de l'application successive de transformations
linéaires, il découle de cette proposition la proposition analogue
pour les transformations linéaires : pour que le résultat de Vapplica­
tion successive d'un certain nombre de transformations linéaires soit
une transformation linéaire non singulière, il faut et il suffit que toutes
les transformations données soient non singulières.
C'est la matrice

qui joue le rôle d'unité dans la multiplication des matrices. En outre,


E commute avec toute matrice A du même ordre que E :
AE = EA = A . (1)
On démontre ces égalités soit en appliquant directement les règles
de multiplication des matrices, soit en s'appuyant sur le fait que
la matrice unité E correspond à la transformation linéaire identique
des indéterminées
*t = Vu
*2 = 1/2,

— Un î

il est clair que la transformation identique appliquée ayant ou après


une transformation donnée ne change pas cette dernière.
Notons .que la matrice E est la seule matrice qui satisfasse à la
condition (1) pour toute matrice A. En effet, supposons qu’il existe
une autre matrice Ef ayant la même propriété. Ceci étant, on a
E'E = E \ E fE = E ,
d’où E '= E ,
L’existence pour une matrice donnée A de la matrice inverse
est déjà un problème plus compliqué. La multiplication des matrices
étant non commutative, nous allons considérer d ’abord l ’inverse
à droite d ’une matrice, c’est-à-dire une matrice A ' 1 telle que la
multiplication à droite de la matrice A par cette matrice donne
100 ALGÈBRE DES MATRICES [CH. III

la matrice unité pour produit:


AA~l = É. (2)
Supposons que la matrice A soit singulière et que la matrice A~ly
ayant la propriété (2), existe. Alors le premier membre de la rela­
tion (2), comme on le sait déjà» est une matrice singulière tandis
que le second membre de (2) est une matrice non singulière, son
déterminant étant égal à l ’unité. Ainsi, la matrice singulière ne
peut pas avoir de matrice inverse à droite. Les mêmes considérations
montrent qu’elle ne possède pas non plus de matrice inverse à gauche,
de sorte qu'une matrice singulière n'a pas de matrice inverse.
Passant maintenant au cas d’une matrice non singulière, intro­
duisons d’abord une notion auxiliaire. Soit une matrice d’ordre n:

a ii a i2 ■.. ain
( azi a22 *• » <*2n
A=
■• * &nn
La matrice
&ni &n2
^11 -^21

A* = ^12 -^22
>
^i/l A 2n

dont l ’élément appartenant à la /ème ligne et à la ième colonne est


le cofacteur de l ’élément dans la matrice A , est dite matrice
adjointe de la matrice A .
Calculons les produits AA* et A*A. Utilisant la formule du
§ 6 sur le développement d ’un déterminant par rapport aux élé­
ments d’une de ses lignes ou d ’une de ses colonnes, ainsi que le
théorème du § 7 sur la somme des produits des éléments d’une ligne
(ou colonne) d ’un déterminant par les cofacteurs des éléments cor­
respondants d’une autre ligne (ou colonne), nous obtenons, en dési­
gnant par d le déterminant de la matrice A
d = \A \,
les égalités suivantes

(3)
§ 14] MATRICE INVERSE 101

Il en résulte que si la matrice A est non singulière, alors sa matrice


adjointe A* Vest aussi et le déterminant d* de celle-ci esf égal au déter­
minant d de la matrice A élevé à la puissance (n — 1).
En effet, passant des égalités (3) aux égalités correspondantes
pour les déterminants, il vient
dd* = <r,
d’où, vu que d ^ O , il vient encore
d ^ d * ”11.
A présent il est facile de démontrer. Texistence de la matrice
inverse pour toute matrice non singulière A et trouver cette matrice
inverse. Notons d ’abord qu’en divisant tous les éléments d’un des
facteurs du produit AB, par exemple, tous les éléments de B, par
un même nombre d, tous les éléments du produit AB Se trouvent
divisés par ce nombre. Pour le démontrer, il suffit de rappeler la
définition de la multiplication des matrices. Ainsi, Si
d = | A | =ÿfc'0,
alors on déduit des égalités (3) la formule pour la matrice inverse A”1:
^11 A 2\ Ant \
d d *" d l
A i2 a 22 A n% ^
d d '' '

A in
A 2n ' A nn |
d d V‘ ‘ d . )
Autrement dit, Vinverse d'une matrice A s'obtient en divisant tous
les éléments de la matrice adjointe A* par le nombre d. En effet, les
égalités (3) donnent immédiatement
AA”1= A"1A = E. (4)
Notons, une fois de plus, que la iéme ligne de la matrice A"1
a pour éléments les cofacteurs des éléments correspondants de la
itme colonne du déterminant | A | divisés par d *= | A |.
Il est facile de démontrer que toute matrice A non singulière
possède une seule matrice A *"1 satisfaisant à la condition (4). En effet,
soit C une autre matrice telle que
AC = C A ^ E .

1 On pourrait montrer que, la matrice A étant dégénérée, il en est de même


de la matrice adjointe A* ; en outre, dans ce cas le rang de A* n’est pas supérieur
à l’unité.
102 ALGEBRE DES MATRICES ICH. III

Alors il s’ensuit de ces égalités '


CAA'1= C (AA-1) = CE = C,
CAA-1 = (CA) A-1= ÉA-1= A - \
d’où C —i " 1.
Le théorème de la multiplication des déterminants et les rela-
tions (4) montrent que le déterminant de la matrice A est égal à ^ ,
de sorte que A~l est également non singulière ; évidemment, Vinverse
de la matrice A est la matrice A .
Soient à présent A et B deux matrices carrées d’ordre n, A non
singulière et B quelconque. A étant non singulière, nous pouvons
diviser la matrice B par la matrice A respectivement à droite et à
gauche, en d’autres termes nous sommes en mesure de résoudre
les équations matricielles
AX = B , YA=B. (5)
Pour cela, il suffit, en vertu de l ’associativité de la multiplica­
tion des matrices, de poser
X ^A ^B , Y = B A '1 ;
en outre, ces solutions des équations (5) sont, dans le cas général,
des matrices distinctes, vu que la multiplication des matrices est
non commutative.
Exemples. 1) Soit la matrice

Son déterminant étant 5, la matrice inverse A*1 existe et est de la forme

2) Soient deux matrices

La matrice A étant non singulière, la matrice A*1 existe et est de la forme


§ 14] MATRICE INVERSE 103

de sorte que les solutions des équations matricielles AX = B, Y A — B sont


respectivement les matrices

Multiplication des matrices rectangulaires. Bien que la multi­


plication des matrices que nous venons d’introduire dans le para­
graphe précédent ne soit définie jusqu’ici que pour les matrices carrées
d’un même ordre, on peut généraliser cette opération algébrique
de manière qu’elle soit applicable dans le cas des matrices rectangu­
laires A et 2?, à condition, toutefois, que la formule (3) du paragraphe
précédent ait un sens, c’est-à-dire à condition que toute ligne de À
contienne le même nombre d’éléments que toute colonne de la
matrice B . En d’autres termes, on peut parler du produit des matrices
rectangulaires A et B si et seulement si le nombre des colonnes de la
matrice A est égal au nombre des lignes de la matrice B ; en outre,
le nombre des lignes de la matrice AB est égal à celui des lignes de la
matrice A et le nombre des colonnes de la matrice AB à celui des colon­
nes de la matrice B.
Exemples.

( i 0 15 —5\
1 ).
V u io îoJ ■
2)
UI-iH-iMJ
3) (5 1 O —3) (11 -1).
0 ::)-
On peut établir la relation qui existe entre la multiplication
des matrices rectangulaires et le produit des transformations linéai­
res des indéterminées, à condition, toutefois, que dans la définition
des transformations linéaires on renonce à l ’hypothèse que le nombre
des indéterminées soit conservé.
Il est facile de vérifier, en répétant sans modification aucune
la démonstration donnée ci-dessus, dans le cas des matrices carrées,
que la loi d'associativité est valable pour la multiplication des matrices
rectangulaires.
104 ALGÈBRE DES MATRICES [CH. III

Nous allons utiliser la multiplication des matrices rectangulaires


et les propriétés de la matrice inverse pour donner une nouvelle
démonstration des formules de Cramer, cette démonstration ne néces­
sitant pas les calculs laborieux qui ont été faits au § 7. Soit un systè­
me cramérien de n équations linéaires à n inconnues, c’est-à-dire
un système dont le déterminant n ’est pas nul:
a iix i 4 ~ ^ 1 2 ^ 2 4~ • • • 4" & in Z n = ^

a 2 i% i 4" ^22^2 4~ ■ • ■ 4 " a 2n ^ n = &2* L /m

“h 4“ • * •4~ ^nn^n — J
Notons par A la matrice des coefficients du système (6) ; en vertu
de notre hypothèse (d .= [A | 0), la matrice A est non singulière.
Désignons respectivement par X et B les colonnes des inconnues
et des seconds membres du système (6), à savoir

Le nombre des colonnes de la matrice A étant égal à celui des lignes


de la matrice X, le produit 4 Ï a u n sens et est égal à la colonne des
premiers membres des équations (6). Ainsi, le système (6) peut être
récrit sous la forme d’une équation matricielle :
AX = B. (7)
La matrice A étant non singulière, son inverse A-1 existe;
multipliant à gauche les deux membres de l ’équation (7) par A"1,
il vient :
X = A‘~1B. (8)
Le produit A 4B est une matrice colonne ; son ;ème élément est
égal à la somme des produits des éléments de la ;ème ligne de la
matrice A par les éléments correspondants de la matrice 2?, c’est-à-
dire qu’il est égal à
fe1+ -^-fe2+ • 4— ^ bn ~ A 2j b z -{- ... 4- A nj b n ) .

Or, l ’expression entre parenthèses dans le second membre n ’est


autre que le développement, par rapport aux éléments de la ; ème
colonne, du déterminant dj qui s’obtient du déterminant d en rem­
plaçant sa j'ème colonne par la colonne B. Ainsi, les formules (8)
coïncident avec les formules (3) du § 7 qui sont exactement celles
de Cramer pour la solution du système.(6).
§ 14] MATRICE INVERSE 105

Il reste à montrer que l ’expression (8) est effectivement la solu­


tion de (6). Pour cela, il suffit de remplacer dans (7) la matrice
colonne X par son expression (8), ce qui conduit immédiatement
à l ’identité B = B.
Rang du produit de matrices. Le théorème de la multiplication
des déterminants donne dans le cas des matrices singulières que leur
produit est aussi une matrice singulière, mais ne permet pas de pré­
ciser quel sera le rang de ce produit. Pourtant, il est naturel de clas­
ser les matrices carrées singulières d’après leur-rang. Notons qu’il
n’existe pas de relation bien déterminée entre les rangs des facteurs
et celui du produit, comme le montrent les exemples suivants :

dans ces deux cas on multiplie des matrices de rang 1, le produit


est de rang 1 dans le premier cas et de rang 0 dans le second. Néan­
moins, on peut énoncer le théorème suivant qui est valable non seule­
ment pour les matrices carrées, mais aussi pour les matrices rectan­
gulaires.
Le rang du produit de matrices n'est pas supérieur au rang de
chaque facteur.
Il suffit de démontrer ce théorème dans le cas de deux facteurs.
Soient A et B deux matrices, le produit AB ayant un sens ; notons
ce produit par C : AB = C. Revenons à la formule (3) du § 13 et
exprimons les éléments de la matrice C par les éléments des A et B.
Fixant dans cette formule l ’entier k et faisant varier l ’entier i (i. =
= 1, 2, . . 7i), on constate que la fcème colonne de la' matrice C
est une combinaison linéaire, avec certains coefficients (à savoir
les coefficients blh, b2h, • * *)> des colonnes de la matrice A . Cela
prouve que le Système des colonnes de la matrice C s’exprime linéai­
rement par le système des colonnes de la .matrice A , de sorte que
le rang du premier système est inférieur ou égal à celui du second,
en vertu du résultat correspondant du § 9; en d’autres termes,
le rang de la matrice C n ’est pas supérieur à celui de la matrice A .
Comme, d ’autre part, la même formule (3) du § 13 montre (pour i
fixé et k variant entre 1 et n) que la iôme ligne de la matrice C est
une combinaison linéaire des lignes de la matrice B, les raisonnements
analogues prouvent que le rang de C ne peut être supérieur à celui
de B .
On a un résultat plus précis lorsqu’un des facteurs est une matrice
carrée non singulière.
106 ALGÈBRE DES MATRICES [CH. III

Le rang des produits AQ et QA, ou A est quelconque et Q une matrice


carrée non singulière, est égal au rang de A.
Montrons-le, par exemple, pour le produit
AQ = C. (9)
Il s’ensuit du théorème précédent que le rang de la matrice C est
inférieur ou égal à celui de la matrice A. Multipliant à droite les
deux membres de (9) par Ç"1, nous sommes conduits à l ’égalité
A = CQ~\
de sorte qu’en vertu du même théorème, le rang de A n ’est pas supé­
rieur à celui de C. Ces deux résultats démontrent que les rangs de A
et de C coïncident,
i
§ 15. Addition des matrices et multiplication
des matrices par un nombre
Pour les matrices carrées d’ordre n on définit l'addition de la
manière suivante :
On appelle somme de deux matrices carrées d'ordre n A = (a*7)
et B = (bu), et on la note par A + J?, une matrice C == (c*7) telle
que tout élément de C est la somme des éléments correspondants
des matrices A et B :
Cij = a i j -\~ b i j

Il est clair que l ’addition des matrices ainsi définie est commu­
tative et associative. L ’opération inverse, dite soustraction, est
bien définie : la différence de deux matrices A et B est une matrice
dont les éléments sont les différences des éléments correspondants
des matrices données. Le rôle de l’élément nul est joué par la matrice
nulle dont tous les éléments sont nuis; dans tout ce qui suit cette
matrice sera notée par le symbole 0; il n ’y a pas de danger sérieux
de confondre la matrice nulle avec le nombre zéro.
L'addition des matrices carrées et leur multiplication définie au
§ 13 sont liées par la loi de distributivité.
En effet, soient A = (a^), B = (6^*), C = (cij) trois matrices
d ’ordre n. Alors, pour i et ; quelconques on a l’égalité évidente
n n" n.

_____ 8—1 8=1 8=1


1 Bien entendu, on aurait pu définir la multiplication des matrices de la
manière aussi naturelle que leur addition, en posant l'élément générique du
produit des matrices égal au produit des éléments correspondants des matrices
facteurs. Toutefois, une telle multiplication, différemment de celle introduite
dans le § 13, ne trouverait pas d'applications utiles.
§ 15] ADDITION DES MATRICES ET MULTIPLICATION DES MATRICES 1Q7

Or, le premier membre de cette égalité est l ’élément qui se trouve


à l ’intersection de la ième ligne et de la jème colonne de la matrice
(A + B) C, tandis que le second membre est l’élément qui occupe
la même place dans la matrice AC + BC. Ceci démontre l ’identité
(A + B)C = AC + BC.
La relation C (A + B) ■= CA + CB se démontre de la même
manière, la non-commutativité de la multiplication des matrices
nécessitant, évidemment, la démonstration des deux lois de distri­
butivité.
Définissons maintenant la multiplication d’une matrice par
un nombre.
On appelle produit d'une matrice carrée A = (a^) par un nombre
k et on le note kA une matrice A f = (a*/) qui s’obtient de là matri­
ce A en multipliant tous ses éléments par /c, à savoir:
alj — katj.
Nous avons déjà eu à faire dans le paragraphe précédent à un
exemple de la multiplication de ce genre : l’inverse A -1 et la matrice
adjointe A* d ’une matrice A non singulière sont liées par la relation
A~1= d-XA \
où d est le déterminant de A.
Nous savons déjà que toute matrice carrée d’ordre n peut être
considérée comme un vecteur à n2 dimensions; en outre, il y a une
correspondance bijective entre les matrices carrées d’ordre n et les
vecteurs à n2 composantes. L’addition des matrices et leur multipli­
cation par un nombre, que nous avons définies, se transforment
en addition des vecteurs et multiplication des vecteurs par urn
nombre de l ’espace vectoriel à n2 dimensions. Par conséquent,
l'ensemble des matrices carrées d'ordre n petit être considéré comme
un espace vectoriel à n2 dimensions.
Il en résulte les égalités
k(A + B) = kA + kB y (1)
(k + l)A = kA + lA, (2)
k(lA) = (kl)A, (3)
1 -A = A, (4)
où A et $ sont des matrices d’ordre ny k et l des nombres quelconques
et le signe 1 désigne le nombre un.
Les propriétés (1) et (2) relient la multiplication d ’une matrice
par un nombre et l ’addition des matrices. Il existe également une
relation très importante entre la multiplication d’une matrice par
108 A LG ÈBRE D ES MATRICES [CH. IU

un nombre et la multiplication des matrices, à savoir:


( k A ) B ^ A ( k B ) = k(AB); (5)
autrement dit, multipliant dans un produit de matrices un des facteurs
par le nombre k , le produit se trouve multiplié par ce même nombre k.
En effet, soient A = (a^) et B = deux matrices et k un
nombre quelconque. Alors on a :
n n
21 (küis) bsj —k 2j Qisbaji
8=1 8=1
quels que soient les entiers i et y, i, y = 1, 2, . . ., n. Or, le premier
membre de cette égalité est l ’élément qui se trouve à l'intersection.
de la ième ligne et de la yème colonne de la matrice (kA) fi, tandis
que son second membre est l ’élément qui occupe la même place
dans la matrice k (AB). Geci démontre l ’identité
(kA)B = k(AB).
L’égalité A (kB) = k (AB) se démontre de la même manière.
La multiplication d’une matrice par un nombre permet d’intro­
duire une nouvelle écriture pour les matrices. On notera Eu la matri­
ce dont l ’élément qui se trouve à l ’intersection de la ième ligne et
de la yème colonne est l ’unité et tous les autres éléments sont nuis.
Faisant i, y = 1, 2, . . ., n, on obtient n2 matrices qui vérifient,
comme il est facile de constater, la table de multiplication:
E isEsj = Eij9 EiaEtj — Q pour s=fizt.
L ’élément qui se trouve à l ’intersection de la ième ligne et de
la yèine colonne de la matrice kEfj est le nombre k; c’est la seule
différence qu’il y ait entre les matrices k Etj et 'E^. Tenant compte
de ce fait et utilisant la définition de l ’addition des matrices, on
obtient une nouvelle représentation d’une matrice carrée A :
a ti a t2 • • « a in \

( *

Uni ®/i2
**:

• • * Unn /
en outre, toute matrice A peut être représentée d ’une façon unique
sous la forme (6).
<«>

D’après la définition de la multiplication d ’une matrice par


un nombre, la matrice kE, où E est la matrice unité, est de la forme :
Jk 0
$ 161 THÉORIE AXIOMATIQUE DES DÉTERMINANTS 109

c'est-à-dire que tous les éléments dé la diagonale principale de cette


matrice sont égaux à k, tandis que tous les autres éléments sont nuis.
Les matrices de cette forme sont dites scalaires,
La définition de l ’addition des matrices nous conduit à l ’égalité
kE + l E ^ ( k + l)E. (7)
D'autre part, utilisant la définition de la multiplication des matrices
ou s’appuyant sur l ’égalité (5),,on obtient:
kE •IE = (kl) E. (8)
La multiplication d'une matrice A par un nombre k peut être
interprétée comme la multiplication de A par la matrice scalaire kE
dans le sens de la multiplication des matrices. En effet, d ’après (5),
on a
(kE)A = A ( k E ) ^ k A .
Il en découle que toute matrice scalaire commute avec toute matri­
ce A. Il est très important de souligner que les matrices scalaires
sont les seules à jouir de cette propriété :
Si une matrice C = (eu) d'ordre n commute avec toutes les matrices
de même ordre, alors C est scalaire.
En effet, soit i=?=j et considérons les matrices C E ^ et E ifi ;
en vertu de notre hypothèse, CEU — E \ f i (cf. la définition ci-
dessus de la matrice Eij). Il est facile de voir que toutes les colonnes
de la matrice CEtj y excepté la ; èrafi, sont composées d’éléments nuis,
tandis que la /ôr*,c colonne dé ce produit coïncide avec la ièrae colonne
de la matrice C\ en particulier, à l ’intersection de la ièrae ligne et
de la /éme colonne de la matrice CEXj se trouve l’élément eu. De fa­
çon analogue, toutes les lignes de la matrice EijC, excepté la ième,
ont pour éléments l ’élément nul, tandis que la ième ligne de ce pro­
duit coïncide avec la ; ème ligne de la matrice C; à l’intersection
de la iême ligne et de la ; ème colonne de la matrice E xf i se trouve
l ’élément cjj. En vertu de l ’égalité CEXj — E xf i , on a cti = cjj
(en tant quféléments occupant les mêmes places dans les matrices
égales), c’est-à-dire la diagonale principale de la matrice C a pour
éléments un même nombre. D’autre part, à l ’intersection de la
jème ligne et de la ;èrae colonne de la matrice CEXj se trouve l ’élé­
ment cji tandis que dans la matrice E xiC la même place est occupée
par l ’élément nul (car i =/=/), de sorte que cjX *= 0, ou, encore, tout
élément de la matrice C se trouvant en dehors de la diagonale prin­
cipale est nul. Le théorème est démontré.

§ 16*. Théorie axiomatique des déterminants


Un déterminant d’ordre n est un nombre bien défini par la matri­
ce carrée d’ordre n associée. La définition de ce nombre donnée
au § 4 indique une règle selon laquelle le déterminant s’exprime
110 ALGÈBRE DES MATRICES [CH. III

par les éléments de la matrice associée. Cette définition constructive


peut être remplacée par une définition axiomatique ; en d’autres
termes, on peut trouver, parmi les propriétés des déterminants
établies aux §§ 4 et 6, celles qui les caractérisent complètement,
de sorte que la seule fonction d ’une matrice à valeurs réelles véri­
fiant ces propriétés soit son déterminant.
On peut utiliser le développement d’un déterminant par rapport
aux éléments d ’une ligne pour donner une des définitions de ce
genre. Considérons l’ensemble des matrices carrées d’un ordre
quelconque et supposons qu’à toute matrice M corresponde un
nombre dM vérifiant les conditions suivantes:
1) Si une matrice M est d’ordre un, c’est-à-dire M ne contient
qu’un seul élément a, alors dM = a.
2) Soient an , a12, . . ., ain les éléments de la première ligne
de la matrice M d’ordre n et soit M t la matrice d’ordre n — 1 qui
s’obtient de la matrice M en supprimant sa première ligne et sa ièuie
colonne, i = 1, 2, . . n; alors
d jd — —Ü12$M2 + — • • • + ( —l)n-1 d i n d u n -
Alors pour chaque matrice M le nombre dM est égal au déterminant
de cette matrice. Nous laissons au lecteur le soin de vérifier cette
proposition, sa. démonstration se faisant par récurrence sur n et
utilisant les résultats du § 6.
Beaucoup plus d’intérêt comportent d’autres formes axiomatiques
de la définition des déterminants se rapportant au cas où n est fixé
et s’appuyant sur quelques propriétés simples des déterminants
établies au § 4. Nous passons maintenant à l’une de ces définitions.
Supposons qu’à toute matrice carrée M d’ordre n corresponde
un nombre dM vérifiant les conditions suivantes :
I. Si on multiplie Vune des lignes de la matrice M par un nombre k ,
alors le nombre dM est multiplié par k .
II. Le nombre dM est conservé lorsqu'on ajoute à l'une des lignes
de la matrice M une autre ligne de cette matrice.
III. Si E est la matrice unité, alors dE = 1.
Montrons que pour toute matrice M le nombre dM est égal à son
déterminant.
Déduisons d’abord des conditions I-III certaines propriétés
du nombre dM qui sont analogues aux propriétés correspondantes
du déterminant.
(1) Si Vune des lignes de la matrice M est composée d'éléments
nuis, alors dM = 0.
En effet, multipliant la ligne composée de zéros par le nombre 0,
la matrice M ne change pas tandis que le nombre dM, en vertu de la
condition I, se trouve multiplié par 0, de sorte que
dM " 0 —0.
§ 161 THÉORIE AXIOMATIQUE DES DÉTERMINANTS 111

(2) Le nombre dM est conservé lorsqu'on ajoute à la iôme ligne de la


matrice M sa ;ème ligne multipliée par un nombre k (t =£ /).
Pour k — 0 la proposition est évidente. Soit k 0. Multipliant
la ; ème ligne par k nous obtenons une matrice AT pour laquelle,
en vertu de I, on a dw — kdM. Ajoutant ensuite à la ième ligne
de la matrice AT sa ; ème ligne nous obtenons une matrice M" telle
que dM» = dM', en vertu de la condition II. Enfin, multipliant
la 7*me ligne de la matrice M" par le nombre Ar1, nous avons une
matrice M m qui s’obtient de la matrice M par la transformation
indiquée dans l ’énoncé de la propriété (2) ; en outre
dM», = k^dM- = k~ldM* = Ar1■kdM= dM.
(3) Si les lignes de la matrice M sont linéairement dépendantes,
alors dM = 0.
En effet, supposons que la ième ligne soit une combinaison linéaire
des autres lignes. Appliquant à la matrice M la transformation (2)
et réitérant ce procédé on peut remplacer les éléments de la ième
ligne de M par l ’élément nul. La transformation (2) conserve le
nombre dM et, vu la propriété (1), il vient dM — 0.
(4) Supposons que la ièTne ligne de la matrice M soit la somme
de deux vecteurs fi et y et soient M* et M ” les matrices qui s'obtiennent
de la matrice M en remplaçant sa ième ligne respectivement par les
vecteurs [J et y, Alors
dju — +
En effet, désignons par S la famille de toutes les lignes de la
matrice M , excepté la ième. Si la famille S est non libre, alors il en
est de même pour les lignes de chacune des matrices Af, M ' et M ",
de sorte qu’en vertu de la propriété (3), on a dM = dw = dM* =
= 0, d’où la proposition (4). Si, par contre, la famille £, composée
de n — 1 vecteurs, est libre, on peut alors la compléter par un vec­
teur, soit a, de telle manière qu’elle devienne maximale dans un
espace vectoriel à n dimensions, comme le montrent les résultats
du § 9. Lés vecteurs P et y s’expriment par les vecteurs de cette
famille maximale. Supposons que le vecteur a intervienne dans les
expressions de P et y respectivement avec les coefficients k et l ;
par conséquent, le vecteur a intervient dans l ’expression du vecteur
P + y (qui n ’est autre que la ième ligne de la matrice M) avec le
coefficient k + 7. Retranchant des ièmes lignes des matrices M , AT
et M " des combinaisons linéaires des autres lignes, on peut transfor­
mer ces matrices de manière que leiirs ièmes lignes deviennent respecti­
vement les vecteurs (k + /) a, ka, la. Ainsi, notant par M° la matri­
ce qui s’obtient en remplaçant la ièïne ligne de la matrice M par
le vecteur a et compte tenu des propriétés (2) et I, nous avons les
112 ALGÈBRE DES MATRICES [CH. III

égalités :
cLm — (& + 1) (Imoj dM' — JccImoi d w — Mmo.
La propriété (4) est donc démontrée,
(5) A la matrice M, qui s'obtient de la matrice M en transposant
deux lignes quelconques, correspond le nombre d^ = — dM.
En effet, supposons qu’on doive permuter les lignes d’indices i
et / de la matrice M . On y arrive en appliquant successivement
les transformations suivantes: on ajoute d’abord à la ième ligne
de la matrice M sa ; ème ligne et on obtient une matrice, notée AT,
telle que dM>= dM> en vertu de la condition IL Retranchant ensuite
de la yème ligne de la matrice AT sa ième ligne nous avons une matrice
M” pour laquelle, en vertu de la propriété (2), on a encore dM* =
= dM' ; les éléments de la ;ème ligne de la matrice M" diffèrent
par. leur signe des éléments correspondants de la £ème ligne de la
matrice M. Ajoutant maintenant à la ième ligne de la matrice M n
sa / ème ligne, on obtient une matrice M m telle que dMm =
en vertu de la condition IL En outre, là ième ligne de M m coïncide
avec la ;ème ligne de M . Multipliant, enfin, la ;ôme ligne de la matri­
ce M m par le nombre —1, nous obtenons la matrice M dont il est
question dans l ’énoncé de la propriété (5). En vertu de la condition I,
on a
dj^ = —dM* — —dw*
(6) Si la matrice M r s'obtient de la matrice M en permutant des
lignes de M (la ième ligne de la matrice M ' étant la a |me ligne de la
matrice Af, i — 1, 2, . . ., n), alors
dM' = ± dM ;
le signe plus correspond au cas oh la substitution

est paire et le signe moins au cas ou elle est impaire.


En effet, la matrice AT peut être obtenue de la matrice M par plu­
sieurs transpositions de deux lignes, de sorte que nous pouvons appli­
quer la propriété (5). La parité du nombre de ces transpositions,
comme on le sait du § 3, détermine la parité de la substitution en
question.
Considérons à présent les matrices M = N = (btj) et for­
mons leur produit Q = M N au sens du § 13. Calculons le nombre
dQ correspondant. On sait que ,1a ième ligne de la matrice Q est la
combinaison linéaire des lignes de la matrice N respectivement
de coefficients afl, a%2, . . a*n et ceci pour tous les i, i = 1, 2, . . .
§ 16] THÉORIE AXIOMATIQUE DES DÉTERMINANTS 113

. . ., n (cf. par exemple § 14). Substituons aux lignes de la matri­


ce Q leurs expressions linéaires par les lignes de la matrice N et
appliquons plusieurs fois la propriété (4). Nous constatons que le
nombre dQest égal à la somme des nombres <2^, correspondant à toutes
les matrices T de la forme suivante: la ième ligne de la matrice T
coïncide avec la a?me ligne de la matrice N multipliée par le nombre
0'%ai et cela pour tous les i7 i = 1, 2, . . n. En outre, d ’après
la propriété (3), on peut omettre toutes les matrices T pour lesquel­
les il existe des indices i et ; tels que a t = avec i ; ; autrement
dit, nous ne devons conserver que les matrices T pour lesquelles
les indices a x; ot2, * • ocn correspondants forment une permuta­
tion des nombres 1, 2, . . n. Le nombre dT, pour une telle
matrice T, en vertu des propriétés I et (6), est de la forme
dT = ± aiaia2a2 . . *
le signe du second membre étant défini par la parité de la permuta­
tion des indices. Ceci nous conduit à l ’expression du nombre dQ que
nous nous sommes proposé de calculer : mettant en facteur le nom­
bre dN, commun à tous les termes de la somme exprimant dQy on ob­
tient évidemment pour second facteur le déterminant | M | de la
matrice M au sèns de la définition constructive du § 4. Ainsi
dQ= \ M\ . d N. (*)
Prenant dans (*) pour matrice N la matrice unité Æ, il vient: Q =
= M et, en même temps, d’après la propriété III, d N = dE = 1,
c’est-à-dire pour toute matrice M on a Végalité suivante :
divf = | M |,
ce qu’il fallait démontrer. Nous avons donné en même temps une
nouvelle démonstration du théorème dé la multiplication des détermi­
nants sans utiliser le théorème de Laplace : pour cela il suffit de rempla­
cer dans l ’égalité (*) les nombres dQ et dN par les déterminants des
matrices correspondantes.
Nous terminerons ces considérations axiomatiques en démontrant
Vindépendance des conditions I-III, en d’autres termes, nous allonsmon-
trer qu’aucune de ces conditions n ’est la conséquence des deux autres.
Pour démontrer l’indépendance de la condition III, posons pour
toute matrice M d’ordre n: dM = 0. Les conditions I et II sont,
évidemment, vérifiées, tandis que la condition III n ’a plus lieu.
Pour démontrer l’indépendance de la condition II, posons pour
toute matrice M le nombre dM égal au produit des éléments de la
diagonale principale de M . Les conditions I et III sont encore vala­
bles, tandis que la condition II n ’a pas lieu.
Enfin, pour démontrer l ’indépendance de la condition I, posons :
djvjr = 1 pour toute matrice M. Les conditions II et III sont toujours
valables, tandis que la condition I n ’a plus lieu.
Chapitre IV NOMBRES COMPLEXES

§ 17. Ensemble des nombres complexes


L’étude suivie de l ’algèbre élémentaire conduit progressivement
à la généralisation de la notion de nombre. Un écolier qui aborde
le cours d ’algèbre part des notions de nombres entiers et fraction­
naires positifs qui lui ont été enseignées en arithmétique. En subs­
tance l ’algèbre élémentaire commence par l’introduction des nom­
bres entiers négatifs, c’est-à-dire par l’introduction du système
numérique des nombres entiers composé d’entiers positifs, négatifs
et de zéro. Puis vient le tour des nombres rationnels, positifs et néga­
tifs, qui constituent déjà un ensemble assez riche.
On étend encore la notion de nombre en complétant l ’ensemble
des nombres rationnels par les nombres irrationnels. Les nombres
rationnels et irrationnels constituent l ’ensemble des nombres réels.
Les fondements mathématiques rigoureux de la théorie des nombres
réels sont l’objet de l ’étude systématique du cours universitaire
d’analyse; néanmoins, la notion de nombre réel acquise à l ’école
secondaire suffit largement pour aborder l ’étude de l’algèbre supé­
rieure.
Finalement, en fin du cours d’algèbre élémentaire on enseigne
les nombres complexes, généralisant les nombres réels. Le lecteur
qui n’a pas eu assez de temps pour se familiariser avec l’ensemble
des nombres complexes aura sûrement besoin d’une étude plus dé­
taillée de ces nombres, d ’autant plus qu’ils jouissent de nombreuses
bonnes propriétés. C’est pourquoi ce chapitre sera consacré à une
étude assez complète des nombres complexes.
On est obligé d’introduire les nombres complexes lorsqu’on
considère le problème de résolution d’une équation du second degré
à coefficients réels. On sait que les nombres réels ne suffisent pas
pour qu’on puisse trouver les racines de toute équation de ce type.
La plus simple équation du second degré n ’ayant pas de racines
réelles est
** + 1 = 0 . (1)
I l s'agit de généraliser la notion de nombre réel en introduisant un
ensemble de nombres plus riche de telle manière que Véquation (1) soit
résoluble.
§ 17] ENSEMBLE DES NOMBRES COMPLEXES 115

A cette fin nous utilisons les points du plan. Rappelons que la


représentation des nombres réels par les points d’une ligne droite
(basée sur la correspondance bijective entre ces points et les nombres
réels, la correspondance en question étant définie de façon suivante:
on fixe l ’origine et l ’unité de mesure et l’on fait correspondre à tout
point de la droite l’abscisse de ce point) est utilisée systématiquement
par toutes les branches mathématiques et est déjà tellement familière
qu’on ne fait plus de distinction entre les points d’une droite et les
nombres réels représentés par ces points.
Ainsi, nous voulons définir un ensemble de nombres représentés
par les points d'un plan. Jusqu’ici nous n’avons pas eu à additionner
et à multiplier les points d’un plan, de sorte que nous sommes libres
de définir ces opérations comme nous le désirons. Toutefois, en
introduisant l’addition et la multiplication des points d’un plan,
nous devons prendre quelques précautions afin que le système
de nombres, obtenu de cette manière, jouisse de toutes les propriétés
qui nous ont poussés à étendre la notion de nombre réel. Les défini­
tions de ces opérations, surtout celle de multiplication, paraissent
au début assez bizarres. On montrera dans le chapitre X qu'aucune
définition, différente de celle qu'on va donner ici, ne pourra nous con­
duire à un système de nombres généralisant les nombres réels et
contenant les racines de l ’équation (1). On démontrera également
dans ce même chapitre qu'en remplaçant les points d'un plan par
tout autre système d'êtres, on ne peut pas obtenir les nombres dont les
propriétés algébriques diffèrent de celles des nombres complexes que
nous allons définir dans ce paragraphe.
Soit un plan dans lequel on se donne un système de coordonnées
rectangulaires. On convient de désigner les points du plan par les
lettres grecques a, p, y,. . . et on note un point a par (a, b) si son
abscisse et son ordonnée sont respectivement a et h: a = (a, b).
Soient deux points a = (a, b) et p = (c, d). La somme de ces points
est un point dont l ’abscisse est (a + c) et l’ordonnée (b + d),
autrement dit,
(fl» &) + (c, d) = (a + c, 6 + d); (2)
le produit des points a = (a, b) et P = (c, d) est un point ayant pour
abscisse le nombre ac — bd et pour ordonnée le nombre ad + bc, de
sorte que
(a, b)(c, d) = (aç —6d, ad-\-bc). (3
Ainsi, les formules (2) et (3) définissent deux opérations algébri­
ques sur l ’ensemble des points d’un plan. Montrons qu 'elles fouissent
de toutes les propriétés fondamentales des opérations algébriques analo­
gues sur Vensemble des nombres réels (ou des nombres rationnels),
à savoir que ces opérations sont commutatives, associatives, distributives
116 NOMBRES COMPLEXES [CH. IV

et ont pour opérations inverses respectivement la soustraction et la


division (excepté la division par zéro).
Il est clair que l ’addition est commutative et associative (ce qui
résulte précisément des propriétés analogues de l ’addition des
nombres réels), car, selon (2), on additionne séparément les abscisses
et les ordonnées. Les coordonnées des points a et p intervenant
symétriquement dans (3), la commutativité de la multiplication en
découle immédiatement. L’associativité de la multiplication est la
conséquence des égalités :
[(a, b) (c, d)] (e, /) = (ac —bd, ad + bc) (eyf) =
= (ace —bde —adf —bcf y acf —bdf + ode + bce),
(a, 6)[(c, d)(e, /)] = (a, b)(ce~~dfy cf + de) =
= (ace —adf —bcf —bde, acf + ade + bce — bdf).
Les relations
[(a, b) + (c, d)) (e, f) (a +-c, b + d) (e, f) =
—(ae-^ ce — bf — d/, a f c f b e d e ) t
(a, b)(e, f) + (c, d)(e, f) = (ae — bf,af + be) + (ce — df, cf + de) =
= (ae —bf-{-ce—df , af -\-be-\-cf -{-de)
établissent la loi de distributivité.
Passons aux opérations inverses. Soient deux points a — (a, b)
et p = (c, d). Leur différence est un point (x, y) tel que
(cy d) + (x, y) = (ay b)y
d’où, en vertu de (2), les égalités:
c-\-x —ay d y = b.
Ainsi, la différence des points a —(a, b) et p = (c, d) est le point
a —p = (a — c, b — d) (4)
qui esfr bien défini.
En particulier, Yélément nul dans notre système de nombres est
l ’origine (0, 0) et le point opposé à a = (a, b) est
—:a = { —a, — b). (5)
Soient, maintenant, deux points a = (a, b) et P = (c, d), P =# 0.
c’est-à-dire au moins l’une des coordonnées c et d n’est pas nulle,
de sorte que c2 + d2 =£ 0. On appelle quotient de la division de a
par p un point (x, y) tel que (c, d) (x, y) — (a, 6). On en déduit,
en vertu de (3), les égalités:
cx — dy = ay
dx + cy = b.
§ 17] ENSEMBLE DES NOMBRES COMPLEXES 117

En résolvant ce système d’équations, il vient:


^ ac-\-bd ^ bc —ad
x = c2+^2 » y = c2+ d2 *
Ainsi, pour le quotient existe et est bien défini par la
formule :
a _ ( ac-\-bd bc — a d \ /A>k
T ~ Vc2+ d2 » c*+ d*) ' W
Si l ’on pose 0 = a, on voit que le rôle de Vunité dans notre système
de nombres est joué par le point (1, 0), situé sur Taxe des abscisses
à la distance 1 de l'origine dans le sens positif. Posant dans (6)
a = 1 = (1, 0), on obtient le point inverse du point p, P =^= 0 :
c
c*+d* ) (7)
Ainsi, nous avons construit un système de nombres représentés
par les points d’un plan ; en outre, les formules (2) et (3) définissent
deux opérations algébriques, l ’addition et la multiplication, sur
l ’ensemble de ces nombres. Cet ensemble est appelé système de nombres
complexes.
Montrons que les nombres réels constituent un cas particulier des
nombres complexes. Considérons pour cela les points situés sur l ’axe
des abscisses, c’est-à-dire les points de la forme (a, 0) ; faisant cor­
respondre au point (a, 0) le nombre réel a, nous obtenons, bien enten­
du, une correspondance bijective entre l’ensemble des points de l’axe
des abscisses et celui des nombres réels. L’application des formules
(2) et (3) à ces points donne les égalités
(a, 0) + (by 0) = (a + b, 0),
(a, ())•(&, 0) = (a&, 0);
autrement dit, les règles d ’addition et de multiplication des points
de l ’axe des abscisses sont exactement les mêmes que celles d’addi­
tion et de multiplication des nombres réels correspondants. Ainsi,
l'ensemble des points appartenant à l'axe des abscisses, considéré comme
un sous-ensemble de l'ensemble des nombres complexes, jouit exacte­
ment des mêmes propriétés algébriques que celui des nombres réels
représentés, comme d'habitude, par les points d'une ligne droite. Ceci
nous autorise à ne pas faire de distinction entre le point (a, 0) et
le nombre réel a, posant chaque fois (a, 0) = a. En particulier,
l ’élément nul (0, 0) et l’élément unité (1, 0) du système de nombres
complexes sont respectivement les nombres réels 0 et 1.
Il nous faut montrer à présent que réquation (1) est résoluble
dans l'ensemble des nombres complexes, c’est-à-dire il faut prouver
l ’existence d’un nombre complexe tel que ce nombre élevé à la
118 NOMBRES COMPLEXES [CH. IV

puissance deux donne le nombre réel — 1. Le point (0, 1) possède,


par exemple, cette propriété. (Rappelons que (0, 1) est le point
situé sur Taxe des ordonnées à la distance 1 de l’origine dans le
sens positif.) En effet, appliquant (3), il vient :
(0, 1)*(0,1) = ( —1, 0 )= — 1.
Convenons de noter ce point par le symbole i, de sorte que i2 = — 1.
Montrons enfin que les nombres complexes introduits ci-dessus
peuvent être représentés sous la forme habituelle. Pour cela, trouvons
d ’abord le produit du nombre réel b par lé point i :
bi = (b, 0H 0, 1) = (0, b);
ainsi, bi est un point situé sur l ’axe des ordonnées, d’ordonnée fc;
en outre, tout point de l ’axe des ordonnées peut être représenté sous
la forme du produit d’un nombre réel par i. Soit, à présent, (a, b)
un point quelconque; alors, en vertu de l ’égalité
(a, b) = (a, 0) + (0, b),
il vient :
(a, b ) ~ a + bi,
c’est-à-dire nous retrouvons la forme habituelle des nombres com­
plexes ; évidemment, dans cette représentation on entend par addi­
tion et multiplication les opérations définies par les formules (2)
et (3) sur l ’ensemble des nombres complexes.
Maintenant que les nombres complexes sont définis, le lecteur
voudra bien nous croire que le contenu des chapitres précédents,
notamment la théorie des déterminants.et celle des systèmes d’équa­
tions linéaires, ainsi que les résultats se rapportant aux vecteurs
et aux matrices, est valable sans restriction aucune lorsqu'on se place
dans le cas des nombres complexes.
Faisons encore quelques remarques pour terminer le paragraphe.
L’introduction du système de nombres complexes à l ’aide de la
représentation par les points d’un plan suscite un autre problème :
peut-on définir l ’addition et la multiplication des points de l ’espace
à trois dimensions de telle manière que le système de nombres,
obtenu par ce procédé, contienne les nombres complexes ou, du moins,
les nombres réels? L’étude de ce problème sort du cadre de notre
cours et nous nous bornerons à dire que la réponse à la question
posée est négative.
D’autre part, observant que l’addition des nombres complexes
est équivalente à celle des vecteurs issus de l’origine dans un plan
(cf. le paragraphe suivant), il est naturel de poser la question suivan­
te : peut-on définir dans l ’espace vectoriel réel à n dimensions,
ne serait-ce que pour certaines valeurs de l’entier n, une multipli­
cation de vecteurs de telle façon que, muni de cette multiplication
§ 18] SUITE DE L’ÉTUDE DES NOMBRES COMPLEXES 119

et de l’addition habituelle, l’espace vectoriel réel devienne un systè­


me de nombres, contenant le sous-système de nombres réels? On peut
montrer que cela est impossible si l’on veut conserver toutes les
propriétés de ces opérations algébriques qui ont lieu dans le cas
des nombres rationnels, réels et complexes. Mais, renonçant à la
commutativité de la multiplication, une telle construction devient
possible pour n = 4 ; le système de nombres correspondants est dit
le système des quaternions. La même chose peut être faite dans l ’espace
à 8 dimensions, le système correspondant est appelé système des
nombres de Cayley. Dans ce dernier cas on est obligé de renoncer
non seulement à la commutativité, mais aussi à l ’associativité
de la multiplication, en remplaçant cette dernière par une condition
plus faible.

§ 1 8. Suite de l’étude des nombres complexes


Selon la tradition, nous continuerons à appeler unité imaginaire
le nombre complexe i ; les nombres bi sont dits imaginaires, quoique
leur existence ne suscite aucun doute et l ’on peut indiquer les points
du plan (ce sont ceux de l ’axe des ordonnées) qui correspondent à ces
nombres. Si le nombre complexe a est représenté sous la forme :
a = a + bi, alors a et bi sont dits respectivement la partie réelle
et la partie imaginaire de a. On appelle plan complexe le plan dont
les points s’identifient aux nombres complexes conformément à la
règle exposée au § 17. L ’axe des abscisses est dit réel, ses points
correspondant aux nombres réels, de même l ’axe des ordonnées
est dit imaginaire.
Les formules (2), (4), (3) et (6) ;du paragraphe précédent, appli­
quées aux nombres complexes représentés sous la forme a + bi,
donnent les relations :
{a bi) -J- (c -|- di) =—(a -j- c) -f- (b -|- d) i j f
(a + bi) — (c + di) = (a~~c) + (b — d ) i ;
(a + bi) (c + di) = (ac — bd) -f- (ad -f bc)i\
a 4~ bi __ ac -f- bd , bc —ad .
c + di~~ + + 1‘
Autrement dit, il faut, pour trouver la somme de nombres complexes,
additionner séparément leurs parties réelles et leurs parties imaginaires ;
la règle analogue est valable pour la soustraction. On ne donne
pas ici d’énoncé de la règle de multiplication et de division des nombres
complexes, cet énoncé étant trop long. On n ’a pas besoin de garder
dans la mémoire la dernière formule. Il suffit de retenir le procédé
permettant de l ’établir. Pour cela il faut multiplier le numérateur
et le dénominateur par le nombre complexe c — di.
120 N OM BRES COM PLEX ES tC H . IV

En effet, on a
& 4*b i (fl + hi) (c —di) {&c -}- bd) + ([bc—-ad) i
c di (c + -di) (c —di) c2 + d2
_ ac-\-bd , bc — aâ .
— + + cS + d2 1•
Exemples.
1) (2+5i) + ( l - 7 i ) = (2 + l) + ( 5 - 7 ) i = 3 - 2 j ;
2) (3—9i) —(7 + î) = (3—7) + (—9—1) i — —4—lOi ;
3) (l+ 2 i) (3 — ï) = [1 -3—2-{— !)] + [!•( —1)+2*3] i = 5 + 5i ;
, 23 + t _ (2 3 + i) (3— i) 70—2 0 i_ _ Q.
' 3 + i ^ '( 3 + * ) ( 3 - * ) '“ 10 “ *
La représentation des nombres complexes par les points du plan
pose naturellement le problème d’interpréter géométriquement les
opérations algébriques définies dans l ’ensemble des nombres com­
plexes. Il n’est pas du tout difficile de donner l’interprétation géomé­
trique de l ’addition. En effet, soient deux nombres a = a + bi
M M

Fig. 3

et p = c + di. Alors, le quatrième sommet du parallélogramme


dont les trois autres sommets sont rèspectivement a, 0 et P repré**
sente la somme a + P = {a + c, b + d) (fig. 2). Ainsi, Vaddition
des nombres complexes est en réalité celle des vecteurs issus de Vorigine.
Ensuite, le nombre opposé au nombre a = a + bi est représenté par
le point symétrique du point a par rapport à l'origine (fig. 3). On en
déduit facilement l ’interprétation géométrique de la soustraction.
Le sens géométrique de la multiplication et de la division des
nombres complexes ne sera clair que lorsque nous aurons introduit
une autre écriture des nombres complexes. On utilise pour représen­
ter un nombre complexe a sous la forme a = a + bi les coordonnées
cartésiennes du point correspondant. Or, un point du plan est égale­
ment bien déterminé par ses coordonnées polaires, c’est-à-dire par
la distance r du point a à l ’origine et par l ’angle tp que le rayon
vecteur de a forme avec le sens positif de l ’axe des abscisses (fig. 4).
§ i 8] SUITE DE L'ÉTUDE DES NOMBRES COMPLEXES 121

Le nombre r est réel et non négatif; en outre, r = 0 seulement


pour le point 0. Si a appartient à l ’axe réel, c’est-à-dire si le nombre
a est réel, alors r est la valeur absolue de a, de sorte qu’on emploie
quelquefois ce terme même lorsque a est complexe; plus souvent,
on appelle r module du nombre a et on le note par | a |.
L ’angle qp est dit argument du nombre a et est noté par le symbole
arg a L Le nombre (p est un nombre réel quelconque, les valeurs
négatives et positives de qp correspondant
respectivement aux angles comptés dans le M
sens des aiguilles d’une montre et dans
le sens opposé. En outre, si la distance r
est constante, les valeurs de q> différant de
2nq, où q est un entier, définissent le même
point du plan.
Ainsi, l ’argument du nombre complexe
a peut prendre une infinité de valeurs, dont
la différence est toujours égale à 2jxg, où q est
un entier. Ainsi, deux nombres complexes,
donnés par leurs modules et arguments,
ne sont égaux que lorsque les modules coïncident et les arguments
diffèrent d’un multiple de 2jt. L’argument du nombre 0 n ’est pas
défini ; n’empêche que ce nombre est bien déterminé par l ’égalité :
I 0 | = 0.
L ’argument d ’un nombre complexe est la généralisation naturel­
le du signe d’un nombre réel. En effet, l ’argument d ’un nombre
réel positif est zéro et celui d’un nombre réel négatif est n ; dans
le cas de l ’axe réel il n ’y a que deux demi-droites issues de l’origine
des coordonnées et l ’on peut les affecter de deux signes + et —,
tandis que dans le cas du plan complexe il existe une infinité de
demi-droites issues du point 0 et il est logique, pour les discerner,
de faire correspondre à chaque demi-droite l’angle formé par elle
et par la demi-droite des x positifs de l ’axe réel.
La relation entre les coordonnées polaires et cartésiennes est
donnée par les égalités suivantes:
a = r cos qp, b ~ r sinqp, (1)
d’ou
r= + V a 2 b2. (2)
Les formules (1) appliquées à un nombre complexe a — a + bi
donnent
a~a-\ - bi = r cos qp-f (r sin <p) i
1 Nous renonçons donc aux termes traditionnels, rayon et angle, pour dési­
gner les coordonnées polaires d’un point du plan.
122 NOMBRES COMPLEXES [CH. IV

ou encore
a = r (cos 9 + i sin 9 ). (3)
Réciproquement, soit a = a + b i = r 0 (cos <p0 + * sin qp0), où
r 0 est non négatif, <p0 réel. Alors r0 cos <p0 = a, r0 sin <p0 = fc,
de sorte qu’en vertu de (2 ), r0 = + V
a3 + 6 3 = [ a l . On en dé­
duit, en utilisant (1 ), que cos q> = cos <p0, sin 9 = sin ç 0, c ’est-à-dire
que <p0 = arg a. Ainsi, to u t n o m b re c o m p le x e a p e u t ê tr e re p r é s e n té
d e fa ç o n u n iq u e so u s la fo r m e (3) a vec r = | a | et 9 = arg a (évi­
demment, arg a est défini à 2 n q près, q étant un entier). Cette repré­
sentation est appelée fo r m e tr ig o n o m é tr iq u e du nombre complexe a.
Elle sera beaucoup utilisée dans tout ce qui suit.
Les nombres
o/ n . n\ a 19 . . . 19
cc= 3 I cos -4- + 1 sin-j-J , p = c o s - g - ï sin -^ Ji,

Y= V 3 ^ cos ^ - ) + « s in ( - - y - ) ]

sont donnés soüs la forme trigonométrique ; ici | cc | = 3, | P | = 1, \y \ — ~[/3 ; f


ït a 19 n / « jx 13 \
a r g a = ^ - , a rg P = -^ n , arg 7 = — — l ou bien arg P = , arg v = y ^j
D'autre part, les nombres complexes
a ' = ( —2) ^cos sin , P '= 3 ^cos isin y ,
, 0/ jx , . . 3 \ .3 3
Y = 2 I cos -3- + 1 sm » 0 = sin-j- n + i cos-^ n

ne sont pas donnés sous la forme trigonométrique} cette dernière s'écrivant


pour ces nombres de la manière suivante :
0 6 \ l é 4 \
( cos + i sin — n i , p' —3 f cos -g- j x + i sin -g- Jtl ,
7 7
ô' = cos -7- ji 4- i sin -7- ji.
4 4
Essayant de trouver la forme trigonométrique de y' nous nous heurtons
à une difficulté qui est propre au passage de la forme cartésienne des nombres
complexes à la forme trigonométrique: nous ne pouvons pas toujours trouver
la valeur exacte de l'angle dont nous connaissons les sinus et cosinus ; l'inverse
a également lieu : nous ne sommes pas toujours capables de déterminer les
valeurs numériques exactes des fonctions trigonométriques d'un angle donné.
Soient deux nombres complexes a et P représentés sous la forme
trigonométrique : a = r (cos 9 + i sin 9 ), P = r' (cos 9 ' + i sin 9 ').
Calculons leur produit :
aP = [r (cos 9 + i sin 9 )] • [r' (cos 9 ' + i sin 9 ')] =
— r r ' (cos 9 cos 9 ' + i cos 9 sin 9 ' + i sin 9 cos 9 ' — sin 9 sin 9 '),
§ 181 SUITE DE L’ÉTUDE DES NOMBRES COMPLEXES 123

ou encore
ap = rr' [cos ( 9 + 9 ') + i sin ( 9 -f- 9 ')]. (4)
Nous avons obtenu le produit sous la forme trigonométrique, de
sorte que |a P | = /r', ou encore
Jap ) = | a | [ p | ; (5)
autrement dit, le m o d u le d u p r o d u it d e n o m b re s c o m p le x e s e s t é g a l
a u p r o d u i t d e s m o d u le s d e s f a c t e u r s . Ensuite, arg (aP) = 9 + 9 ', ou
encore
arg (o$) = arg a + arg p ; (6 )
en d ’autres termes, Y a r g u m e n t d u p r o d u i t d e n o m b re s c o m p le x e s e st
é g a l à la so m m e d e s a r g u m e n ts d e s fa c te u r s L Bien entendu, ces règles
s ’étendent à un nombre quelconque fini de facteurs. Dans le cas des
nombres réels la formule (5) représente la propriété bien connue des
valeurs absolues, tandis que la relation (6 ) donne la règle des signes
de la multiplication.
La formule analogue a lieu pour le quotient. En effet, soient
a = r (cos 9 + i sin 9 ), p = r' (cos 9 ' + i sin 9 '), p =7^ 0 , c ’est-à-
dire t 9 =7^= 0. Alors
a _ r (cos 9 + i sin 9) __ r (cos 9 + i sin 9) (cos 9" — i sin 9') _
P — r' (cos 9' + i sin 9') r' (cos3 9' + sin3 9')

= — (cos 9 cos 9 ' + i sin 9 cos 9 ' — i COS9 sin 9 ' + sin 9 sin 9 '),

ou encore
= — [cos ( 9 — (p') + i sin ( 9 — 9 ')]. (7)

D ’où il vient — -p - ou encore

=lïL ( 8)
IPI ’
c ’est-à-dire que le m o d u le d u q u o tie n t d e d e u x n o m b re s c o m p le x e s
e s t le q u o tie n t d e s m o d u le s d e ces n o m b re s ; puis arg = 9 —9'
ou encore
arg ( y ) = arg a —arg p, (9)

autrement dit, Y a r g u m e n t d u q u o tie n t d e d e u x n o m b re s c o m p le x e s


s ' o b tie n t e n r e tr a n c h a n t d e l'a r g u m e n t d u n u m é r a te u r l'a r g u m e n t
d u d é n o m in a te u r . 1

1 II est sous-entendu que cette égalité a lieu à un multiple de 2n près.


124 NOMBRES COMPLEXES [ÇH. IV

Maintenant nous sommes en mesure de donner l ’interprétation


géométrique de la multiplication et de la division. En effet, en vertu
des formules (5) et (6), le point représentant le produit des nombres
a et p = r' (cos qp' + i sin <p') est le résultat des transformations
géométriques suivantes : rotation du rayon vecteur du nombre

complexe a (fig. 5), d’angle q>' = arg p, dans le sens contraire à ce­
lui des aiguilles d’une montre et extension de la longueur du vecteur
de r' = | p | fois (contraction, pour 0 r' < 1). Ensuite, si a =
= r (cos qp + i sin qp) 0, la formule (7) donne
or1 = r~l [cos ( —<p) + t sin ( —(p)], (10)
c’est-à-dire arg (a -1) = — arg a et | o r1 | — | a l^1. Ainsi, on
obtient le point a ”1, en passant du point a au point a ' qui se trouve
à la distance r ' 1 de l ’origine sur la même demi-droite issue de 0
que a (fig. 6)J après quoi il faut prendre le point symétrique de a '
par rapport à l ’axe réel.
On ne peut pas donner de formules analogues aux formules (4)
et (7) pour la somme et la différence de deux nombres complexes
écrits sous la forme trigonométrique. Toutefois, on a les inégalités
très importantes :
|ai-|{ M < l« + P I< M + |R (il)
c’est-à-dire le module de la somme de deux nombres complexes est
inférieur ou égal à la somme de leurs modules, et il est supérieur ou
1 II faut noter que | a ' | = | a | si et seulement si | a [ = 1, c’est-à-dire
si le point a appartient à la circonférence de rayon 1. Si a se trouve à l ’intérieur
du cercle de rayon 1, alors a' est situé à l ’extérieur de ce cercle et inversement.
Faisant correspondre au point a , a =£ 0 , le point a', nous obtenons une applica­
tion bijective du cercle de rayon 1 sur la partie extérieure à ce cercle.
§ 18] SUITE DE L ’ÉTUDE DES NOMBRES COMPLEXES 125

égal à la différence de ces modules. On établit les inégalités (11)


à l ’aide d ’un théorème de la géométrie élémentaire sur les côtés
d ’un triangle. On laisse au lecteur le soin de voir le cas particulier
où a, P et 0 se trouvent sur une droite ; ce n’est que dans ce cas que
l ’uiie ou l ’autre des relations (11) se transforme en une égalité.
Etant donné que a —ji = a + ( —(3) et
l-PIH P I (12)
(cette relation résulte ne serait-ce que de l ’interprétation géométri­
que du nombre —p), on déduit de (11):
| a | - | P K ! « - P I < ! a j + |P!> (13)
c’est-à-dire les mêmes inégalités pour ja —p| que pour |a + P|.
On aurait pu établir les inégalités (11) de la façon suivante.
Soient a = r (cos <p + i sin cp), p = r' (cos q/ + i sin q>') et soit
a + p — R (cos + i sin 'vp) la forme trigonométrique du nombre
complexe a + p. Ajoutant séparément les parties réelles et imagi­
naires, il vient:
r cos cp+ r' cos <p' = R cos
r sin (p+ r' sin q/ = R sin ;
en multipliant les deux membres de ces égalités respectivement par
cos^|) et par siiuj) et en les ajoutant, nous obtenons:
r (cos q) cos ij? + sin q>sin if) + r' (cos q/ cos + sin q>' sin ty) =
= R (cos2\|) -f- sin2t|>),
c’est-à-dire
rcos((p —i|))-|-r'cos (q/ —1|?) = R .
Le cosinus d’un angle étant, en valeur absolue, inférieur ou égal
à un, il en résulte l’inégalité: r -\~ rf ^ R ou encore | a | -L | p |
;> | a + p |. D’autre part, on a a = (a + P) — p = (a + P) +
+ (— P)- Il en découle, selon l’inégalité que nous venons de démon­
trer et compte tenu de (12), que
| a | < | a + P! + |—PI = |a + P|-HP|,
d’où l’on a |a | —| p | < | a + P|-
Il faut remarquer que l ’ensemble des nombres complexes n ’est
pas ordonné, ces nombres étant représentés par les points d’un plan,
de sorte qu’un nombre complexe ne peut pas être supérieur ou infé­
rieur à un autre nombre complexe, ce qui n’est pas le cas de l ’ensem­
ble des nombres réels identifiés aux points de l’axe réel et, pour cette
raison, ordonnés de façon naturelle. C’est pourquoi on peut établir
des inégalités pour les modules et non pas pour les nombres complexes
eux-mêmes.
126 NOMBRES COMPLEXES [CH IV

Nombres complexes conjugués. Soit un nombre complexe a =


— a + bi. Le nombre a — bi, noté a, est dit conjugué du nombre a:
Rappelons que nous avons déjà utilisé les nombres complexes
pour la division bien que nous n’ayons
M pas employé ce terme.
Evidemment le conjugué de a est enco­
re a, de sorte qu’on peut parler d ’un couple
de nombres complexes conjugués. Tout
nombre réel coïncide avec son conjugué ;
D la réciproque est également vraie : si un
nombre complexe coïncide avec son conjugué,
c’est qu’il est réel.
L ’interprétation géométrique d’un cou­
ple de nombres conjugués est la suivante :
ces nombres sont des points symétriques
par rapport à l’axe réel (fig. 7). On en déduit les égalités;
| ex J—| oc |T arg —arga. (14)
La somme et le produit des nombres complexes conjugués sont des
nombres réels. En effet,
a + a = 2a, 1
■ t (15)
a a = a2+ b2= \a\2. j
La dernière égalité montre que aa est positif si a ^ O . On
montrera au § 24 que cette propriété des couples de nombres com­
plexes conjugués leur est caractéristique.
L’identité
(fl —bi) 4" (c—di) = {a -f- c) —(b -}- d) i
montre que le nombre complexe conjugué de la somme de deux nombres
complexes est la somme des nombres conjugués de chaque terme de la
somme :
a + p = a + p. (16)
De même, l ’identité
(a—fri) (c —di) = (ac —bd) —{ad + bc) i
montre que le nombre complexe conjugué du produit est égal au
produit des nombres conjugués de chaque facteur ;
ap = a*p. (17)
§ 19} e x tra c tio n de ra c in e d e s nom bres com plexes 127

La vérification directe donne les formules


a —P= a —p, (18)
(19)

Démontrons la proposition suivante : si le nombre complexe a


s’exprime par les nombres complexes plT p2, . . ., pn au moyen
des quatre opérations algébriques (addition, soustraction, multi­
plication et division), alors, remplaçant dans l ’expression de a
les nombres p2, . . pA par leurs conjugués p1? . . P*, on ob­
tient a. En particulier, si a est réel, en remplaçant pft par ph on ne
modifie pas la valeur de a.
Démontrons cette proposition par récurrence sur /i, étant donné
que pour n — 2 elle est évidente en vertu des formules (16)-(19).
Supposons que le nombre a s’exprime par les nombres P*, p2, . . .
. . pn (pas forcément tous distincts). Dans cette expression les
opérations algébriques sont appliquées dans un ordre déterminé.
L’opération finale est appliquée à un nombre yx, exprimé par plt
P29 ♦ - P*, 1 n — 1, et à un nombre y2, exprimé par
pA+1, . . ., P„. En vertu de l’hypothèse de récurrence, yx est rempla­
cé par yt quand on remplace px, . . ., $k par p2, . . pÂ, de même
que y 2 est remplacé par y 2 si l’on remplace pfe+1, . . ., pn par
pA+1, . . ., pn. Or, les formules (16)-(19) montrent que le passage
des nombres yAet y2 aux nombres yx et y2 remplace le nombre a par
le nombre a.

§ 19. Extraction de racine des nombres complexes


Nous nous occuperons dans ce paragraphe des puissances et des
racines des nombres complexes. Pour élever un nombre complexe
a = a + bi à la puissance nème (n est un entier positif), il suffit
d’appliquer à l’expression (a + bî)n la formule du binôme de New­
ton (cette formule est valable pour les nombres complexes, car sa
démonstration n ’est basée que sur la loi de distributivité) en tenant
compte des égalités: i2 = — 1, i9 = — i, i4 = 1 et, plus générale­
ment, des égalités
= j4fc+ 2 ^ +3 ^

Le nombre complexe a étant représenté sous la forme trigonomé-


trique, la relation (4) du paragraphe précédent donne immédiatement
l ’égalité, dite formule de Moivre :
[r(cos cp+ i sin <p)]n ~ rn (cos mp-f i sin wp), (1 )
128 NOM BRES COM PLEXES [CH . IV

où n est un entier positif quelconque. Ainsi, pour élever un nombre


complexe à la puissance rcème, il faut élever à la puissance nème son
module et multiplier par n son argument. La formule (1) est égale­
ment valable pour n entier négatif. Effectivement, en vertu de l’iden-
tité a~n = (a"1)”, il suffit d ’appliquer la formule de Moivre au
nombre a -1 dont la forme trigonométrique est donnée par la rela­
tion (10) du paragraphe précédent.
Exemples.
1) t37 = —1 ;
2) (2 + 5i)3 = 23 4- 3 ■22.5i + 3.2 - 52*2 + 53*3 =
= 8 + 60i —150— 125i= —142 —65i ;

3) ^*\/2 ^cos + i sin J = ( l / 2 ) 4 (cos n + i sin n) ==—4 ;

4) |^3 ^cos -~- + i sin J = 3-3 cos ^ — g- Ji) +

+ ,sin( - T n) ] = à ( C0BT ,l + ,!,înT n)


Un cas particulier de la formule de Moivre, à savoir
(cos qp+ i sin qp)n = cos rcqp+ i sin mp,
permet d’obtenir les expressions de sin rcqp et de cos mp en fonction
des puissances de sin qp et de cos <p. En effet, développant le premier
membre de cette égalité et séparant les parties réelle et imaginaire,
il vient :
cos mp = cosn 9 ^ ( 2 ) cosn"2(P*sina <p-+

+ ( 2 ) cos"-* cp■siri4 qp— ,. . ,

sin nqp = ^ j cos"”1qp•sin ^ ( 3 ) cosn~3 qp-sin3 cp+

+ ( * j cosn"5qp-sin6qp— . . . ;

ici ( 2 ) est notatiOIi habituelle du coefficient binomial:


/n \ n(n—1) (re—2) ... (n —fc+ 1)
\ k ) — 1-2-3 . . . k
Si n^= 2, on retrouve les formules bien connues
cos 2(p = cos2qp—sin2qp»
sin 2qp = 2 cos qpsin qp;
§ 19] EXTRACTION DE RACINE DES NOMBRES COMPLEXES 129

si n = 3, on obtient les relations


cos 3cp = cos3cp—3 cos (p sin2cp,
sin 3cp = 3 cos2(p sin <p— sin3 cp.
L’extraction de racine des nombres complexes comporte beaucoup
plus de difficultés. Commençons par extraire la racine carrée d ’un
nombre complexe a = a + bi. Pour le moment, nous ignorons
l ’existence d’un nombre complexe dont le carré serait égal à a.
Supposons qu’un tel nombre existe, soit u + vi ; alors
Y a + bi = u + vi,
ou encore
a-\-bi = (u-\-vi)2,
d’où il suit
u2— v2= a, 1
( 2)
2uv — b. J
Elevant au carré les deux membres des équations (2) et les addi­
tionnant, il vient :
(u2— v2)2-f iu 2v2— (u2+ ^a)2= a2+ fc2,
d’où l ’égalité
u2+ u2= -f* Y g2+ b2;
le second membre de la dernière relation est affecté du signe +
car les nombres u et v sont réels. Cette égalité avec la première
des équations (2) donne :
U2= -g-(a + V V + £>2) ,

Extrayant les racines carrées au sens arithmétique des seconds mem­


bres nous sommes conduits à deux valeurs opposées de u et de v.
Toutes ces valeurs sont réelles, car les seconds membres dans les
expressions de uz et v2 sont positifs, quels que soient les nombres
réels a et b. Etant donné que le signe du produit uv doit être celui
du nombre b (voir la seconde des équations (2)), nous obtenons deux
nombres complexes différents (et non pas quatre), représentés sous
la forme u + vi, qui sont les racines carrées de a ; ces nombres sont
opposés. Il est facile, quoiqu’un peu laborieux, de vérifier que les
nombres complexes trouvés sont effectivement les racines carrées
de a. Ainsi, l’extraction de la racine carrée d'un nombre complexe
quelconque est toujours possible et donne deux racines opposées.
En particulier, nous sommes maintenant en mesure d’extraire
la racine carrée d’un nombre réel négatif, dont les valeurs seront
9-1212
130 NOMBRES COMPLEXES tCH IV

purement imaginaires. En effet, si a < 0 et b = 0, alors ] / a 2+ &2=


— — a (la racine carrée devant être positive), d’où il vient : u2 =
= yi (a — a) = 0, à savoir u = 0, de sorte que y /— a = ± w.
Exemple* Soit a = 21 — 20i. Alors l / a 2 + ô2 = y S T ^ S X ) = 29, de
sorte que u2 = (21 29) = 25, v2 = (— 21 + 29) = 4, ou encore u — ± 5,
v = ±2. Le nombre b étant négatif, les signes de u et v doivent être opposés,
de sorte que
V 2 1 -2 0 i = ± ( 5 —2i).
Si on essaye d’extraire d’un nombre complexe de la forme a -f
+ bi une racine d’ordre supérieur à deux, on se heurte à des diffi­
cultés insurmontables. Ainsi, comme on le verra au § 38, si nous
voulons extraire la racine cubique d’un nombre complexe a + bi,
il est nécessaire de résoudre une équation auxiliaire du troisième
degré, ce qui exige, à son tour, l’extraction de la racine cubique
d’un nombre complexe. D’autre part, la forme trigonométrique s’y
prête parfaitement et permet de résoudre complètement ce problème.
Soit un nombre complexe a = r (cos qp + i sin <p) dont il faut
extraire la racine rcème. Supposons que cela soit possible et que
p (cos 0 -|- i sin 0) soit la racine en question, de sorte que nous
avons l’identité
[p (cos 0 + i sin 0)]n = r (cos qp -f j sin qp). (3)
La formule de Moivre donne pn = r, ou encore p = r ; ici y / r
est la valeur positive bien définie de la racine nôme d ’un nombre
réel positif (au sens arithmétique). D ’autre part, l’argument du
premier membre dans (3) est égal à rc0. Néanmoins, on ne peut pas
dire que nQ soit égal à qp, mais, de toute façon, on a «0 = qp + 2jtk,
où k est un entier, d ’où il vient
0 __ <P+ 2Jik
n

Réciproquement, le nombre ÿ*r ^cos _[_isin j ?


quel que soit Ventier k, positif ou négatif, élevé à la puissance rcème, est
égal au nombre a. Ainsi,
y f r (cos qp + i sin qp) — y f r (cos i sin . (4)
Le paramètre k parcourant l’ensemble des nombres entiers,
il arrive parfois que certaines racines rcômes, correspondant aux dif­
férents k, coïncident. En effet, si k prend respectivement les valeurs :
k —0, 1, 2 , ', . . , n — 1, (5)
§ 19] EXTRACTION DE RACINE DES NOMBRES COMPLEXES 131

alors nous obtenons n racines nèmes distinctes de a, car remplaçant k


par k + 1, l’argument de la racine augmente de — . Soit, à présent,
k un entier quelconque et k = nq + r, avec r et g entiers, 0 r
rc — 1. Alors
<p + 2nAr < p 2 (nq + r) jt <p+2nr , 0
IT n ~~ n r*nq,
de sorte que nous avons la même racine rcème que pour k e= r, car
les arguments correspondants se distinguent l ’un de l ’autre de 2nq.
Ainsi, esZ toujours possible d'extraire la racine rcème d'un nombre
complexe, celle-ci ayant n valeurs distinctes. Les racines nème8 d’im
nombre a se trouvent toutes sur la circonférence de rayon y f \ a \et de
centre 0, la distance entre deux valeurs voisines étant constante.
En particulier, la racine nème d ’un nombre réel a a n valeurs
distinctes ; selon le signe de a et de la parité de n il y a tout au plus
deux valeurs réelles parmi ces racines.
Exemples.

1) P = |/ / 2 (cos-|-3i
3
+<sinJ _ 5—

k= 0 : 0 o= > /2 (co s—- + esin— ) ;

fc= l : 0, = { /2 (cos-11 - 3i + i sin -11 - n) ;

k = 2 : 0 2 = ^ 2 (cos - 1 |- n + i s i n - 1 | - .

/ ü ÎT •- 2 '+ 2 nk — -\-2.ik
2) P = y * = ] / cos ~2 Jr i sin °os------^ ------ f - is in ----- ^------ "•

0 w , . . n 1/2 , . V 2
0o = cos-^- + t sin-^- = -î~— l-i-*—-;
5 5
0! = cos ji -j- i sin it = —0O.

3) 0 = 1/"—8 = y 8 (cos 3i -|- i sin n) = 2 ( cos - -f- i sin K ^;

00 = 2 (ços ——(-i sin-^-^ = 1 + i 1/3 ;


0! — 2 (cos 3i-{- i sin n) = —2 ;
02=2 (cos — -+ £ sin = 1 — i ~\/3.
132 NOMBRES COMPLEXES [CH. TV

Racines de l'imité. Un cas particulièrement important est celui


de l’extraction de la racine nème de l’unité que Ton écrit sous la
forme 1 — cos 0 + i sin 0. Cette racine a n valeurs distinctes qui,
en vertu de (4), sont toutes données par la formule
y f \ = cos ^ - + i sin ; k = 0, 1, . . . , n — 1. (6)
Les valeurs réelles de la racine nème de l ’unité correspondent à k =
0 et à k= y si n est pair; si n est impair, il n’y a qu’une racine
réelle (k = 0). Les nombres complexes (6) sont situés sur la circonfé­
rence de rayon 1 avec l ’origine pour centre et forment un polygone
régulier dont un des sommets est le nombre 1. Il en résulte que les
racines raèmes <je l ’unité non réelles sont symétriques par rapport
à l ’axe réel, c’est-à-dire conjuguées deux à deux.
La racine carrée de l ’unité a deux valeurs distinctes: 1 et — 1,
la racine 4ôme en a quatre: 1, —1, i et —i. Il est utile de retenir
les trois racines cubiques de Vunité. D’après la formule (6), ce sont
2 jx& 2nk
les nombres cos —g— |- i sin -g—, k = 0, 1, 2, c’est-à-dire le nombre 1
et les nombres complexes conjugués:
2 jt , . . 2 ji
€i ==cos -g- + l sm — = —Y1 + , l.
4ji t . . 4jx i
e2= cos-g- + is m -g -= — ^ — 1
Toutes les racines rcèmes d'un nombre complexe s'obtiennent en
multipliant Vune de ces racines successivement par toutes les racines
Thèmes de Vunité. En effet, soit P une des racines rcèmes de a, de sorte
que §n = a, et soit e une racine nème quelconque de l ’unité : en = ’l.
Alors (pe)n= pnen — a, c’est-à-dire pe est encore une racine de a.
Multipliant P respectivement par chaque racine rcème de l ’unité,
on obtient n racines distinctes de y ^ a , c’est-à-dire toutes les racines
n 6 m es de a

Exemples. 1) L'une des racines cubiques de — 8 est —2. Les deux autres
sont, en vertu de (7)t les nombres: —2e! = 1 — i ”l/3 et —2e 2 — 1 + i
(voir l'exemple 3 ci-dessus).
2 ) jf&i a quatre valeurs: 3, —3, 3i, —3i.

Si b et r\ sont deux racines /ièmes de l'unité, er] est encore une racine
nème de Vunité. En effet, en — 1, rj” = 1, de sorte que (eti)n =
= enr f = 1. Ensuite, si e est une des racines ntm™de l'unité, e~x
en est une aussi. En effet, 6n = 1 et e^e-1 = 1, de sorte que en X
X (b”1)71 = 1, ou encore (e"1)71 = 1. Plus généralement, toute
puissance d'une racine nème de l'unité est encore une racine nème de
l'unité.
§ 19] EXTRACTION DE RACINE DES NOMBRES COMPLEXES 133

k
Soient l et k deux entiers quelconques. Si — est entier, alors
toute racine A;ème de l ’unité est aussi une des racines Zèmes ^e l’unité.
Il en découle que l ’ensemble de toutes les racines nèmc& de l ’unité
contient certaines racines rc'èmes de l ’unité, où n' est un des divi­
seurs de n. Néanmoins, pour tout n il existe au moins une racine
nème, soit £0, telle que ej' 1 quel que soit l ’entier n' compris
entre 0 et n: 0 < n' < n. Une telle racine /ième de l’unité est dite
racine primitive. Son existence découle de la formule (6) ; en effet,
désignant par e0> el7 . . M en_! toutes les racines nèIïies de l ’unité
(e0 = 1), il vient, compte tenu de la formule de Moivre (1),
= Bft»
Ainsi, e* ^ 1, si k est compris entre 0 et n : 0 < k < n> de sorte
que 6! = cos + i s in ^ - e s t effectivement une racine primitive.
Une racine nème de Vunité e est primitive si et seulement si toutes
les puissances k — 0, 1, . . n — 1, sont des nombres complexes
distincts ou encore si Vensemble 1, e, s2, . . en coïncide avec Ven­
semble de toutes les racines rcômes de Vunité.
En effet, si toutes les racines 1, e, e2, . . en—1 sont distinctes,
alors e est évidemment une racine primitive rcème de l ’unité. Récipro­
quement, si eft = b1 avec 0 ^ k < l ^ n — 1, alors el~h = 1 avec
— k ^ n — l, de sorte que e n ’est pas une racine primitive.
Le nombre trouvé ci-dessus n ’est pas la seule racine primitive.
Le théorème suivant permet de trouver toutes les racines primitives
nèmes de l ’unité.
Soit e une des racines primitives rcèmes de Vunité. Pour que eh soit
également une racine primitive, il faut et il suffit que k et n soient
premiers entre eux.
En effet, soit d le plus grand commun diviseur des entiers k
et n. Si d > 1 et k = dk', n = dnf, alors
(eft)n' = eftn' = ek'n = (en)h' = 1,
de sorte que ek n ’est pas une racine primitive.
Soit, d’autre part, d = l , et supposons que efe soit l ’une des
racines /rcèmes de l ’unité avec 1 Alors
(8fc)m= efcm= l .
Le nombre e étant une racine primitive jième de l ’unité, l ’entier km
doit être divisible par n . Etant donné que 1 m <C n, il en résulte
que k et n ont des diviseurs communs supérieurs à un, contraire­
ment à notre hypothèse.
Ainsi, le nombre des racines primitives nème8 de l ’unité est égal
au nombre des entiers positifs k inférieurs à n et tels que k et n
134 NOMBRES COMPLEXES [CH. IV

soient premiers entre eux. On a l ’habitude de noter ce nombre par


<p (n) ; l’expression de cp (n) se trouve dans les cours de théorie des
nombres.
Si p est un nombre premier, alors toutes les racines pômes de
l ’unité, excepté le nombre 1, sont primitives. D’autre part, parmi
les racines 4èmes, par exemple, les racines primitives sont i et — i
et non pas 1 et — 1.
Chapitre V POLYNOMES ET LEURS ZÉROS

§ 20. Opérations sur les polynômes


Le contenu des deux premiers chapitres de ce livre, c'est-à-dire
la théorie des déterminants et des systèmes d'équations linéaires,
est le développement immédiat de la branche d'algèbre élémentaire
qui, partant d’une équation du premier degré à une inconnue, conduit
à l'étude des systèmes de deux et trois équations du premier degré,
respectivement à deux et à trois inconnues. En algèbre élémentaire
on attribue encore plus d ’importance à une autre direction, qui
consiste à passer d'une équation du premier degré à une équation
du second degré et, ensuite, à certains types d'équations du troi­
sième et du quatrième degré à une inconnue. Cette direction prend
les proportions d’une branche importante, très riche en résultats,
d'algèbre supérieure, qui est consacrée à l ’étude des équations
de degré n à une inconnue ou indéterminée. Cette branche précède
du point de vue historique les autres théories algébriques ; elle fait
l'objet du chapitre présent et de plusieurs chapitres à venir.
La forme générale d ’une équation de degré h (n étant un entier
positif) est
a0xn + atxn^ + . . . + an. tx + an = 0. (1)
Les coefficients a0, a2, . . an de cette équation sont des nombres
complexes ; en outre, le coefficient a0 du terme principal est supposé
non nul.
Pour l’équation (1) on pose le problème de trouver toutes ses
racines. En d ’autres termes, il s’agit de trouver les valeurs numé­
riques de l’indéterminée x telles que l’équation (1) soit satisfaite,
c’est-à-dire en remplaçant x successivement par chacune des valeurs
en question et en effectuant les opérations indiquées dans le premier
membre de (1), ce dernier doit s'annuler.
Il est préférable de poser un problème plus général, à savoir
étudier le premier membre de l’équation (1)
a©#” -j- + . . . + an^ x + dny (2)
dit polynôme de degré n d'une indéterminée x. Il faut avoir en vue
qu'on appelle polynôme une somme finie de puissances d'expo-
136 POLYNÔMES ET LEURS ZÉROS [CH. V

sants entiers non négatifs de l'indéterminée x munies de


certains coefficients numériques; il n Ten est pas ainsi en algèbre
élémentaire où toute somme finie de monômes est appelée poly­
nôme. En particulier, nous ne considérons pas comme polynômes
les expressions contenant des puissances d’exposants négatifs ou
fractionnaires de l ’indéterminée x; par exemple, les expressions
2x2 —*— + 3, ou bien ax~3 + 6x~2 + ex'1 + d + ex + /x2, ou
i
encore x2 + 1, ne sont pas des polynômes. Pour abréger
l’écriture des polynômes on utilisera les notations / (x), g (x),
q> (x), etc.
Deux polynômes / (x) et g (x) coïncident (ou encore coïncident
identiquement) : / (x) — g (x), si et seulement si les coefficients des
mêmes puissances de x dans les expressions de / (x) et de g (x) sont
égaux. En particulier, tout polynôme dont au moins un des coeffi­
cients est non nul ne peut pas être égal au polynôme nul ; par consé­
quent, le signe d’égalité qu’on utilise pour écrire une équation de
degré n (1) n ’a rien à voir avec la notion d’égalité de deux polynô­
mes introduite ci-dessus. Le signe = utilisé dans la suite pour établir
la relation d’égalité entre les polynômes signifie que les polynômes
correspondants coïncident identiquement.
Ainsi, un polynôme de degré n (2) doit être considéré comme une
expression formelle bien définie quand on se donne la suite ordonnée
de ses coefficients a 0, aly . . ., an avec a0 0. Le sens exact de ces
mots sera élucidé plus tard au chapitre X. Notons qu’en dehors
de la forme (2) d’un polynôme (où les monômes sont ordonnés suivant
les puissances décroissantes de x), on admet d’autres formes d’écriture
pour les polynômes qui s’obtiennent de la forme (2) en déplaçant
certains monômes ; en particulier, on utilisera la forme où les monô­
mes sont ordonnés suivant les puissances croissantes de x.
Evidemment, on pourrait considérer un polynôme (2) du point
de vue de l ’analyse, c’est-à-dire comme une fonction complexe d’une
variable complexe x. Or, il faut prendre en considération que deux
fonctions ne sont égales que lorsque leurs valeurs coïncident pour toutes
les valeurs de la variable x. Il est clair que deux polynômes égaux
au sens algébrique formel indiqué ci-dessus coïncident du point
de vue de l’analyse en tant que fonctions de x. La réciproque ne sera
démontrée qu’au § 24. Après cela, il deviendra évident que les deux
points de vue, algébrique et analytique, de la notion de polynômes
à coefficients numériques sont équivalents ; mais pour le moment
nous devons chaque fois préciser le sens qu’on attribue à la notion
de polynôme. Dans ce paragraphe et dans les deux paragraphes
suivants, nous considérons les polynômes comme des expressions
algébriques formelles.
§ 20] OPÉRATIONS SUR LES POLYNÔMES t37

Il est clair que pour tout entier n il existe des polynômes de de­
gré n* Outre les polynômes de degre un, deux, trois, etc., nous pouvons
rencontrer des polynômes de degré nul, c'est-à-dire des nombres com­
plexes non nuis. Le nombre zéro peut être également considéré
comme un polynôme; c’est le seul polynôme dont le degré ne soit
pas bien défini.
Maintenant, nous allons définir l ’addition et la multiplication
des polynômes à coefficients complexes. Ces opérations seront intro­
duites par analogie avec les opérations correspondantes sur les
polynômes à coefficients réels, connues du cours d’algèbre élémen­
taire.
Soient deux polynômes / (x) et g (x), ordonnés, pour plus de com­
modité, suivant les puissances croissantes de x:
f(x) = a0+ aix + . . . + a n- lzn-1~\-anxn, an^ 0,
g (x) = b0+ biX + *.. + bs^x3' 1+ b9x \ b8=5^ 0,
soit, en outre, n > s ; on appelle somme des polynômes f(z) et g(x)
le polynôme
/ (x) “h ë (æ) ~ co+ cix • • • + Cn-iZ11"1+ cnxn9
dont les coefficients sont les sommes des coefficients des mêmes
puissances de x dans les expressions de f (x) et g (x) :
a ^ d i + bu i = 0, 1, . . . , n\ (3)
si n > s, alors les coefficients 6S+1, &s+2, - ♦ bn sont nuis. La som­
me est de degré n si n > s; si n = s, il peut arriver que la somme
soit de degré inférieur à n, notamment, cela a lieu si bn = — an.
On appelle produit des polynômes / (x) et g (x) le polynôme
f(x)'g(*) = d o + d i X + . . . + dn+s-iX71**-1+ dn+8xn+\
dont les coefficients sont définis par les formules
di= S a*bi> ^ O , 1, . . . , rc + s — 1, n + s9 (4)
c’est-à-dire le coefficient dt est la somme des produits de tous les
coefficients ak de / (x) et bt de g (x) tels que la somme des indices
k + l soit égale à i ; en particulier, d0 — a0b0, dx = a0bx + axb0, . . .
.. = anbs. La dernière relation a pour conséquence l ’iné­
galité: dn+8 0, de sorte que le degré du produit de deux polynômes
est égal à la somme des degrés des facteurs.
Il en résulte que le produit de deux polynômes non nuis est un
polynôme non nul.
Quelles sont les propriétés dont jouissent les opérations sur les
polynômes introduites ci-dessus? h'addition est commutative et as­
sociative, ce qui résulte immédiatement des propriétés analogues
138 POLYNOMES ET LEURS ZÉROS [CH. V

de cette opération sur les nombres, car l’addition des polynômes


se ramène à celle des coefficients des mêmes puissances de l ’indé­
terminée. On peut retrancher un polynôme d’un autre, le nombre
zéro jouant le rôle du polynôme nul et le polynôme opposé à / (x)
étant défini par la formule
—/ (x) = —a0—üiX — . . . —an^ x n~l —anxn.
La commutativité de la multiplication des polynômes découle
de la même propriété des nombres et du fait que dans l ’expression
des coefficients du produit des polynômes / (x) et g (x) les coefficients
des facteurs interviennent de façon symétrique. On peut démontrer
Vassociativité de la multiplication de la manière suivante: soit, outre
les polynômes / (x) et g (x), encore un polynôme
h (x) = c0+ ctx + . . . + ct-iz1"1+ ctxl, c* ^ 0,
alors le coefficient de x\ i = 0, 1, . . . , « + $ + £, dans l’expression
du produit [f {x) g{x)]h(x) est
S ( S Çm = 2

et le coefficient de x { dans l ’expression de f (x) [g (x) h (x)J est

Enfin, la distributivité découle de l ’égalité


2 “H ^ S
*4” S bkÇfo
' h+i=i
le premier membre de la dernière égalité étant le coefficient de x1
dans l ’expression de [/ (x) + g (x)] h {x) et le*second le coefficient
de x i dans l ’expression de / (x) h (x) + g (x) h (x).
Notons que’l'unité pour la multiplication est le nombre 1 consi­
déré comme un polynôme de degré nul. D’autre part, un polynôme
f (x) a pour inverse un polynôme f ' 1 (x) tel que
/ ( * ) r l ( * ) = i, (5)
si et seulement si f (x) est de degré nul. En effet, si f (x) = a, où a est
un nombre non nul, alors f~l (x) = a"1. Si, par contre, / (x) est
de degré ra, n ^ 1, et s’il existait un polynôme Z*’1 (x) tel que (5)
soit satisfait, alors le degré du premier membre de (5) serait supé­
rieur ou égal à n, tandis que celui du second membre est nul.
Il en résulte que la multiplication des polynômes n'a pas d'opé­
ration inverse, c’est-à-dire que la division des polynômes, ayant pour
résultat un autre polynôme, n’existe pas. De ce point de vue l’en­
semble des polynômes à coefficients complexes rappelle celui des
§ 20] OPÉRATIONS SUR LES POLYNÔMES 139

nombres entiers. Cette analogie va assez loin, de sorte que pour les
polynômes, tout comme pour les nombres entiers, il existe une métho­
de de division avec reste. Cette méthode, dans le cas des polynômes
à coefficients réels, est connue du lecteur du cours d'algèbre élémen­
taire. Toutefois, étant donné que nous considérons à présent les
polynômes à coefficients complexes, il faut donner de nouveau
toutes les définitions et démonstrations nécessaires.
Pour tout couple de polynômes f (x) et g (x) on peut trouver un autre
couple de polynômes q {x) et r (x) tels que
f ( x ) ^ g ( x ) q ( x ) + r(x) ; (6)
en outre, le degré de r (a:) est strictement inférieur à celui de g (a;) ou
bien r (x) — 0. Les polynômes q (x) et r (x) vérifiant ces conditions
sont définis de façon unique.
Démontrons d’abord la seconde partie du théorème. Soit un autre
couple de polynômes q (x) et r (x), vérifiant l ’égalité
f(x) = g( x)q(x)+r( x) , (7)
où le degré de r(x) est strictement inférieur au degré de g(x)1.
Les premiers membres des égalités (6) et (7) étant les mêmes, il
vient
g (x) [q (x) — q (*)] = r (x) — r (x).
Le degré du second membre de cette égalité étant strictement infé­
rieur au degré de g (x), il en résulte que q (x) — q (x) = 0, car, dans
le cas contraire, le degré du premier membre serait supérieur ou
égal au degré de g (x). Donc, on a q (x) = q (x) et, par conséquent,
r (x) = r (x), ce qu’il fallait démontrer.
Passons à la démonstration de la première partie du théorème.
Soient n et * les degrés respectivement des polynômes / (x) et g (x).
Si n C s, alors on peut poser q (x) 0, r (x) = / (x). Soit n ^ s;
appliquons le procédé qu’on utilise en algèbre élémentaire pour
la division des polynômes à coefficients réels ordonnés suivant les
puissances décroissantes de l ’indéterminée. Soient
/ (x) = a0xn + a ^ 1+ . . . . + a n- \X + a,ny a0^ 0,
g (x) = b0x* + bix5-1+ . . . + &s- tx + b6f b0 0.
Posant
/ (*) — x*~sg (x) = h (x). (8)
nous obtenons un polynôme dont le degré nx est inférieur à n.
Notons le coefficient de xn* dans cette expression par ai0. Posons
1 II est possible que r (a:) = 0. Par la suite nous ne ferons plus de mention
spéciale à ce sujet.
140 POLYNOMES ET LEU RS ZEROS CCH. v

ensuite
fi (x) — — xnt~sg (x) = f2(a;), (8i)
si on a encore nt ^ s et notons par n2 et a2ü respectivement le
degré de / 2 p et le coefficient de x n2 dans l ’expression de / a p ­
posons ensuite
/z (x) — x**-*g (x)= f3 (x), (82)
etc. •
Les degrés des polynômes / p , ft(x), f%{x), . .. décroissent:
n > n x> n 2> ••• î donc, après avoir répété un nombre fini de fois
ce procédé nous avons un polynôme fk(x),
fk-1(x) — xnk-'~*g (x) = fh (x), (8,,.!)
tel que son degré nk soit strictement inférieur à s, ce qui arrête
le processus de division. Additionnant les égalités (8), (8^, . . . , (8ft_i),
il vient :
/ (* ) - ( - g - z n- s + ^ î " > - + . . . + g (X) = h ( X),

c’est-à-dire les polynômes

* 1 * ) = % ^ + % * * - + • • • + t Î A , ‘ ''
r (x) = fh (x)
vérifient, effectivement, l’égalité (6); en outre, le degré de r (x)
est strictement inférieur au degré de g (x).
Notons que le polynôme q (x) est appelé quotient de la division
de / P par g (x) et r (x) reste de la division.
Le procédé de division avec reste donné ci-dessus permet d’établir
le résultat suivant : si f {x) et g (x) sont des polynômes à coefficients
réels, alors tous les polynômes f x p , / 2 P , . . . et, par conséquent,
le quotient q P et le reste r (x) sont des polynômes à coefficients réels.

§ 21. Diviseurs. Plus grand commun diviseur


Soient deux polynômes non nuis à coefficients complexes / p
et (p p . Si le reste de la division de / p par <p p est nul, ou encore
si / p est divisible par <p p , alors le polynôme cp p est appelé
diviseur du polynôme / p .
Pour qu'un polynôme (p (x) soit diviseur d'un autre polynôme
f (x), il faut et il suffit qu'il existe un polynôme ^ P tel que l'égalité
f (x) = (P (*) ip (x) (1)
soit satisfaite.
§ 21] D IV ISE U R S. PLUS (iRAND COMMUN D IV ISEU R 141

En effet, si qp (a:) est un diviseur de / (x), alors le polynôme


\p (a:) est le quotient de la division de / (x) par qp (x). Inversement,
supposons qu’il existe un polynôme ip (x) tel que l’égalité (1) soit
vérifiée. Nous avons démontré au paragraphe précédent l’unicité
des polynômes q (x) et r (x) tels que l’égalité
f(x)=<p(x) q (x)-fr(x)
soit vérifiée, ici le degré de r (x) est inférieur à celui de q) (x). Appli­
qué dans notre cas, ce résultat montre que le quotient de la division
de / (x) par qp (x) est tp (x) et que le reste est nul.
Il est clair que si l’égalité (1) est vraie, alors ip (x) est encore un
diviseur de / (x). Bien entendu, le degré de cp (x) n ’est pas supérieur
à celui de / (x).
Notons que \p (x) est un polynôme à coefficients rationnels (res­
pectivement réels) si / (x) et <p (x) sont des polynômes à coefficients
rationnels (respectivement réels); en effet, cela résulte du procédé
de division donné ci-dessus. Evidemment, un polynôme à coeffi­
cients rationnels (respectivement réels) peut avoir des diviseurs qui
ne possèdent plus cette propriété, comme le montre l’exemple suivant :
x2+ 1 = (x —i) (x + i).
Notons quelques propriétés fondamentales de la division sans
reste des polynômes, qui trouveront de multiples applications.
I. Si / (x) est divisible par g (x) et si g (x) est divisible par h (x),
alors f (x) est divisible par h (x).
En effet, on a / (x) — g (x) qp (x) et g (x) = h (x) ip (x) ; par
conséquent, / (x) = h (x) [ip (x) (p (x)].
II. Si f (x) et g (x) sont divisibles par qp (x), alors il en est de même
pour la somme f (x) + g (x) et pour la différence f (x) — g (x).
En effet, les égalités f (x) = qp (x) \p (x) et g (x) = cp (x) %(x)
entraînent : / (x) ± g (x) = <p (x) [ip (x) ± % (x)].
III. Si f (x) est divisible par qp (x), alors le produit f (x) g (x),
où g (x) est un polynôme quelconque, est encore divisible par <p (x).
En effet, soit / (x) = q> (x) ip (x) ; alors / (x) g (x) =
= <p (x) hp (x) g (x)]. Des propositions II et III résulte la propriété
suivante:
IV. Si les polynômes f x (x), f 2 (x), . . fk (x) sont divisibles par
<p (x), alors le polynôme
fi {x) gi {x) + /2(X) gz (x) + . . . + fk (x) gk (X)
est également divisible par qp (x), quels que soient les polynômes g1 (x),
8% (^)i • • 8k
V. Tout polynôme f (x) est divisible par un polynôme de degré nul.
En effet, soient / (x) = aqX71 + ^ x 71"1 + . . . + an et c un
nombre non nul (ou, ce qui revient au même, c’est un polynôme
142 POLYNÔMES ET LEURS ZÉROS [CH. V

de degré nul) ; alors on a

/ ( * ) = c ( - r * n + T -* "~ * + • • • + — ) •
VI. Si f (x) est divisible par q> (x), alors f (x) est divisible par
ccp (x), où c est un nombre non nuL
En effet, l'égalité / (x) = q> (x) t|) (a:) entraîne la relation / (x) =
= [ctp {x)] ' { c ^ (x)].
VII. Soit un polynôme f {x) ; tout diviseur de f (x) de même degré
que f (x) est de la forme : cf (x), où c est un nombre, c 0.
En effet, f (x) = c-1 [cf (x)j, c’est-à-dire f {x) est divisible par
cf (x).
D’autre part, si / (x) est divisible par <p (a;) et si (p (x) a lé même
degré que / (x), alors le degré du quotient de la division de / (x)
par <p (x) doit être nul, de sorte que / (x) = rfqp (x), où d est un nombre
non nul; il en résulte que q> (x) = d ^ f (x).
D’où découl ela propriété suivante:
VIII. Pour que f (x) et g (x) soient simultanément divisibles Vun
par Vautre, il faut et il suffit que g (x) = cf (x), où c 0.
Enfin de VIII et I résulte la propriété suivante:
IX. Tout diviseur de f {x) est en même temps un diviseur de cf (x)t
0, et inversement.
Plus grand commun diviseur. Soient deux polynômes / (x) et
g(x). Un polynôme <p (x) est dit diviseur commun de / (x) et g (x)
si / (x) et g (x) sont divisibles par <p (x). La propriété V (cf. ci-des­
sus) montre que pour un couple de polynômes / (x) et g (x) tout
polynôme de degré nul est un diviseur commun. Si / (x) et g (x)
n’ont d’autres diviseurs communs que les polynômes de degré nul.
alors / (x) et g (x) sont dits premiers entre eux.
Dans le cas général, les polynômes / (x) et g (x) peuvent avoir
des diviseurs communs qui dépendent de x; nous voulons définir
le plus grand commun diviseur de ces polynômes.
Il serait incommode de définir le plus grand commun diviseur
comme diviseur commun de degré le plus élevé de / (x) et g (x).
En effet, nous ignorons pour le moment si une telle définition garan­
tit l ’unicité à un facteur numérique près du plus grand commun
diviseur et exclut l’existence des plus grands communs diviseurs
de degrés différents; en d ’autres termes, nous ne savons pas encore
si cette définition n ’a pas un caractère trop indéterminé. D’autre
part, en arithmétique le lecteur a déjà eu à faire avec le plus grand
commun diviseur des nombres entiers et sait, par exemple, que
le plus grand commun diviseur des nombres 12 et 18, qui est 6,
est divisible ^par tout diviseur commun de ces nombres ; en effet,
les diviseurs communs de 12 et 18 sont les nombres entiers 1, 2,
3, —1. —2. —3. —6 qui sont en même temps diviseurs du nombre 6,
§ 21] DIV ISEURS. PLUS GRAND COMMUN DIV ISEUR 143

Ceci nous incite à adopter la définition suivante dans le cas des


polynômes : s
On appelle plus grand commun diviseur des polynômes non nuis
/ (x) et g (x) un polynôme d (x) tel que d (x) soit un diviseur commun
de / {x) et g (x) et que d (x) soit divisible par tout disiveur commun
de f (x) et g (x). Le plus grand commun diviseur de / (x) et g (x)
est noté (/ (x), g (x)).
Cette définition laisse ouvert le problème d’existence du plus
grand commun diviseur d’un couplé de polynômes donnés / (x)
et g (x). Nous allons résoudre ce problème dans le sens positif.
En même temps, nous indiquerons un procédé pratique de calcul
du plus grand commun diviseur d’un couple de polynômes donnés.
Evidemment, nous ne pouvons pas étendre au cas des polynômes
la méthode de calcul du plus grand commun diviseur de nombres
entiers, puisque nous n ’avons pas pour les polynômes une décom­
position en produit analogue à celle des nombres entiers en un
produit de nombres premiers. Néanmoins, il existe un autre moyen
de trouver le plus grand commun diviseur de nombres entiers, dit
algorithme de la division successive ou, encore, algorithme d'Euclide ;
ce procédé est valable dans le cas des polynômes.
L’algorithme d’Euclide pour les polynômes consiste dans ceci*
Soient deux polynômes / (x) et g (x). On divise / (x) par g (x), ce
qui donne r1 (x) pour reste. On divise, ensuite, g (x) par rx (x) avec
r2 (x) pour reste, puis on divise (x) par r 2 (x), etc. Les restes ayant
les degrés décroissants, la suite des divisions successives doit aboutir
inévitablement à une division sans reste et le processus s’arrêtera.
Le reste rk (x), qui est diviseur du reste précédent rh_x (x), est le plus
grand commun diviseur des polynômes f (x) et g (x).
Pour le démontrer, écrivons le processus indiqué ci-dessus sous
la forme d’un système d’égalités:
f(x) = g(x)q i 0*0+ r , (z),
g(x) = ri (x)q2(x) + r2{x),
ri (x) = r 2(x) q3{x) + r 3 (x).

rn-3 (z) = rk. 2(x) qh. v(x) + rk-i (x),


rh-z {x) =Tk~t (x) qh (x) + rh (x),
rft_i (x) = rh (x) qk+i (x).
La dernière égalité montre que rk (x) est un diviseur de (x).
Il em résulte que les deux termes du second membre de l ’avant-
dernière égalité sont divisibles par rk (x) et, par conséquent, rh (x)
est un diviseur de rk^2 (x). Revenant en arrière de cette manière
dans les égalités (2), nous arrivons à la conclusion que rk (x) est
144 POLYNOMES ET LEURS ZÉROS [CH. V

un diviseur respectivement des polynômes rft_3 (x), . . r a (x),


rx (x). U en résulte, compte tenu (le la seconde égalité, que rk (x)
est un diviseur de g (x) et, en vertu de la première égalité, de / (x).
Ainsi, rk (x) est un diviseur commun de / (x) et g(x).
Soit maintenant <p (x) un diviseur commun des polynômes / (x)
et g (x). Le premier membre et le premier terme du second membre
de la première égalité (2) étant divisibles par q> (x), il en est de même
pour rl (x). Passant à la seconde égalité, puis à la troisième, etc.,
nous obtenons de la même maniéré que q> (x) est un diviseur des
polynômes r2 (x), r3 (x), . . . Enfin, r*_2 (x) et rk^ (x) étant divi­
sibles par (p (x), il s ’ensuit de l’avant-dernière égalité que rh (x)
est divisible par <p (x). Ainsi, rk (x) est, effectivement, le plus grand
commun diviseur de / (x) et g (x).
Ainsi, pour tout couple de polynômes, nous avons démontré
l ’existence du plus grand commun diviseur et indiqué le procédé
permettant de le calculer. Ce procédé montre, en particulier, que
le plus grand commun diviseur de f (x) et g (x) est un polynôme à coef­
ficients rationnels {respectivement réels), si les polynômes f (x) et g (x)
sont à coefficients rationnels {respectivement réels), quoique ces poly­
nômes puissent avoir d’autres diviseurs dont quelques coefficients
ne sont pas rationnels (réels). Ainsi, les polynômes à coefficients
rationnels
/(x) = x3— 3x2— 2x + 6, g{x) = x3+ x2—2x — 2
ont le plus grand commun diviseur x2 — 2 qui est un polynôme
à coefficients rationnels, bien qu’ils aient également un autre divi­
seur commun x - v 2 qui a un coefficient irrationnel.
Soit d (x) le plus grand commun diviseur des polynômes f (x)
et g (x). Alors, les propriétés VIII et IX (voir ci-dessus) montrent
que cd (x), où c est un nombre non nul, est également leur plus grand
commun diviseur. Autrement dit, le plus grand commun diviseur
de deux polynômes est défini de façon unique à un facteur numérique
non nul près. On peut convenir que le coefficient du terme principal
dans Vexpression du plus grand commun diviseur de deux polynômes
doit être toujours Vunitê. Avec cette convention, on peut dire que
deux polynômes sont premiers entre eux si et seulement si leur plus
grand commun diviseur est Vunité. En effet, tout nombre non nul
est le plus grand commun diviseur de deux polynômes premiers
entre eux ; multipliant ce nombre par son inverse, on obtient le
polynôme unité.
Exemple. Trouver le plus grand commun diviseur des polynômes
f (x) ~ x4-(- 3æ3 —x2—4z— 3, g (:r) = 3z3+ 10x3 + 2x—3.
Appliquant l ’algorithme d’Euclide aux polynômes à coefficients entiers,
nous pouvons, pour éviter les coefficients fractionnaires, multiplier j (x) ou
§ 21] DIV ISEURS. PLUS GRAND COMMUN D IV ISEUR 145

bien diviser g (x) par un nombre non nul, et cela non seulement au début de
chaque division, mais aussi pendant la division. Bien entendu, cela modifiera
les quotients, mais les restes (qui seuls nous intéressent) peuvent seulement se
trouver multipliés par certains facteurs de degré nul. Or, cela est permis lors­
qu’on calcule le plus grand commun diviseur.
Multiplions / (x) par 3 et divisons le résultat par g (x) ; il vient :
3*« + 9 * » — 3*2 — 1 2 * — 9 3*3 + 1 0 * 2 + 2 * — 3
3*3 -f-10*3 2** — 3* *+i
—*3 —5*2— 9 * — 9
(multiplions par—3)
3*s _j_ 15*2+ 27*+27
3*3+10*2 + 2*—3
5*a+ 25*+30.
Ainsi, le premier reste de la division est ri (*) = *2 + 5x + 6 (nous avons
divisé par 5). Divisons g (x)‘ par ri (x) :
3*3 + 10*2 + 2*—3 *2 + 5*+ 6
3*3 + 15*2 + 18* 3*—5
— 5*2 — 16* —3
-5 * 2 —25 * -3 0
9x+27.
Le second reste de la division est donc r2 (*) —* + 3 (nous avons divisé
par 9). Etant donné que
rt (*) = r2 (*) (* + 2),
le polynôme r2(x) est le reste qui est diviseur du reste précédent. Ainsi,
r2 (x) est le plus grand commun diviseur cherché des polynômes / (*) et g (*) :
(/(*), g (* ))= * + 3 .
Utilisons Talgorithme d’Euclide pour démontrer le th é o r è m e :
S o i t d (fc) le p l u s g r a n d c o m m u n d iv is e u r d e s p o ly n ô m e s f (x ) e t
g (x). A l o r s i l e x is te d e s p o ly n ô m e s u (x) e t v (x) te ls qu e V o n a i t
1 (*) u (x) + # (x) y (x) = d (x). (3)
E n o u tr e , s i le s d e g ré s d e f (x ) e t d e g (x ) s o n t p o s i t i f s , o n p e u t c h o is ir
u (x) e t v (x) d e m a n iè r e q u e le s d e g r é s d e u {x ) e t d e v (x ) s o ie n t in f é ­
r ie u r s r e s p e c tiv e m e n t a u x d e g r é s d e g (x) e t d e f (x ).
La démonstration est basée sur les égalités (2). Etant donné
que r h (x ) — d ( x ), posons u, (x) = 1, n, (x) = — q h (x) ; alors
l'avant-dernière égalité (2) donne
d (x ) = rft_2 (x) Ui (x) + rh_, (x) (x).
Mettant à la place de rft_t (x ) s o n expression par rn_2(x) et (x)
(voir l ’égalité qui précède l'avant-dernière égalité (2)), il vient :
d (x) = r*_3(x) Uj (x) + rfc_2(x) v 2 (x),

10-1212
146 POLYNÔMES ET LEURS ZÉROS [CH. V

avec u2 (x) = Vj (x), v2 (x) = ux (a:) — vx (x) q (a:). Contiauant


à revenir en arrière dans les égalités (2), nous sommes conduits à la
relation (3).
Pour démontrer la seconde partie du théorème supposons que
les polynômes u (x) et v (x), qui vérifient l ’égalité (3), soient déjà
trouvés, mais que, par exemple, le degré de u (x) soit supérieur
ou égal au degré de g (x). Divisons u (a:) par g {x) :
w(x) = g(*)?(z) + r(x),
ici le degré de r(x) est inférieur au degré de g(x). Remplaçons
u (x) dans (3) par la dernière expression, il vient:
f (*) r (x) + g (;x) Iv(x) + f (x) q(x)] = d (x).
Le degré du facteur qui multiplie / (x) est déjà inférieur au degré
de g (x). Le degré du polynôme entre les crochets est, à son tour,
inférieur au degré de / (x), car, dans le cas contraire, le degré du
second terme dans le premier membre serait supérieur ou égal au
degré du produit f (x) g (x), et, le degré du premier terme étant
strictement inférieur à celui de f (x) g (x), le premier membre de la
dernière égalité aurait un degré supérieur ou égal au degré de
/ (x) g (x). Or, cela est impossible, le degré du polynôme d(z) étant,
sous nos hypothèses, strictement inférieur au degré de / (x) g (x).
Le théorème est démontré. En même temps, nous avons le résultat
suivant : si les coefficients des polynômes / (x) et g (x) sont rationnels
(réels), alors les polynômes u (x) et y (x) vérifiant (3) peuvent être
choisis de manière que leurs coefficients soient également ration­
nels (réels).
Exemple. Trouvons u {x) et v (x ) vérifiant l’égalité (3) avec
/ (a:) —z3—x*-y3x —10, g (z) = z3 + 6x2 —9x —14.
Appliquons l ’algorithme d ’Euclide. A présent nous ne sommes plus en droit
de modifier les quotients, car ils sont utilisés pour calculer les polynômes u (z)
et v (z). Nous obtenons le système d ’égalités :
/< * ) = * ( * ) + ( - 7** + 12* + 4 ) ;

*(*) = (-7 * 2 + 121 + 4) ( - y Z— + - ^ - ( * —2);


—7 * * + 1 2 x + 4 = (* —2){—7 * ~ 2 ).
Il en résulte que g ( x ) ) = x —2 et que
7 _ , 54 7 5
235 235 ’ 235 X 235 ‘
Appliquant le théorème qui vient d’être démontré au cas de
polynômes premiers entre eux, nous obtenons le résultat suivant.
§ 21] D IV IS E U R S . P L U S GRAND C O M M U N D I V IS E U R 147

Deux polynômes f (x) et g (a;) sont premiers entre eux si et seulement


si on peut trouver des polynômes u (x) et v (x) tels que Végalité suivante
f (z) u(z) + g (z) (z) = 1 (4)
soit vérifiée.
On peut démontrer certains théorèmes, simples mais importants,
concernant les polynômes premiers entre eux en s’appuyant sur ce
résultat :
a) Supposons que les couples de polynômes f (x), q> (a:) et f (x),
ip (x) soient premiers entre eux. Alors, il en est de même pour le couple
de polynômes f (x), <p (x) ip (a;).
En effet, d’après (4), on peut trouver des polynômes u (x) èt
v (x) tels que l ’on ait
f (x) w(x) -f cp {x) v (x) = 1.
Multipliant cette égalité par \p(x), il vient:
f (z) [« (*) 'P (*)] + M Z)'!5(*)] V (x) = 1|3(z),
d ’où l’on a que tout diviseur commun de / {x) et de <p (x) ip (x) se­
rait, en même temps, un diviseur de ip (x) ; or, on a supposé dans
l ’énoncé du théorème que (/ (x), ip (x)) — 1.
b) Soit f (x) et cp (x) premiers entre eux ; soit un autre polynôme
g (x) tel que le produit f (x) g (x) ait <p (x) pour diviseur. Alors g (x)
est divisible par cp (x).
En effet, multipliant par g {x) l ’égalité
/ (x) u (x) + cp (x) v (x) = 1
il vient :
[f(x) g (x) ) u (x) + <p(x) [v (z) g (x)] = g {x).
Les deux termes du premier membre de cette égalité sont divisibles
par <p (x) ; donc, q> (x) est un diviseur de g (x).
c) Soient cp (x) et ip (x) deux diviseurs du polynôme f (x) et sup­
posons que cp (x) et ip (x) soient premiers entre eux. Alors, f (x) est
divisible par le produit cp (x) ip(x).
En effet, / (x) = <p (x) cp (x) de sorte que le produit cp (x) <p(x)
est divisible par ip (x). Alors, d’après b), cp (x) est divisible par \p (x) :
cp (x) = tp (x) ip (x), d’où / (x) = [cp (x) ip (x)] ip (x).
La définition du plus grand commun diviseur peut être étendue
au cas d’une famille finie de polynômes ; notamment, on appelle
plus grand commun diviseur des polynômes f x (x), / 2 (x), . . ,, f s (x)
un diviseur commun de ces1polynômes tel qu’il soit divisible par
tout autre diviseur commun de f x (x), / 2 (x), . . ., f 8 (x). L’existence
du plus grand commun diviseur pour toute famille finie de poly­
nômes résulte du théorème suivant qui donne, en même temps, un
moyen de le calculer.10
10
148 POLYNÔMES ET LEURS ZEROS [CH.

Le plus grand commun diviseur des polynômes f x (x ), / 2 (x), . .


. . f 9 (x) est égal au plus grand commun diviseur du polynôme
f 8 (x) et du plus grand commun diviseur des polynômes f x (x), f 2 (x ),. . .
En effet, pour s — 2 le théorème est évident. Supposons que le
théorème soit vrai pour toute famille de s — 1 polynômes, de sorte
que, en particulier, les polynômes f x (x), . . f ^ x (x ) possèdent
un plus grand commun diviseur, soit d (x). Soit d (x) le plus grand
commun diviseur des polynômes d (x) et f 8 (x). Bien entendu, d ( x )
est un diviseur commun de tous les polynômes donnés. D ’autre
part, tout autre diviseur commun de ces polynômes est, en même
temps, un diviseur de d (x) et, par conséquent, de d (x).
En particulier, les polynômes / x (x), / 2 (x), . . . , / « ( * ) sont dits
réciproquement premiers si leur plus grand commun diviseur est
un polynôme de degré nul, c ’est-à-dire si leur plus grand commun
diviseur est égal à l'imité. Il peut arriver, pour s > 2, qu’une famil­
le de s polynômes réciproquement premiers contienne des couples
de polynômes qui ne sont pas premiers entre eux. Ainsi, les polynô­
mes
f (x) = x3— 7x2 + 7x + 15, g(x) — x2— x — 20,
h (x) = x3 + x2 — 12x
sont réciproquement premiers, bien que l ’on ait
(/(*)>£(*)) = * — 5, (/(x), h(x)) = x — 3, (g(x),h(x)) = x + 4.

Le lecteur pourra, sans aucune peine, généraliser les théorèmes


a)-c), démontrés ci-dessus, au cas d'une famille finie de polynômes
réciproquement premiers.

§ 22. Zéros des polynômes


Nous avons déjà évoqué au § 20 le point de vue analytique de la
notion de polynôme et, sous ce rapport, parlé de la valeur d'un
polynôme pour une valeur particulière de x . Rappelons la définition.
Soient un polynôme
/ (x) =s Oo®" + a ,in_l + . . . + a» ( i)
et ün nombre c. Alors le nombre
/ (c) = ûoCn + ÆjC”-1+ . . . + « » ,
qui s'obtient en remplaçant x par c dans l ’expression (1) de f ( x)
et en effectuant toutes les opérations indiquées, est la v a le u r d u
p o ly n ô m e / (x ) p o u r x = c. Bien entendu, si / (x) = g (x) au sens
algébrique de l'égalité des polynômes, définie au § 20, alors
/ (c) ~ g (c) pour tout c .
22 ] ZÉROS D B S POLYNOM ES 149

Si
q>(®) = /(* )+ * (* ), '*!’(*) = /(*)£(*),
il est alors facile de vérifier que
<p(c) = f (C) + £(c), t (c) = / (c) g (c).
En d'autres termes, l ’addition et la multiplication des polynômes,
définies au § 20, sont les mêmes opérations sur les polynômes con­
sidérées du point de vue de la théorie des fonctions* c'est-à-dire
ce sont respectivement l ’addition et la multiplication des valeurs
correspondantes des polynômes en tant que fonctions d’une variable.
Si f (c) = 0, c’est-à-dire si le polynôme / (x) s’annule lorsqu’on
remplace x par c, alors le nombre c est un zéro du polynôme / (x)
(ou une racine de l ’équation / (x) = 0). Par abus de langage on dira
encore que c est une racine du polynôme / (x). Nous allons montrer
que cette notion est en rapport direct avec là théorie de la division
des polynômes développée au paragraphe précédent.
En divisant un polynôme / (x) par un polynôme de degré un,
on obtient le reste qui est soit un polynôme de degré nul, soit le
polynôme nul. De toute façon, le reste est un nombre que nous
noterons r. Divisant un polynôme / (x) par le polynôme x —• c,
le théorème suivant permet de calculer le reste de la division sans
être obligé d’effectuer la division.
Le reste de la division d'un polynôme f (x) par x — c est égal à la
valeur f (c) du polynôme f (x) pour x = c.
En effet, soit
f(x) = ( x - c ) q ( x ) + r.
Faisant x = c dans cette égalité, il vient:
f(c) = ( c ~ c)q(c) + r = ry
ce qui démontre le théorème l.
Il en découle un corollaire très important :
Pour qu'un nombre c soit zéro d'un polynôme f (x), il faut et il
suffit que f (x) soit divisible par x — c.
D’autre part, si / (x) est divisible par un polynôme de degré un,
soit a x + 6 , alors f (x) est encore divisible par x — ^---------, c’est-à-
dire par un polynôme de la forme x — c. Ainsi, le calcul des zéros
d'un polynôme est équivalent au calcul de ses diviseurs de degré un.
Pour cette raison, la méthode suivante de division d ’un polynô­
me par x — c comporte un grand intérêt, étant donné, qu’elle est
plus simple que le procédé général de division des polynômes. Cette
1 Ce théorème porte le nom du mathématicien français Bezout qui était
le premier à Ténoncer et à le démontrer. (N .d.T .)
150 POLYNÔMES ET LEURS ZEROS lCH. V

méthode est appelée procédé de Hôrner. Soient


/ (x ) = OqZ 11 a ^ x 11^ 1 + Û 2xn “2 -J- „.. + a n (2)
et
/(x) = (x —C)q(x) + r, (3)
avec
g (x) = box71"1+ M ""2-f b2xn~s + . . , + &*-t.
Identifiant les coefficients des mêmes puissances de x dans les deux
membres de (3), il vient :
ûo = bQ,
Qrl^bl —cb^y
= &2—

Qn-i —bn- x—cbn~2»


an = r —-c&Ti-i.
II en résulte que 60 = «o» = c^h -i + ah> * = 1» 2, . . rc — 1 ;
en d'autres termes, le coefficient 6* s'obtient en multipliant par c le
coefficient précédent bk _x et en ajoutant ce produit au coefficient ak ;
enfin, r ~ cbn ^x + any c’est-à-dire le reste de la division r (qui
est égal en même temps à / (c)) s’obtient de la même façon. Ainsi,
les coefficients du quotient et le reste peuvent être trouvés au moyen
de calculs standard qui peuvent être ordonnés en un schéma, comme
le montrent les exemples suivants: ■
1. Diviser / (x) = 2X5 —- x4 — 3s3 + x — 3 par x — 3.
Formons le tableau
2 —1 —3 o 1 —3
3 2,3*2 —1 =5,3*5 —3 = 12,3-124-0 —36,3*36+1 = 109,3-109—3 = 324
La première ligne au-dessus du trait horizontal est composée de coefficients
de / (x), la seconde ligne en dessous de ce trait est formée par les coefficients
du quotient et par le reste, le nombre c (ici c = 3) se trouvant a gauche au niveau
de la seconde ligne.
Ainsi, le quotient cherché est le polynôme
q {x) = 2x* + 5x3 + 12x2 + 36* +109,
tandis que le reste r = /(3) = 324.
2. Diviser / (x) —x4— 8x3 + x2+ 4x—9 par x + 1 .
On a
1 —8 1 4 —9
1 1 - 9 10 —6 —3 ’
§ 22] ZÉROS DES POLYNOMES 151

Ainsi, le quotient est


q (x ) —x* —9x2 + lOx —6,
et le reste r = / ( —1 ) = —3.
Ces exemples montrent que le procédé de Hôrner peut être utilisé
pour calculer la valeur d'un polynôme pour une valeur donnée de
Vindéterminée x .
Zéros multiples. On sait que si c est un zéro du polynôme
/ (x), c’est-à-dire si / (c) = 0, alors / (z) est divisible par x — c.
Il peut arriver que / (æ) soit divisible non seulement par x — c,
mais encore par {x — c) élevé à une puissance plus grande. En tout
cas, on peut trouver un entier positif k tel que / (x) soit divisible
par (x — c)k, mais (x — c)ft+l ne soit plus un diviseur de f (x).
Ainsi, on a
f(x) = (x— c ) \ ( x ) ,
où <p (x) n’est plus divisible par x — c, c’est-à-dire le nombre c
n ’est pas un zéro de <p (x). L’entier k est dit ordre de multiplicité
du zéro c tandis que c est dit zéro multiple d'ordre k du polynôme
f (x). Si k = 1, le zéro c est dit simple.
La notion de zéro multiple est étroitement liée à la notion de
dérivée d’un polynôme. Mais nous étudions les polynômes à coeffi­
cients complexes, et nous ne pouvons donc pas utiliser la notion
de dérivée introduite en analyse. La définition de la dérivée d’un
polynôme qui suit doit être considérée comme indépendante de la
définition donnée en analyse.
Soit un polynôme de degré n à coefficients complexes
/ (x) = a^xn + axxn-x + . . . + an~ix + an.
Sa dérivée (ou encore sa dérivée première) est le polynôme de degré
n~ 1:
/' (x) = naoXn~l + (n— 1) a ^ 2+ _ . . . + 2On-tf + an~f
La dérivée d’un polynôme de degré nul ou du polynôme nul est, par
définition, le polynôme nul. La dérivée de la dérivée première d’un
polynôme / (x), notée /" (x), est la dérivée seconde de / (a), etc. Il est
clair que
/<»>(ar) = nia*),
de sorte que f n+1) (x) = 0, c’est-à-dire la dérivée (n + l)ôme d'un
polynôme de degré n est le polynôme nul.
Nous ne pouvons pas utiliser dans notre cas les propriétés des
dérivées qui ont été établies en analyse pour les polynômes à coef­
ficients réels ; nous devons les démontrer de nouveau pour les poly­
nômes à coefficients complexes en partant de la définition donnée
ci-dessus. Les formules de dérivation de la somme et du produit
152 POLYNÔMES ET LEURS ZÉROS [CH. V

de deux polynômes:
(/ (s)+ g (*))' = / ' (* )+ g' (x), (4)
(/ (*) •g (*))' = / (x) g' (x) + / ' (x) g (x), (5)
sont ce qui nous intéresse à présent.
On établit ces formules pour / (x) et g (x) quelconques au moyen
d ’un calcul direct en partant de la définition de la dérivée ci-dessus ;
nous laissons au lecteur le soin de les vérifier.
La formule (5) s’étend, sans aucune peine, au cas d’un produit
fini de facteurs, de sorte que l’on peut établir de cette manière
la formule de dérivation de la puissance d’un polynôme
(jk (x)y = kjh~'(x)f(x). (6)
Nous nous proposons de démontrer le théorème:
Soit c un zéro multiple d'ordre k d'un polynôme f (x), k > l >
Alors c est un zéro multiple d'ordre (k — 1) de la dérivée première
de f (x) ; si k = 1, alors c n'est pas un zéro de / ' (x).
En effet, soit
/(x) = (x —c ) \( x ) , k > 1, (7)
où <p(x) n ’est plus divisible par x —c. Dérivant l ’égalité (7), il
vient :
/ ' (x) — (x—c)feq>' (x) + k (x —c)k-1qp(x) =
= (x —c)"-1[(as —c) (jp' (x) + k(p (x)].
Le premier terme de la somme entre les crochets dans le second
membre est divisible par x — c, tandis que le second ne Test pas;
par conséquent, la somme entre les crochets n ’est pas divisible
par x — c. Etant donné que le quotient de la division de / (x) par
(x — c)^1 est bien défini, il en résulte que (x — c)*“* est le binôme
linéaire d’exposant le plus élevé qui soit diviseur du polynôme
/ ' (x), ce qu’il fallait démontrer.
Itérant le théorème démontré ci-dessus, nous obtenons le résul­
tat suivant : un zéro multiple d'ordre k d'un polynôme / (x) est un
zéro multiple d'ordre (k — s) de la dérivée sème de f (x), pour k > s ,
et n'est pas zéro de la dérivée ftemc de f (x).

§ 23. Théorème fondamental


Dans le paragraphe précédent, lorsque nous avons donné la
définition du zéro d’un polynôme, nous n ’avons pas posé le problème
d’existence d’un zéro pour un polynôme quelconque. On sait qu’il
y a des polynômes à coefficients réels qui n’ont pas de zéros réels ;
le polynôme x2 + 1 en est un exemple. On pourrait s’attendre à ce
§ 23] THÉORÈME FONDAMENTAL 153

qu’il existe des polynômes qui n’ont pas de zéros même dans l’en­
semble des nombres complexes; cette éventualité paraît surtout
probable si nous considérons des polynômes à coefficients complexes.
S’il en était ainsi, il faudrait encore compléter l ’ensemble des nombres
complexes. Or, en réalité, le théorème suivant, dit th é o rè m e f o n d a ­
m e n ta l d e V a lg è b r e , est vrai :
T o u t p o ly n ô m e à c o e ffic ie n ts c o m p le x e s d o n t le d e g r é e s t s u p é r ie u r
o u é g a l à u n p o ssè d e a u m o in s u n zéro q u i, d a n s le c a s g é n é r a l, e st
u n n o m b re c o m p le x e .
Ce théorème est une des plus grandes réalisations des mathé­
matiques et trouve de multiples applications dans différents domaines
de la science. En particulier, il se trouve à la base de tout le
développement ultérieur de la théorie des polynômes à coefficients
numériques. C’est pourquoi ce théorème est appelé « théorème
fondamental de l’algèbre supérieure ». Cependant, ce théorème n’est
pas un résultat purement algébrique. Toutes les méthodes de démons­
tration (de nombreuses furent données après la première démons­
tration due à Gauss, qui date du XVIIIe siècle) utilisent, dans une
mesure plus ou moins grande, les propriétés, dites topologiques,
des nombres réels et complexes, qui sont étroitement liées à la notion
de continuité.
Au cours de la démonstration que nous allons donner, nous consi­
dérerons le polynôme f (x ) à coefficients complexes comme une
fonction complexe d’une variable complexe x. Ainsi, x prend les
valeurs complexes, ou, encore, en tenant compte de la méthode
d’introduction des nombres complexes du § 17, on peut dire que
la variable x parcourt le p l a n c o m p le x e . On peut dire que les valeurs
de / (#) appartiennent à un autre plan complexe par analogie au cas
des fonctions réelles d’une variable réelle indépendante où cette der­
nière parcourt l ’axe des abscisses tandis que les valeurs de f (x )
appartiennent à un autre axe (axe des ordonnées).
La définition de la continuité d’une fonction, connue du lecteur
du cours d’analyse, se généralise aux fonctions d’une variable com­
plexe, seulement dans la définition il faut remplacer les valeurs
absolues par les modules des nombres complexes.
Notamment, une fonction complexe / (x ) d’une variable complexe
x est dite c o n tin u e e n u n p o i n t x0 si pour tout nombre réel positif e
on peut trouver un nombre réel positif Ô tel que l ’on ait l’inégalité

|/(*o + fc) —/( * o ) |< e


quel que soit l’accroissement complexe h avec | h | < ô. Une fonc­
tion / (s) est dite c o n tin u e si elle est continue en tout point x 0
du domaine où elle est définie ; si / (x) est un polynôme, ce domaine
doit coïncider avec le plan complexe.
154 POLYNÔMES ET LEURS ZÉROS CCH. V

Un polynôme f (x) est une jonction continue de la variable com­


plexe x .
On peut démontrer ce théorème de la même manière qu’en analy­
se, notamment, en montrant que la somme et le produit de fonctions
continues sont encore des fonctions continues et en remarquant
que la fonction constante est continue. Nous allons donner une
autre démonstration.
Démontrons d’abord le cas particulier du théorème en question,
à savoir celui où le terme indépendant de x de / (x) est nul. Pour
cela montrons d’abord la continuité de / (x) au point xJ = 0. Autre­
ment dit, démontrons le lemme (on écrit x à la place de h) :
Lemme 1. Si le terme indépendant de x dyun polynôme f (x) est
nul
1 (#) = OoXn + aiX71"1+ . . . + On~iX,
c'est-à-dire si / ( 0) = 0, alors pour tout e > 0 on peut choisir ô > 0
tel que pour tout x avec | x [ < ô on ait : | / (x) | < e.
En effet, soit
A = max(|aol, K | , •••> |«*-iD'­
Soit e un nombre positif donné. Montrons que si

(1)

alors cette valeur de Ô vérifie les conditions requises.


En effet,
|/ ( * ) |< l a 0| |a:|n-f-|û1j (a:|n-1+ . . . + |a „ _ , | |a :|<

c’est-à-dire

Etant donné que 12 1<C ô et que, d’après (1), ô < 1, on a


f* |-|* |n + l |x |
1- | * |

de sorte que
e
A
A |x | i4ô X+ e
l / ( * ) l < 1—|x| ^ l —ô e = e,
1 A+&
ce qu’il fallait démontrer.
§ 23] THÉORÈM E FONDAMENTAL 155

Etablissons maintenant la formule suivante. Soit un polynôme


à coefficients complexes
/ (#)= a<Fn ~b *-b . . . ~b &n-\X -b
Remplaçons x par x + h, où h est un paramètre. Développant chaque
terme (x + k)k, k ^ n, du second membre, selon la formule du binô­
me de Newton, nous obtenons, après avoir groupé les termes des
mêmes puissances de h, l’égalité suivante :
/ {x+ h) = / (x)+ k f (x) + - - r (*) ■+...+■— / w (*),
dite formule de Taylor qui donne le développement de / (x + h)
suivant les puissances de l ’« accroissement » h.
Maintenant la continuité d'un polynôme f (a) en un point quelcon­
que x 0 se démontre de la manière suivante. Selon la formule de Tay­
lor, on a
f (zQ+ h) — f (x0) = 0$ + c2h2+ . . . + cnhn = <p(h),
avec
Cl = f { x 0), C2= yj-/"(x0), Cn= -^j-/(n)(^o)«
Le polynôme tp (h) en fonction de h est un polynôme dont le terme
indépendant de h est nul; il en résulte, en vertu du lemme 1, que
pour tout e > 0 on peut choisir ô > 0 de manière que l ’on ait :
| tp (A) | < e pour | h | < ô, ou encore
\ f ( z 0+h) — f{x0) \ < z ,
ce qu’il fallait démontrer.
L’inégalité
\\f(x0+ h) | —|/(3 o )||< |/(* o + fc) —f ( x 0)\
qui découle de la formule (13) du § 18 et la continuité d’un polynô­
me que nous venons de démontrer prouvent que le module \ f (æ) |
d ’un polynôme est également une fonction continue; le module
| f (x) | est manifestement une fonction, à valeurs réelles, non néga­
tives, d ’une variable complexe x .
Maintenant nous allons démontrer les lemmes qui seront ensuite
utilisés pour la démonstration du théorème fondamental.
Lemme du module du terme principal d’un polynôme. Soit
un polynôme de degré n, n^> 1, à coefficients complexes:
f (x) = Ooxn + a ^ 71- 1+ a2xn^ 2+ . *. + an-
, Alors, pour tout nombre réel positif k, on a Vinégalité
| OoXn ! > k IaiXn~ x+ a^xn~2 + . . . + a» |, ( 2)
156 POLYNOMES ET LEURS ZÉROS [CH. V

pourvu que le module de Vindéterminée x soit suffisamment grand;


c'est-à-dire le module du terme principal dé f (x) (ou le terme de
plus haut degré en x) est supérieur ou égal au module de la somme
des autres termes de f (x) multipliée par un coefficient k arbitrairement
grand et positif, à condition que le module de x soit suffisamment
grand.
En effet,, notons par A le plus grand des modules des nombres
a<i, . ..» an i
4 = m ax(|o,|, |a 2|, . . |a„|).
Alors (cf. § 18 pour les propriétés du module de la somme et du
produit de deux nombres complexes) on a
| aix”' 1-f- a2xn"a+ . .. + an | 10 1 1| %|”-1 + 1#2 11 x |”~a+ >• •
...+ .\ a n \< A { \x \n-' + \ x r * + . . . + i) = A .
Si | * | > 1, il vient
| g |n 1 ^ |* |»
1* 1 - 1 ^ 1 * 1 -1 ’
d’où Ton a
| a ^ " 1+ a2xn~2+ . . . + an | < A rK .
Ainsi, l’inégalité (2) est vérifiée si le module de x satisfait aux
deux inégalités suivantes : \ x \ > i et
M Tiy Ç r < |< V ? '|= ja #| | * i n.
ou encore si
\x\> 1. (3)
Le second membre dans (3) étant plus grand que l’unité, on peut
affirmer que lés valeurs de x satisfaisant à (3) vérifient également
l’inégalité (2), ce qui démontre le lemme.
Lemme de la croissance du module d’un polynôme. Soit un poly­
nôme f (x) à coefficients complexes dont le degré est supérieur ou égal
à l'unité. Alors pour tout nombre réel positif arbitrairement grand M
on peut choisir un nombre réel positif N tel que pour \ x | >• N on
a it: } f ( x ) \ > M .
Soit
f(x) = OqX ? Ojæ”"1+ •. • + a n.
D’après la formule (11) du § 18 on a
j/(x )| = |a0ï n + («1xn-1+ . . . + a „ )|> |< i0a:?,| — |a 1a:n-1+ .. . -f«n|.
(4)
S 23] THÉORÈM E FONDAMENTAL 157

Appliquons le lemme du module du terme principal pour k = 2 :


il existe donc un nombre tel que pour | x [> N %on ait :
| üqX71| > 2 1atxn~l + -. - + dn |-
Il en résulte que
I fliz”*1+ . . . + a„ I < ^ | Oox" |,
ou encore, d'après (4),

i/(x)j>|O ûX n | ——|o<>2:n | = - | |oo*n |.


Le second membre de la dernière inégalité est plus grand que M si

\I x \ > Nmrx - yT yj^y*


w

Ainsi, pour | x ] > N = max (Nly N 2) on a : | / («) | > M.


On peut donner une interprétation géométrique de ce lemme
qui sera utilisée plus d'une fois dans ce paragraphe. Supposons
qu'en chaque point x0 du plan complexe on ait construit un segment
perpendiculaire au plan et de longueur,
mesurée d'après une échelle donnée,
égale à la valeur du module du poly­
nôme / (x) en ce point, c'est-à-dire de
longueur \ f (x0) |. Les extrémités des
perpendiculaires, en raison de la con­
tinuité du module d’un polynôme
montrée ci-dessus, engendrent une 0
surface continue située au-dessus du
plan complexe. Le lemme de la crois- Fig- 8
sauce du module d'un polynôme
montre que cette surface s'éloigne de plus en plus du plan complexe,
certes d'une façon non monotone, avec la croissance de | x 0 |. La
fig. 8 représente schématiquement la courbe d'intersection de cette
surface et d’un plan perpendiculaire au plan complexe et passant par
un point 0.
Dans la démonstration du théorème fondamental le lemme sui­
vant tient la place la plus importante :
Lemme de d ’Alembert. Soit un polynôme f (x) de degré n, n 1.
Si pour x = x0 le polynôme f (x) ne s'annule pas, / (x0) ^ 0 (de sorte
que | / (s0) | > 0), alors on peut trouver un accroissement hy en général
complexe, tel que Von ait
J/(x0-f f c ) |< |/( x 0)|.
158 POLYNÔMES ET LEURS ZÉROS [CH. V

On a, d’après la formule de Taylor, pour tout accroissement h \


. / (zc+ ft) —/ (;z0) + hfr (z0) + /" (*o) + • - «+ ^ y / <7l) (^o)*
D’après notre hypothèse, le nombre z 0 n ’est pas un zéro de / (z).
Il peut arriver éventuellement que z 0 soit un zéro de f (z) et de
plusieurs autres dérivées de / (z). Soit /<*> (z), k ;> 1, la première
dérivée de / (z) qui ne s’annule pas pour z = z 0:
V ( X 0 ) = f (z0) = /<M >(z0) - 0, /<*> (z0) *= 0.
Une telle dérivée existe car
/ (n) (x0) = n l a o^ 0 ,
où a0 est le coefficient de xn dans l ’expression de / (z). Ainsi, on a
/ (x0+ h) = / (*o) + yj- /<*> (a:0) + ÿ -Ç jjj ^ / <n> (*<>)•
Il peut arriver que certains des nombres p h+1>(z0), . . ., / (n-1) (z0)
soient également nuis, mais cela ne joue aucun rôle.
Divisant les deux membres de la dernière égalité par / (z0)r
/ (z0) étant non nul par hypothèse, et posant
/ (i) fa) i = k, k + i , . . . , n ,
cj
/!/(*o) ’
il vient :
l(i ^ h) = 1 + ckhh+ cft+1/jh+1+ • • • + cnhn,
ou encore, étant donné que Ck=^= 0, on a
l% ±p . =(1 + Cj f ) + Ckh" (S a * + . . . + i **-•)
Passant aux modules nous obtenons :
|< l 1 + c k h h | + 1C k h k 11 c- ÿ f c + . . . |• (5)
Jusqu’ici nous n ’avons fait aucune hypothèse sur l'accrois­
sement h. Passons maintenant au choix de h ; en outre le module
et l ’argument de h seront choisis séparément. Le module de h sera
choisi de la façon suivante. L ’expression
cn rn-fc
e-C
*±îh+
fc ch
étant un polynôme par rapport à h dont le terme indépendant de h
est nul, nous pouvons, d’après le lemme 1 ^en faisant e — ,
trouver ô* tel que pour | h | < ôi on ait
h -t Ck ( 6)
I CK
$ 23] THÉORÈME FONDAMENTAL 159

D’autre part, on a pour

l’inégalité
\c„hk |< 1 . (7)
Supposons que le module de h vérifie l’inégalité
| h\ <m in{ôj, ô2). (8)
Cela étant, l ’inégalité (5) devient, en vertu de (6), une inégalité
stricte :
f ( * o h)
t
< | l + c A/^ | + ± |c ftfeh|; (9)
/(* o)
la condition (7) sera utilisée plus tard.
Choisissons l ’argument de h de manière que le nombre chhh soit,
réel et négatif. Autrement dit, soit
arg (chhk) = aigch + kai gh — n,
d’où
argfe—- ■(10)
L ’accroissement h étant choisi de cette manière, le nombre ckhk est
de signe opposé à sa valeur absolue :
Ckhk = — |cftfeh|,
de sorte que, utilisant l ’inégalité (7), on a
11 + chhk I= 11 - 1chhk I I= 1 - 1ckhh |.
Ainsi, h étant choisi d’après (8) et (10), l ’inégalité (9) prend
la forme
I / (zo~l~fe) < 1 —I ckhk]+ y | Chhk | == 1 —y ] chhh|,
I f (*o)
c’est-à-dire on a
f (x 0 "h^) | / ( Æo -f-^ )|
n * o) “ i/(^ )i ^ ’
d’où l’inégalité
|/(*0 + ^ ) | < | /(*<)) |t
ce qui démontre le lemme de d ’Alembert.
Utilisant l ’interprétation géométrique donnée ci-dessus, on peut
expliquer le lemme de d’Alembert de manière suivante. Soit
I / (*o) I > 0- Cela signifie que la longueur de la perpendiculaire
au point x 0 du plan complexe ri’est pas nulle. Alors, d’après le lemme
160 POLYNÔMES ET LEURS ZÉROS [CH. V

de d’Alembert, on peut trouver un point xt = x 0 + h tel que


I / (^1) I < I / (*o) U c’est-à-dire un point xY tel que la perpendicu­
laire en x x soit plus petite que celle en x 0. Donc, la surface engendrée
par les extrémités des perpendiculaires est plus proche du plan com­
plexe au point xx qu’au point x 0. Il résulte de la démonstration du
dernier lemme que le module de h peut être arbitrairement petit,
c’est-à-dire le point xx peut être choisi dans un voisinage arbitraire­
ment petit du point x 0; toutefois, cette remarque ne sera pas utili­
sée par la suite.
Les zéros d’*un polynôme / (x) sont, évidemment, des nombres
complexes, ou, encore, des points du plan complexe, en lesquels
la surface engendrée par les extrémités des perpendiculaires est
tangente au plan complexe. On ne peut pas, en s’appuyant unique­
ment sur le lemme de d ’Alembert, démontrer l ’existence dè tels
points. En effet, utilisant le lemme de d’Alembert, nous pouvons
trouver une suite infinie de points xiy x2, . . . telle que
|/ ( * o ) l > |/ ( * l ) |> |/ ( * 2) | > . • • (K)
Or, il n ’en résulte pas l’existence d ’un point x tel que / (x) = 0 ;
en outre, ce n ’est pas toute suite décroissante de nombres réels
positifs qui a pour limite le nombre zéro.
Les raisonnements qui suivent sont basés sur un théorème de la
théorie des fonctions d’une vâriable complexe, qui généralise le
théorème de Weierstrass que le lecteur connaît du cours d ’analyse.
Ce théorème concerne les fonctions à valeurs réelles d’une variable
complexe; le module d ’un polynôme en est un exemple. Pour
simplifier, on parlera dans l’énoncé du théorème d ’un cercle fermé E y
en entendant par cela un cercle E dix plan complexe, auquel on
a ajouté la circonférence qui le délimite.
Soit une fonction à valeurs réelles g (x) d'une variable complexe x,
g étant continue en chaque point x d'un cercle fermé E du plan complexe.
A lors il existe dans E un point x 0 tel que pour tout point x de E on
ait Vinégalité g (x) ^ g (,x0). Donc, au point x 0 du cerle E la fonction
g (#) a un minimum.
On peut trouver la démonstration de ce théorème dans tous les
cours de théorie des fonctions d’une variable complexe, et nous
ne la donnerons pas ici.
En nous bornant au cas où la fonction g (x) est *non négative
en chaque point du cercle E (ce cas seul nous intéresse), interprétons
ce théorème du point de vue géométrique déjà mentionné ci-dessus.
En tout point x 0 du cercle E nous avons une perpendiculaire de
longueur g (£0). Les extrémités des perpendiculaires engendrent une
portion de surface continue ; en outre, le cercle E étant fermé,
l ’existence des points qui fournissent le minimum pour cette portion
de surface devient claire du point de vue géométrique. Bien entendu,
§ 24] CONSÉQUENCES DU THÉORÈME FONDAMENTAL 161

cotte interprétation géométrique ne peut pas être considérée comme


une démonstration rigoureuse.
Passons maintenant à la démonstration du théorème fondamental.
Soit un polynôme / (x) de degré u, n ^ 1. Notant par an le terme
indépendant do x dans l’expression de f (,r), on a : / (0) = a.n. Appli­
quons au polynôme / (x) le lemme de la croissance du module d’un
polynôme, en posant M — |/( 0 ) | ™ \ an |. Donc, il existe un
nombre N tel que | f (x) | > j / (0)| pour | x | > N. Il est clair
que la généralisation du théorème de Weierstrass indiquée ci-des­
sus est vraie pour la fonction | f (x) | dans tout cercle fermé E du
plan complexe. Prenons pour E Je cercle fermé de rayon N et de
centre au point 0. Soit x 0 un point du cercle E en lequel la fonction
| f (x) | a un minimum, de sorte que l’on a en particulier: | / (a;0) | ^
< t / (0) |.
Il est facile de vérifier que x 0 est, en réalité, un point de minimum
pour | f (x) | dans tout le plan complexe. En effet, si x r n’appartient
pas à £, alors ) x' | > N et, par conséquent,
l / ( * ') l > l / ( 0 ) |> |/ ( * 6 ) |.
Enfin, il en résulte que / (:rn) = 0, c’est-à-dire que x 0 est un zéro
de f (x). En effet, si / (æ0) n ’était pas nul, alors, d’après le lemme
de d’Alembcrt, il existerait un point xl tel que | f {xx) | <C | / (x0) | ;
or, cela contredit le fait que x0 est un point de minimum de | f (x) |.
Une autre démonstration du théorème fondamental de l’algèbre
sera donnée au § 55.

§ 24. Conséquences du théorème fondamental


Soit un polynôme de degré n, 1, à coefficients complexes
/ (æ) —aqX71-f- a^x71 1 -f- an_iX -j- an. (1)
De nouveau, nous le considérons comme une expression algébrique
formelle bien définie par l ’ensemble ordonné de ses coefficients.
Le théorème fondamental démontré au paragraphe précédent garan­
tit l’existence d ’un zéro, réel ou complexe, soit a x, du polynôme / (z).
Ainsi, le polynôme / (x) peut être mis sous la forme
f(x) = (x— a.1)q>(x).
Les coefficients du polynôme cp (z) étant des nombres réels ou
complexes, le même théorème permet d’affirmer l ’existence d’un
zéro a2 de <p(z), de sorte que l ’on a
/ (x) =^(x~ai)(x — a2) tf (x).
Continuant ce processus nous sommes conduits, après un nombre
fini de décompositions comme ci-dessus, à la représentation d'un
polynôme f (x) de degré n sous la forme d'un produit de n facteurs
162 polynômes et leurs zéros [GH, V

linéaires :
/ (x) = a0(x-~ (x —a 2) . . . (x—a*). (2)
Le produit des facteurs linéaires dans (2) est multiplié par le
coefficient a0. En effet, si ce produit était multiplié par un autre
coefficient bT b étant un nombre complexe, alors développant le
second membre de (2) et groupant les termes semblables, le terme
principal de / (x) serait bxn et non a0x”, ce qui contredit l ’égalité
(1) . Ainsi, b = a0.
La représentation d'un polynôme f (x) sous la forme d'un produit
(2) est définie de façon unique à Vordre des facteurs près.
En effet, soit encore un produit représentant / (x) :
f(x) = a0( x ~ Pi)(z —Pz) • • . ( * —P»). (3)
(2) et (3) entraînent l ’égalité
(x o&i) (x oc2) . . . (X—o^) = (x —P,)(x —p2) . . . (x —P„). (4)
Si le zéro a * était différent de tous les / = 1, 2, . . M n, alors
faisant dans (4) z = a t nous aurons le nombre zéro dans le premier
membre et un nombre non nul dans le second.
Ainsi, pour tout zéro a t il y a un nombre (Jy qui coïncide avec a t et
inversement.
Il n’en résulte pas encore que les deux représentations (2) et (3)
sont identiques car, parmi les zéros a u i = 1, 2, . . n, il peut
s’en trouver qui coïncident. Soit, par exemple, s zéros égaux à a L
et soit, d ’autre part, parmi les ; = 1, 2, . . rc, t nombres f5j
égaux à a*. II faut montrer que s — t.
Le degré du produit de polynômes étant égal à la somme des
degrés des facteurs, le produit de deux polynômes non nuis ne peut
pas être nul. Il en résulte que si deux produits de polynômes sont
égaux, alors on peut diviser les deux membres de Végalité par le facteur
communy c’est-à-dire si
f(x)<p(x) = g(x)y(x)
et cp(x)=^0, alors l ’égalité
[/(*) —g (x)]<p(z) = 0
donne
/(*) —* (* )= 0,
ou, encore,
f{x) = g{x).
Appliquons ce résultat à l ’égalité (4). Soit, par exemple, s > t.
Divisant les deux membres de (4) par le facteur commun (x — at) ,
nous sommes amenés à l ’égalité dont le premier membre contient
§ 24] C O N SEQ U EN C ES D U TH ÉO R ÈM E FO N D A M EN TA L 163

comme facteur une puissance non nulle de (x — ax). tandis que


le second membre ne possède plus de facteurs de ce type. On a déjà
montré ci-dessus que cela nous conduit à une contradiction. Ainsi,
l’unicité de la représentation (2) d’un polynôme / (a:) est démontrée.
Groupant les facteurs identiques, le produit (2) prend la forme
/ (x) — a0 (x — a,)^ {x — a2)H ■.. —(5)

~b ^2 Jr • • » hi —
A présent, on suppose que tous les zéros ociT a 2, - « a, sont distincts.
Montrons que le nombre entier.k^ i = 1, 2, . . /, dans (o) est
Vordre de multiplicité du zéro du polynôme f (x). En effet, notant
par st l’ordre de multiplicité de a h on a : st ^ k u Supposons, toute­
fois, que Si > k t. Selon la définition de l’ordre de multiplicité d’un
zéro, on a pour / (z) la représentation:

/ ( x ) = (x — U i ) Sl <p ( z ).
Remplaçant ici le facteur <p (x) par sa représentation sous la forme
du produit de facteurs linéaires, nous aurions pour / (x) une repré­
sentation différente de (2), ce qui est en contradiction avec l ’unicité
de la représentation sous la forme d ’un produit démontrée ci-dessus.
Ainsi, nous avons obtenu le résultat important suivant:
Tout polynôme f (x) de degré n, n ^ 1, à coefficients complexes,
possède exactement n zéros, chaque zéro étant pris avec son ordre de
multiplicité.
Notons que le théorème est également vrai pour n = 0, car un
polynôme de degré nul ne possède évidemment pas de zéros. Ce théo­
rème n’est pas applicable seulement au polynôme nul qui n’a pas
de degré et qui prend la valeur nulle pour toute valeur de x. Nous
utiliserons cette dernière remarque dans la démonstration du
théorème:
Soient deux polynômes f (x) et g (x) de degré au plus n 7 qui prennent
des valeurs identiques en plus de n points distincts. A lors f (x) = g (x).
En effet, le polynôme f (x) — g (x) possède, en vertu de nos
hypothèses, plus de n zéros ; son degré étant au plus n, ce polynôme
est le polynôme nul : / (x) — g (x) = 0.
Ainsi, vu que l ’ensemble des nombres distincts est infini, on
peut affirmer que, pour tout couple. de polynômes distincts f (x) et
g (x), il existe des valeurs de l'indéterminée x, soit c, telles que f (c)
g \c). On peut trouver ces valeurs non seulement dans l ’ensemble
des nombres complexes, mais aussi dans celui des nombres réels,
rationnels et, même; dans celui des nombres entiers.
164 POLYNÔMES ET LEURS ZÉROS [CH. V

Ainsi, deux polynômes à coefficients numériques, dans Vexpres­


sion desquels au moins une puissance de Vindéterminée x est multipliée
par des coefficients non égaux, sont des fonctions complexes différentes
de la variable complexe x . Cela démontre, finalement, l'équivalence
des deux définitions, algébrique et analytique, des polynômes à coef­
ficients numériques données au § 20*
Le théorème démontré ci-dessus montre qu'un polynôme de degré
au plus n est bien défini par ses valeurs en des points distincts pris
arbitrairement, pourvu que le nombre de ces points soit strictement
supérieur a n. Peut-on donner arbitrairement les valeurs correspon­
dantes d ’un polynôme en ces points ? La réponse à cette question
est affirmative si Ton se donne les valeurs d’un polynôme de degré
n en (n + 1) points distincts: il existe un polynôme de degré au plus
n qui prend les valeurs données pour n + 1 valeurs distinctes données
de l'indéterminée.
En effet, supposons que l’on veuille trouver un polynôme de
degré au plus n qui prend pour (n + 1) valeurs distinctes de Tin-
déterminée x, soit aly a2, . . an+1, les valeurs cl7 c2î . . cn+l
respectivement. Ce polynôme est donné par la formule :
n-fl
f(x) = y i) .- . (* — aui) ... (x—an+ù
at) (ai ai-î) (ai —ai+1) - • * (ai —an+i) '

En effet, son degré n ’est pas supérieur à n et, en outre, la valeur


f (a^ est égale à ct.
La formule (6) est dite formule d'interpolation de Lagrange.
Le mot « interpolation » est dû à ce que, connaissant les valeurs
du polynôme en (n + 1) points distincts, on peut calculer, d’après
la formule (6), la valeur de ce polynôme en tout autre point.
Formules de Viète. Soit un polynôme de degré n dont le coef­
ficient du terme principal est l ’unité:
f { x ) = x n + aixn~1+ a 2xn^ + . . . + a n. ix + an, (7)
et soient a t, a 2, . . an ses zéros1. Alors f(x) se met sous la forme
d’un produit :
/( x ) = (x — a t) ( x — a 2) . . . (x — an).

Développant le second membre et groupant les termes semblables,


nous obtenons, après avoir identifié les coefficients des mêmes
puissances de x dans les deux expressions de / (x), les égalités, dites
formules de Viète, qui expriment les coefficients d ’un polynôme

1 Chaque zéro est pris avec son ordre de multiplicité.


§ 24] CONSÉQUENCES DU THÉORÈME FONDAMENTAL 165

en fonction de ses zéros :


ai = — (& i + 0-2 + ««• + ^ n )ï

a2 = a ia 2 + a la 3+ . + a 1a n+ 062a 3+ •. • + o7l_1a n,
a3 =. —(ata2a3+ a ia2a 4+ . . . + a n ^ a ^ o * ),

an-i = ( — l f " 1 ( a ^ - . . a*-! + a ta 2 * * • <*n-&n + *. * + a 2a 3 . *.. an),


^ - ( - l ) n ai 0c2 . . . a»-
Ainsi, le second membre de la /cèlïle égalité, k = 1, 2, ... rc, est
la somme de tous les produits de k zéros, pris avec le signe + ou —
selon que le nombre k est pair ou impair.
Lorsque n . = 2, ces formules deviennent les relations bien connues
entre les coefficients et les zéros d’un polynôme du deuxième degré.
Pour n = 3, c’est-à-dire polir un polynôme- du troisième degré,
ces formules prennent la forme
— — («1 + 02 + «3) , a2= a ia 2+ ccia3+ a 2a 3, = — a ia 2a 3.
Les formules de Viète permettent de reconstituer facilement un polynôme
dont on connaît les zéros. Ainsi, trouvons un polynôme / (x) du quatrième degré
dont deux zéros 5 et —2 sont simples et un zéro 3 d’ordre de multiplicité deux.
Nous obtenons:
ûj == ■
—(5 -—2,-j—3 -J- 3) =
— 9,
a2 = 5-(—2 )+ 5-3+ 5-3 + ( —2) . 3 + ( —2 )-3 + 3 -3 = 17,
a3= —2)-3 + 5 -(-2 ).3 + 5 -3 * 3 + ( ~ 2)-3-3] = 33,
a4 = o-(—2)*3-3=. —90,
de sorte que
f (X) = X* — 9x3 + 17*2 4_ 33 * — 90.

Si le coefficient a0 du terme principal d’un polynôme / (æ) n ’est


pas égal à 1, alors il faut, avant d’appliquer les formules de Viète,
diviser tous les coefficients du polynôme par aQ, ce qui ne modifie
pas les zéros de / (,x). Ainsi, dans ce cas, les formules de Viète don­
nent les expressions des rapports des coefficients au coefficient a0
par les zéros du polynôme.
Polynômes à coefficients réels. Maintenant, nous allons établir
quelques conséquences du théorème fondamental de l ’algèbre des
nombres complexes, qui concernent les polynômes à coefficients
réels. L’importance du théorème fondamental de l ’algèbre est
essentiellement due à Ces conséquences.
Soit a un zéro complexe du polynôme à coefficients réels
/ (x) = a0xn + f l / " 1+ . . . + an^ x + ani
166 POLYNÔMES ET LEURS ZÉROS [GH. V

c’est-à-dire on a
a0an + ditx71-1+ . . . + a ^ a + an = 0.
Nous savons que dans la dernière égalité on peut remplacer tous
les nombres complexes par leurs conjugués. Or, les coefficients
a 0, al9 . . an_l9 an de / (a:) et le nombre 0 du second membre
étant réels, nous sommes, donc, conduits à l ’égalité
a0an + a1a7l~1+ . -. +^-iOc + an = 0
oq, encore,
/ ( « ) - o.
Ainsi, si un nombre complexe {non réel) a est un zéro d'un polynô­
me f {x) à coefficients réels, alors le nombre complexe conjugué a Vest
aussi.
Par conséquent, le polynôme / (x) est divisible par le polynôme
du deuxième degré
<p{x) —(x —a) (x —a) = x8 (a + a) x + aa, (8)
dont les coefficients, d’après le § 18, sont réels* Tenant compte
de ceci, montrons que les ordres de multiplicité des zéros a et a du
polynôme f (x) sont les mêmes.
En effet, soient k et l les ordres de multiplicité respectivement
de a et de a et soit, par exemple, k > l. Alors / (a;) est divisible
par la puissance Zème du polynôme qp (x),
/(* )= « pl (*)«<*)•
Le polynôme q (x), quotient de deux polynômes à coefficients réels,
est encore un polynôme à coefficients réels ; or, a est un zéro d’ordre
de multiplicité {k — l) de q (x), tandis que a n ’est plus un zéro
de q (x), ce qui est en contradiction avec le résultat démontré ci-
dessus pour les polynômes à coefficients réels. Il en résulte que k = L
Ainsi, nous pouvons maintenant énoncer que les zéros complexes
d'un polynôme à coefficients réels sont conjugués deux à deux. Il s ’en­
suit de cette propriété et de l ’unicité de la représentation (2) d’un
polynôme le résultat final suivant :
Tout polynôme f (x) à coefficients réels peut être représenté d'une
façon unique (à l'ordre des facteurs près) sous la forme d'un produit
dont les facteurs sont respectivement le coefficient a0 du terme principal
de f {x) j puis plusieurs polynômes à coefficients réels de degré Un de la
forme x — a, correspondant aux zéros réels de f (x) et, enfin, plusieurs
polynômes du deuxième degré de la forme (8) correspondant aux couples
de zéros conjugués complexes.
5 25] FRACTIONS RATIONNELLES 167

Pour la suite il est utile de noter que parmi les polynômes à coef­
ficients réels avec l’unité pour coefficient du terme principal, les
polynômes de degré un de la forme x — a et les polynômes du deu­
xième degré de la forme (8) sont les seuls qui ne puissent pas être
mis sous la forme d'un produit de facteurs de degré plus petit;
ces polynômes sont dits irréductibles.
§ 25** Fractions rationnelles
Outre les polynômes, on étudie encore en analyse les fonctions
dites fractions rationnelles ; ce sont les quotients de deux polynômes
, où g {x) 0. On effectue les opérations algébriques sur ces
fonctions d'après les mêmes règles qu’en arithmétique sur les nom­
bres rationnels, c’est-à-dire d’après les règles d'opérations sur les
fractions dont les numérateurs et les dénominateurs sont entiers.
L ’identité de deux fonctions rationnelles, ou, encore, de deux frac­
tions rationnelles, a le même sens que l'identité des fractions en
arithmétique. Pour fixer les idées, nous considérons les fractions
rationnelles à coefficients réels ; le lecteur n ’aura aucune peine
à remarquer que tous les résultats de ce paragraphe se généralisent
presque mot à mot au cas des fractions rationnelles à coefficients
complexes.
Une fraction est dite irréductible si son numérateur et son dé­
nominateur sont des polynômes premiers entre eux.
Toute fraction rationnelle est égale à une fraction irréductible,
cette dernière étant bien définie à un facteur numérique près, ce dernier
étant commun pour le dénominateur et le numérateur.
En effet, toute fraction rationnelle peut être simplifiée en divi­
sant ses deux polynômes par leur plus grand commun diviseur, après
quoi cette fraction devient irréductible. Soient deux fractions
irréductibles égales et , c’est-à-dire
& *(*) iÿ(*)
f{x)\\>(x)^g(x)<p(x); (1)
alors, / (a:) et g (x) étant premiers entre eux, il en résulte, vu la
propriété b) du § 21, que / (x) est un diviseur de cp (z), tandis que,
en raison de la même propriété pour <p (z) et i|3 (a:) (qui sont égale­
ment premiers entre eux) il s’ensuit que / (x) est divisible par (p (,x).
Ainsi, f (x) = ap (x), et de (1) il résulte que g (a:) == n\>(x).
Une fraction rationnelle est dite régulière si le degré du numé­
rateur est inférieur à celui du dénominateur. Ajoutant à l ’ensemble
des fractions régulières le polynôme nul, le théorème suivant est
vrai :
Toute fraction rationnelle peut être mise d'une façon unique sous
la forme de la somme d'un polynôme et d'une fraction régulière.
168 POLYNÔMES ET LEURS ZÉROS [CH. V

En effet, soit une fraction rationnelle - j - et supposons qu’en


divisant / (x) par g (x) on obtienne l’égalité
f(x) = g (x) q(x) + r {x),
où le degré de r(x) est inférieur à celui de g(x). Alors, il est
facile de vérifier que
f M = Q(x) + LW
e(x) + g (*) *
Si on a également une autre égalité pour :

Jg.M
(*) - à«( W
x ) +\ <v(x) »

avec le degré de (x) inférieur à celui de ip (x), alors on obtient


l ’égalité
q(x) — q(x) <p(*) r (x) 9 (* ) g (a ) — 1|? ( x ) r ( x )
Ÿf*) g(x) ( x ) g (x )

Le premier membre étant un polynôme et le second une fraction


régulière, il en résulte que q(x) —q (x) = 0 et que
<p ( a ) r (x) _ »
V( x ) g (*)
Les fractions rationnelles régulières peuvent être l ’objet d’une
étude plus détaillée. Pour cela rappelons la remarque faite à la
fin du paragraphe précédent sur l’irréductibilité des polynômes
de la forme x — a avec a réel et des polynômes de la forme x%—
— (P + P) x + pp, où p et P sont deux nombres complexes conju­
gués. Il est facile de vérifier que dans le cas complexe les polynômes
de la forme x — a avec a complexe jouent le même rôle.
Une fraction rationnelle régulière j —y-est dite simple si son déno­
minateur g (x) est une puissance d’un polynôme irréductible p (z)r
g(x) = pk (x), k > 1,
et le numérateur / (2) de degré inférieur à celui de p (x).
Le théorème suivant est vrai :
Toute fraction rationnelle régulière se décompose en une somme
de fractions simples.
Démonstration* Soit d’abord une fraction rationnelle régulière
g(Jfh (x) avec ^es Polynômes 8 (x)^ (x) premiers entre eux,
(g{x), h(x)) = 1.
§ 25] FRACTIONS RATIONNELLES 169

Par conséquent, d'après le § 21, il existe des polynômes u(x) et


v(x) tels que l ’on ait
g (z)u (z) + h (x) u (z) — 1.
Il en résulte
g{x) [ü (* )/(£)]+*(«) = /(* )• (2)
Soit u (x) le reste de la division du produit u (z) f (x) par h (z),
le degré de u (z) étant inférieur à celui de h (z). Alors l ’égalité (2)
peut être récrite sous la forme
g (x\u (x) + h{x)v (x) = / (z), (3)
où v (z) est un polynôme qui peut être facilement calculé. Les degrés
du produit g (z) u (z) et du polynôme / (z) étant inférieurs au degré
du produit g (z) h (z), le degré du produit h(x)v (x) est également
inférieur à celui de g (z) h (x), de sorte que le degré de v (x) est
inférieur à celui de g (z). De (3) il résulte l’égalité
j (x) (x) u (x)
g( x ) h( x ) g(x) 1" h(x) ’
dont le second membre est une somme de fractions régulières.
Si au moins un des dénominateurs g (z) et h (z) peut être repré­
senté sous la forme d’un produit de polynômes premiers entre eux,
alors on peut réaliser encore une décomposition. Continuant ce
processus nous obtiendrons la décomposition de toute fraction régu­
lière en une somme d'un certain nombre de fractions régulières dont
chacune a pour dénominateur une puissance d'un, polynôme irréductible.
f (x\
Plus précisément, soit une fraction régulière dont le dénomi­
nateur g (z) se décompose en un produit de facteurs irréductibles :
g (x) = pl1(X) P22(x) . . . p*‘ (x)
(on peut toujours supposer que le coefficient du terme principal
du dénominateur d’une fraction rationnelle est égal à l ’unité) ;
en outre, p t (x) =£ p} (x) pour i Alors on a
/ (*) __ “l (*) , “2(*) | | M a) .
#(*>#<«) " # (* )’
les termes du second membre de cette égalité sont des fractions
régulières.
Il reste à considérer le cas d’une fraction régulière de la forme
Ph (*) 9
où p (z) est irréductible, Appliquant l ’algorithme de division
avec reste, divisons u (z) par p'K~1 (z), puis le reste de la division
par pk~2 (z), etc.
170 POLYNOMES ET LEURS ZÉROS [CH. V

Nous sommes conduits aux égalités suivantes :


U (X ) = p * ' 1 ( X ) Sj (x) + U\ ( x ),
(x) = (a;) s2(x) + u2{x).

Uk-z («) = P (*) Sft-l (X) + Uft.j (x).


Le degré de u (x) étant, en vertu de notre hypothèse, inférieur au
degré de ph (x) et les degrés des restes ut (x), i = l, 2, — 1,
inférieurs aux degrés des diviseurs correspondants ph~l (a;), les
degrés de tous les quotients sx (,x), s2 (x), . . sk-x (x) sont stricte­
ment inférieurs au degré du polynôme p (x). Le degré du dernier
reste uh„x (x) est également inférieur à celui de p (x). Il résulte des
égalités obtenues que
U (x) = JB*-1(x) Si (x) + ph~*(x) S2(x) + . . . + p (X) Sft_! (x) +
+ Ufc-t (X ).

Cela nous conduit à la représentation cherchée de la fraction


rationnelle u ^ sous la forme d’une somme de fractions simples :
Ph (*>
U(x) _ U k - t { X ) . sk-i (x) I £ a W f

Pk (*). Ph (x) P (*) ' P2 W P (*)


Le théorème est démontré. On peut le compléter par le théorem
d'unicité :
Toute fraction rationnelle régulière se décompose d'une façon unique
en une somme de fractions simples.
En effet, soient deux représentations différentes d’une fraction
régulière sous la forme d’une somme de fractions simples. Retran­
chant l ’une des décompositions de l ’autre et groupant les termes
semblables, nous obtenons une somme de fractions simples identi­
quement nulle. Les dénominateurs des fractions simples formant
cette somme sont certaines puissances de polynômes irréductibles
distincts (x), p 2 (x), . . p e (x) ; soit pkJ (x), i = 1, 2, . . s,
la plus grande puissance du polynôme p t (x) intervenant aux déno­
minateurs des fractions simples. Multiplions les deux membres
de l ’égalité en question par le produit pfi"1 (x) p%* (x) . . . p*s (x).
Tous les termes de la somme, excepté un, deviennent, après cette
multiplication, des polynômes. En ce qui concerne le terme
il se transforme en une fraction dont le dénominateur est le polynô­
me (x) et le num érateurlé produit u (x) p%2 (x) . . . p ^ (x).
Le polynôme px (x) étant irréductible et tout facteur du numéra­
teur formant avec px (x) un couple de polynômes premiers entre
§ 25] FRACTIONS RATIONNELLES 171

eux, le numérateur n ’est pas divisible par le dénominateur. Effectuant


la division avec reste nous obtenons que la somme d’un polynôme
et d’une fraction régulière non nulle est nulle, ce qui est impossible.
Exemple. Décomposer en une somme de fractions simples la fraction
régulière réelle avec
g(*)
f (s) = 10jr3+7x2 + 4x + 3,
g (2 ) = x5—2x3 _|_2 x2 —3 s + 2 .
Il est facile de vérifier que
g(x) = ( x + 2) (x —l)2 (x2+ l) ;
en outre, chacun des polynômes x + 2 , x —1, x2+ l est irréductible. Il découle
de la théorie exposée ci-dessus que la décomposition cherchée doit être de la
forme
/(* ) ■ A B C Dx+E
g ( x ) X + 2 ‘ (x 1)2 ' x — 1 ' x2+ l ’ {*)
où les nombres A , B , C, D et E sont à déterminer.
De (4) résulte l ’égalité
/ (x) = A (x — 1)2 (x2 + 1 ) '+ B (x + 2) (x2 + 1) +
+ C ( x + 2 ) (x — 1) (x 2 -f l ) + i ) x ( x -h 2) ( x — 1)2 +
+ £ ( ï + 2 ) ( * - 1)>, ( 5)
Identifiant les coefficients desmêmes puissances de x dans les deux membres de
l ’égalité (5), nous obtenons un système de çinq équations linéaires à cinq incon­
nues A, £ , C, Z>, E ; en outre, il vient du théorème démontré ci-dessus que ce
système possède une solution unique. Néanmoins, nous allons choisir une autre
méthode.
Faisant dans (5) x = —2, nous avons l’égalité 45A — 135, d’où l ’on a
A = 3, (6)
Faisons ensuite x = l dans (5), il vient 6i? = 6, c’est-à-dire
* = 1- ( 7)
Maintenant, faisons dans (5) successivement x = 0 et x = —1. Utilisant (6)
et (7) nous obtenons les équations
—2C+2£ = —2, |
( 8)
—4C ~ 4 D + 4 £ = —8. /
Il en résulte que
£>= 1. ( 9)
Enfin, faisons * = 2 dans (5). Utilisant (6), (7) et (9), nous trouvons l ’équation
2 0 C + 4 E = —52, 5
qui, avec la première équation (8), donne
C = —2, £ = —3.
Ainsi,
f(x) 3 , 1 2
§ 26* Réduction d'une forme quadratique
à la forme canonique
La géométrie analytique, notamment la théorie des courbes
t des surfaces du second degré, se trouve à l ’origine de la théorie
des formes quadratiques. On sait que l ’équation d’une courbe plane
du deuxième degré, ayant un centre de symétrie, peut être mise,
après translation de l ’origine du système des coordonnées rectangu­
laires au centre de symétrie, sous la forme suivante :
Ax* + 2Bxy + Cy2^ D . (1)
Puis, on sait qu’on peut effectuer une rotation des axes de coor­
données d’angle a, c’est-à-dire passer des coordonnées x , y aux
nouvelles coordonnées x', y' :
x = x r cos a —y' sin a,
y = x' sin a + y' cos a,
de manière que l ’équation de la courbe soit réduite à la forme
« canonique », le coefficient de x'y' dans la forme canonique étant
nul :
A'x'* + C'y'* = ü . (3)
La transformation (2) peut être interprétée comme une transformation
linéaire des indéterminées (cf. § 13) ; en outre, elle est non singu­
lière, le déterminant de ses coefficients étant égal à l ’unité. La trans­
formation (2) étant appliquée au premier membre de l ’équation (1),
on peut dire que le premier membre de (1) est réduit à la forme cano­
nique (3) par la transformation linéaire non singulière (2).
Les nombreuses applications ont nécessité le développement
d’une théorie analogue dans le cas où le nombre des indéterminées
est arbitraire mais fini et les coefficients sont des nombres réels
ou complexes quelconques.
Généralisant l’expression qui se trouve au premier membre de
l ’équation (1) nous sommes amenés à introduire la notion suivante.
On appelle forme quadratique f de n indéterminées xî7 x 2> . . xn
la somme dont tout terme est le carré d’une de ces indéterminées
§ 26] RÉDUCTION D ’UNE FORME QUADRATIQUE 173

ou le produit de deux indéterminées distinctes. Une forme quadra­


tique est dite réelle ou complexe selon que ses coefficients sont réels
ou complexes.
Les termes semblables d Tune forme quadratique étant groupés,
introduisons les notations suivantes pour les coefficients de cette
forme: le coefficient de x\ est ati et le coefficient du produit x tXf
2a,ij, i j (comparer avec (1)!). Etant donné que x tXj = XjXh on
pourrait noter le coefficient de ce produit par 2aJh autrement dit,
les notations introduites ci-dessus sont supposées vérifier les égalités
a Ji = a n - (4)
Cela étant, le terme 2aijXiXj peut être mis sous la forme
2 d i j X i X j == Ct i j Xi Xj -J—Û j i X j X i ,

et la forme quadratique / peut être représentée comme la somme de


tous les termes de la forme les indices i et / variant indé­
pendamment l’un de l ’autre de 1 à n:
n n
f — 2 2 aijxixj \ (5)
i—i j—i
en particulier, pour i = jf on trouve le terme anxf.
Il est clair que les coefficients a tj forment une matrice carrée
A = ( a tj ) d’ordre n ; A est appelé matrice de la forme quadratique f
tandis que le rang r de A est dit rang de /. En particulier, si r = n,
c’est-à-dire si la matrice A est non singulière, alors la forme quadra­
tique / est dite non singulière (ou encore non dégénérée). En vertu
de l’égalité (4), les éléments de la matrice A , qui sont symétriques
par rapport à la diagonale principale, coïncident, de sorte que
la matrice A est symétrique. Réciproquement, pour toute matrice
symétrique A d’ordre n on peut indiquer une forme quadratique (5)
de n indéterminées bien définie, ayant pour coefficients les éléments
correspondants de la matrice A .
On peut récrire la forme quadratique (5), utilisant la multipli­
cation des matrices rectangulaires, introduite au § 14. Convenons
d ’abord d’utiliser les notations suivantes: pour toute matrice carrée
ou rectangulaire A , on désigne par A ' sa matrice transposée. Si le
produit des matrices A et B a un sens, alors on a :
(AB)' = B 'A \ (6)
c’est-à-dire la transposée du produit de deux matrices A et B est égale
au produit des transposées des facteurs, Vordre des facteurs dans ce
produit étant interverti.
En effet, supposons que le produit AB ait un sens ; alors, il est
facile de vérifier que le produit B 'A ' a également un sens, car le
nombre des colonnes de la matrice B r est égal à celui des lignes
>de la matrice A '. L’élément de (AB)', se trouvant à l ’intersection
174 FORMES QUADRATIQUES [CH. VI

do la i*mc ligne et do la ; 0mc colonne, appartient à la ; ùmc ligne et


à la îf*mc colonne de la matrice A B . Il en résulte que cet élément
est la somme de n produits, ayant chacun pour facteurs un élément
de la yémc ligne de la matrice A et l ’élément, d’indice correspondant
de la ï(-mc colonne de la matrice B . Autrement dit, cet élément est.
égal à la somme des produits ayant pour facteurs un élément de la
;rmc colonne de la matrice A ' et l ’élément d’indice correspondant
de la iùmc ligne de la matrice B '. Ce qui démontre l’égalité (6).
Notons qu'une matrice A est symétrique si et seulement si elle
coïncide avec sa transposée, c'est-à-dire si
A ’ = A.
Notons par À" la colonne des indéterminées
( xi \

'Xn /
Àr est une matrice colonne à n lignes. Sa transposée est la matrice
X {x^ Xi, • »• ? %n)
qui est une matrice ligne à n colonnes.
A présent, la forme quadratique (5), dont la matrice des coeffi­
cients est A = (au), peut être mise sous la forme d ’un produit:
/ = X'AX.' (7)
En effet, le produit ^lÂr est une matrice colonne qui est de la
forme
” ’N
aijxj
n
S ^2jxj
i=i
AX

n
S &njxj
vi=i <
Multipliant à gauche cette matrice par la matrice X* nous obtenons
une « matrice » à une ligne et à une colonne, à savoir le second membre
de l ’égalité (5).
§ 26] RÉDUCTION D ’UNE FORME QUADRATIQUE 175

Effectuons une transformation linéaire des indéterminées x lr


x 2, • • •» Km dont la matrice des coefficients est Q = (qik) :
n
Xi = QihVhj ^= f » 2, , . , y n, (S)
fc=i
Que devient la forme quadratique / après cette transformation?
Notis supposons les éléments de Q réels ou complexes suivant que
la forme / est réelle ou complexe. Notant par Y la colonne des indé­
terminées yx, y %, . . . . yn, représentons la transformation linéaire
(8) sous la forme de l ’égalité matricielle:
X = QY. (9)
On a, en vertu de (6),
X' = Y'Q'. (10)
Substituant dans (7) à X et X ' leurs expressions (9) et (10),
il vient :
f = Y'{Q'AQ)Y.
ou encore
/ = Y' BY,
avec
B = Q'AQ.
Tenant compte de l ’égalité (6), valable pour un nombre quel-
conque de facteurs, et étant donné que la matrice A est symétrique
(ce qui est équivalent à l ’égalité A* = A), il vient :
B' = Q'A'Q = Q'AQ = B,
c’est-à-dire la matrice B est également symétrique. Ainsi nous avons
démontré le théorème suivant :
Une forme quadratique de n indéterminées ayant pour matrice
de ses coefficients une matrice A devient, apres une transformation
linéaire des indéterminées, de matrice Q, une forme quadratique des
nouvelles indéterminées de matrice des coefficients Q'AQ.
Supposons à présent que la transformation linéaire soit non
singulière, c’est-à-dire que Q et, par conséquent, Q' soient des matri­
ces non singulières. Les résultats du § 14 montrent que le rang du
produit Q'AQ est égal à celui de la matrice A. Ainsi, le rang d'une
forme quadratique est conservé lorsque les indéterminées sont soumises
à une transformation linéaire non dégénérée.
Considérons à présent, par analogie au problème géométrique
de réduction de l ’équation d ’une courbe plane du deuxième degré
ayant un centre de symétrie à la forme canonique (3) indiqué au
176 FORMES QUADRATIQUES [CH. V

début de ce paragraphe, le problème de réduction ({‘11110 forme


quadratique quelconque au moyen d’une transformation linéaire
non singulière à la somme de carrés des indéterminées, c’est-à-dire
à une forme, dite canonique, où les coefficients des produits d’indé­
terminées distinctes sont nuis. Supposons d’abord qu'une forme
quadratique / de n indéterminées xx, x 2, . . *n soit déjà réduite
par une transformation linéaire non dégénérée à la forme canonique
/ - fciJ/î + fhul bntjl, (11)
yx, y 2, . . yn étant les nouvelles indéterminées. Evidemment,
certains des coefficients fc,, b2, . . ., bn peuvent être nuis. Montrons
que le nombre de coefficients non nuis dans (1 1) est égal au rang r de
la forme f.
En effet, la forme (11) ayant été obtenue à la suite d une transfor­
mation non singulière, la forme quadratique, qui se trouve au second
membre de l'égalité (11), doit être de rang r. Or, la matrice de cette
forme quadratique est une matrice diagonale

Vo tj
et elle est de rang r si et seulement si sa diagonale principale contient
exactement r éléments non nuis.
Passons maintenant à la démonstration du théorème fondamental
des formes quadratiques.
Toute forme quadratique peut être réduite, au moyen d'une trans­
formation linéaire non singulière, à la forme canonique. En o u t r r ,
si la forme quadratique est réelle, alors les coefficients de la matrice
de la transformation linéaire peuvent être choisis réels.
Ce théorème est évidemment valable pour les formes quadrati­
ques d’une indéterminée, car une telle forme quadratique ne contient
qu’un terme de la forme ax2 et, par conséquent, est déjà réduite
à la forme canonique. Nous pouvons donc faire la démonstration
par récurrence sur le nombre des indéterminées n, c’est-à-dire dé­
montrer le théorème pour les formes quadratiques de n indéterminées
en supposant qu’il soit vrai pour les formes quadratiques dont
le nombre des indéterminées est inférieur à n.
Soit une forme quadratique de n indéterminées xt, x 2, . . xn
n n
/ — 2 2
i= i j = l
QijXiXj* ( 12)
§ 26] RÉDUCTION D ’UNE FORME QUADRATIQUE 177

Essayons de trouver une transformation linéaire non dégénérée


telle que Tune des nouvelles indéterminées dans l ’expression de /
soit séparée des autres, c’est-à-dire une transformation qui réduise /
à la somme de deux termes dont l’un est le carré de l’une des indéter­
minées nouvelles, soit y\, et l’autre est une forme quadratique des
indéterminées y 2, . . . » yn. Ce but peut être aisément atteint, si les
coefficients an , aaa, ♦ ■», ann, éléments diagonaux de la matrice
de la forme /, ne sont pas tous nuis, c’est-à-dire si l’expression (12)
contient au moins une indéterminée x élevée au carré avec un coef­
ficient non nul.
Soit, par exemple, an ^ 0. Alors, il est facile de vérifier que
la forme quadratique a[x (anxx + a12x 2 + . . . + û iA ) 2 a exacte­
ment les mêmes termes en x± que la forme quadratique /, de sorte
que la différence
/ —ûn (^11^1 + a12^2 + • • *+ atnxn)* = g
est une forme quadratique seulement des indéterminées x2% ...» xn.
Il en résulte que
/ — a n ia iix i + a V&2. + - - • + d in X n f + g -
Notant
y i = aiixi + ai2x2+ . . . + a inxn> yi = xu avec i = 2, 3, . ,. , w, (13)
il vient :
f= ^y\+ g, (14)
g étant une forme quadratique des indéterminées y2, y3, . * yn.
L’expression (14) est la formule cherchée pour la forme quadrati­
que/, car nous l ’avons obtenue de l ’expression (12) par une transfor­
mation linéaire non dégénérée des indéterminées xx, x 2, . . xn.
Notamment, cette transformation est l’inverse de la transformation
linéaire (13) à déterminant au ^ 0, qui est donc non dégénérée.
Si, par contre, on a axl = a22 = . - . = ann = 0, alors il faut
effectuer d’abord une transformation auxiliaire des indéterminées
de manière qu’elle fasse apparaître le carré de l ’une des indétermi­
nées dans l ’expression de /. Les coefficients a dans l’expression (12)
n’étant pas tous nuis (si atj = 0 pour tous les i et /, la forme / = 0),
on peut supposer, sans restreindre la généralité, que a12 ¥= 0. Cela
étant, la forme / est la somme du terme 2a12x1x 2 et d’une expression
dont chaque terme contient au moins l ’une des indéterminées x3, . . .
• • •» X7l*
Soumettons maintenant les indéterminées à une transformation
linéaire de la forme
x\ —Zi —z2? + Xi — zt pour i = 3, . (15)
12—1212
178. FORMES QUADRATIQUES [CH. VI

Elle est non dégénérée, car son déterminant est


1 - 1 0 ... o
i 1 0 ... 0
0 0 1 ... 0

0 0 0 ... 1
Après cette transformation le terme 2ai2XiX2 de / prend la forme
2ai2x iz 2= 2ai2 (zt —z2) {zx+ z2) = 2ai2z\ — 2ai2z\,
c’est-à-dire la forme / contiendra z\ et z\ avec les coefficients non
nuis, car tous les autres termes contiennent chacun au moins une
des indéterminées z3, . . ., zn, de sorte que z\ ni z\ ne peuvent pas
disparaître. A présent, nous avons la même situation que dans le cas
déjà considéré ci-dessus, c’est-à-dire appliquant encore une trans­
formation linéaire non dégénérée, nous pouvons réduire / à la for-'
me (14).
Maintenant, il suffit de noter que g est une forme quadratique
contenant au plus n — 1 indéterminées de sorte qu’en vertu de
l ’hypothèse de récurrence on peut la réduire par une transformation
linéaire non dégénérée des, indéterminées z/2, y3, . . yn à la forme
canonique. Cela achève la démonstration, car cette transformation,
considérée comme uûe transformation des indéterminées y y2, . .. .
* * «, yn (qui conserve yx) est, bien entendu, non dégénérée et réduit
la forme (14) à la forme canonique. Ainsi, la forme quadratique /
peut être réduite par deux, tout au plus trois transformations li­
néaires non dégénérées (on peut remplacer ces transformations par
une seule, qui est leur produit), à la somme de carrés des indétermi­
nées avec certains coefficients. On sait que le nombre de ces carrés
est égal au rang r de la forme /. Si, en plus, la forme quadratique f
est réelle, alors les coefficients de la forme canonique, ainsi que, les
coefficients de la transformation linéaire qui réduit /, sont égale­
ment réels; en effet, les coefficients de la transformation inverse
de (13), ainsi que les coefficients de la transformation (15) sont
réels.
La démonstration du théorème fondamental est achevée. On peut
l ’utiliser dans des exemples concrets pour réduire les formes quadra­
tiques à la forme canonique. Seulement, au lieu de la récurrence
sur le nombre des indéterminées, il faut appliquer successivement
le procédé ci-dessus, faisant apparaître les carrés des indéterminées.
Exemple. Réduire à la forme canonique la forme quadratique
/ = 2ljÎ2 •“*^2^3^ * (16)
§ 26] RÉDUCTION D ’UNE FORME QUADRATIQUE 179

La forme / ne contenant pas de carrés des indéterminées, réalisons d’abord


ta transformation linéaire non dégénérée
*1 = 01—021 *2 = 01+ 02» *3 = 03
à matrice

il vient :
f = 2y\ — 2 y \— 4yi03—8y203-
Le coefficient de y\ étant non nul, on peut séparer, dans l’expression de /,
l ’une des indéterminées. Faisant
*1= 2^ —2ÿ3, z3= 03»
c’est-à-dire réalisant une transformation linéaire dont l’inverse a pour
matrice la matrice

nous réduisons / à la formr

/ = ~2~zi —2*|—2z®—8z2z3.
Nous avons séparé seulement l’indéterminée zu car la forme contient encore
le produit des deux autres indéterminées. Le coefficient de z| étant non nult
nous pouvons utiliser encore une fois la méthode ci-dessus. Effectuant la trans­
formation linéaire
t%~ — —4^3, £3—^3,
dont l ’inverse a pour matrice

nous sommes, finalement, conduits à la forme canonique de / :

/ — J " * ! - - r ‘i+6<*- (17>


La transformation linéaire, réduisant la forme (16) à la forme canonique
(17), a pour matrice le produit des matrices A, B et C

12 *
180 FORMES QUADRATIQUES [CH. VI

On peut, d’ailleurs, vérifier directement que la transformation linéaire non


dégénérée ^son déterminant est —

1 1
x i — h ~ \ ~ ~ fa + 3^3,

x2= - 2 h - Y
*3= h
réduit la forme (16) à la forme (17).
La réduction des formes quadratiques à la forme canonique est
analogue à la réduction des équations des courbes du deuxième
degré à centre de symétrie en géométrie analytique; pourtant,
notre théorie ne saurait être considérée comme une généralisation
de la théorie géométrique. En effet, notre théorie admet toutes les
transformations linéaires non dégénérées, tandis que la réduction
des équations des courbes du deuxième degré à la forme canonique
se fait par rapplication des transformations linéaires très spéciales
du type (2) qui sont des rotations du plan. Néanmoins, on peut
généraliser cette théorie géométrique au cas des formes quadratiques
de n indéterminées à coefficients réels. La théorie géométrique des
formes de n indéterminées fait l’objet du chapitre VIII et nous
l’appelons réduction d'une forme quadratique à ses axes principaux.

§ 27. Théorème d’inertie


v La forme canonique n’est pas définie de façon unique: une
forme quadratique peut avoir plusieurs formes canoniques diffé­
rentes en fonction de la transformation linéaire qui la réduit. Ainsi,
la forme quadratique f = 2xxx 2 — Gx2x3 + 2zjrlf considérée au
paragraphe précédent, est réductible par la transformation linéaire
non dégénérée
X \ = ^1 “ H 3 ^ 2 - f - 2 / 3 ,

= fi — £2—
x3= tz
à la forme canonique
/= 2 i;+ 6 /;-8 f;f
qui est différente de celle obtenue précédemment.
On peut s’interroger qu’y a-t-il de commun entre les différentes
formes canoniques d’une forme quadratique donnée /. Ce problème
est très étroitement lié, comme on le verra plus tard, au problème
suivant : soient deux formes quadratiques ; quelle est la condition
§ 27] THÉORÈME D'INERTIE ttti

qui permet de transformer Tune en l'autre par une transformation


linéaire non dégénérée des indéterminées? Selon que l’on considère
les formes quadratiques réelles ou complexes, la solution de ces
problèmes n’est pas la même.
Supposons d’abord que les formes quadratiques considérées
soient complexes et que l ’on admette également les transformations
linéaires non dégénérées à coefficients complexes. Nous savons que
toute forme quadratique / de n indéterminées, de rang r, est réductible
à la forme canonique
/ = Clÿî + C2ÿ * + . . . + C rÿ ? ,

où tous les coefficients c1? c2, * • •> ct sont non nuis. Etant donné
qu’on peut extraire la racine carrée de tout nombre complexe, réali­
sons la transformation linéaire non dégénérée :
Zi — VciVi pour i = 1, 2, . . . , r ; zj = yj pour / = r + l,
Elle réduit / à la forme
/ = 2Î + 2Î+ . . . +^r* (1)
dite normale; la forme normale d’une forme quadratique est la
somme des carrés de r indéterminées avec les coefficients égaux
à l ’unité.
La forme normale ne dépend que du rang r de la forme /, c’est-à-
dire toutes les formes quadratiques de même rang r sont réductibles
à la même forme normale (1). Par conséquent, si les formes f et g
sont de même rang r, alors on peut réduire / à la forme (1) et, ensuite,
transformer la forme (1) en g; autrement dit, il existe une transfor­
mation linéaire non dégénérée qui transforme / en g. Comme, d ’autre
part, toute transformation linéaire non dégénérée conserve le rang
d’une forme quadratique, nous sommes conduits au résultat suivant :
Deux formes quadratiques complexes de n indéterminées sont réduc­
tibles Vune à Vautre par une transformation linéaire non dégénérée
à coefficients complexes si et seulement si ces formes sont de même rang.
Il résulte de ce théorème qu'une forme quadratique complexe de
rang r est réductible à la forme canonique comprenant les carrés de r
indéterminées avec les coefficients complexes arbitraires non nuis.
La situation est un peu plus compliquée si l ’on considère les
formes quadratiques réelles et si, en plus, l’on n’admet que les trans­
formations linéaires à coefficients réels (c’est surtout la seconde
condition qui est importante). Ce n’est pas toute forme quadratique
qui est réductible, dans ce cas, à la forme (1), car, sur cette voie,
nous pouvons nous heurter au problème d’extraction de la racine
carrée d’un nombre négatif. Si, toutefois, nous appelons à présent
forme normale d’une forme quadratique / la somme des carrés des
182 FORMES QUADRATIQUES [CH. VI

indéterminées avec les coefficients + 1 , —1 ou 0Talors nous pouvons


énoncer le résultat suivant : toute forme quadratique réelle f est réduc­
tible au moyen d'une transformation linéaire non dégénérée à coeffi­
cients réels à la forme normale.
En effet, la forme / de rang r des indéterminées x 2y . . xn
est réductible à la forme canonique, c’est-à-dire les indices des
indéterminées étant convenablement choisis, on peut mettre / sous
la forme
f = c ty l + • . • • • ■—Crÿr, 0 < fe < r,
avec clt c2, . . . , c* ; cft+1, . . . , cr réels et positifs. Cela étant, la
transformation linéaire non dégénérée à coefficients réels
zt = V c iy tpour i = l , 2 , . . r, Zj = yj pour / = r + l ,
réduit / à la forme normale
/ = z*+ z?.
Le nombre total des carrés, intervenant dans le second membre,
est égal au rang de la forme quadratique.
Une forme quadratique réelle peut être réduite à la forme norma­
le par une multitude de transformations différentes. Néanmoins,
la forme normale est définie de façon unique (à l ’ordre des indé­
terminées près). Cela résulte du théorème très important, dit théorème
d'inertie des formes quadratiques réelles :
Le nombre de coefficients positifs, négatifs ou nuis, intervenant
dans la forme normale d'une forme quadratique réelle, ne dépend pas
du choix de la transformation linéaire non dégénérée à coefficients
réels qui la réduit.
En effet, soient deux formes normales d’une forme quadratique
réelle / de rang r des indéterminées xv x a, . . xn :
f= y \+ . • • + y l - y l +i — • • • — y ? =
= z j . -f-z* —z*+l— . . . Zf.(2)
Le passage des indéterminées xly x 2y . . ., xn aux indéterminées
gu Vn étant une transformation linéaire non dégénérée,
il en résulte que la transformation inverse (le passage des indéter­
minées yi aux indéterminées x t)
n
Vi = 2 i = 1, 2, «.., n, (3)
0=1
est également non dégénérée. De même,
n
Zj = 2 b jt% t y J = 1y2, . • «, ny (4)
/—I
§ 27] THÉORÈME D’INERTIE 183

où le déterminant des coefficients bjt est non nul. En outre, les


coefficients des transformations (3) et (4) sont réels.
Supposons maintenant que k < l ; écrivons les égalités
ÿi = 0, • , ÿft = 0, = 0t • • • t = O» • *m %n“ (^)
Remplaçant les premiers membres de ces égalités par leurs expres­
sions (3) et (4), nous obtenons un système de n — / + * équations
linéaires homogènes par rapport aux inconnues xl7 x2t . . xn.
Le nombre d’équations étant strictement inférieur au nombre d’in­
connues, le système (5), en vertu du § 1, possède une solution réelle
non nulle y soit a lt a a, . . On.
Remplaçons, maintenant, dans (2) tous les y t et Zj par leurs
expressions (3) et (4) et substituons, ensuite, à la place des incon­
nues xXy x 2j . . ., xn les nombres a lt oc2, . . a n. Soient (a)
et Zj (a) les valeurs correspondantes de y t et %j\ en vertu de (5),
l’identité (2) prend la forme
- ÿft+i (a) — . . . —y'r (a) = z\ (a) -f . . . + z| (a). (6)
Les coefficients des égalités (3) et (4) étant réels, tous les carrés
dans (6) sont positifs, de sorte que tous ces carrés sont nuis ; on
en déduit les égalités
zi (oc) —0, zi{ a ) = 0 . (7)
D’autre part, en vertu du choix des nombres oc2, . . . , a*, on a
*/+i(a) = 0, . . zT(a) = 0, . . z * ( a ) ^ 0 . (8)
Ainsi, le système de n équations linéaires homogènes à n inconnues
Zi = 0, i = l, 2, . . n,
possède, selon (7) et (8), une solution non triviale aj, a 2, . . ♦, a n ;
par conséquent, le déterminant de ce système est nul. Or, cèla est
Contraire à l ’hypothèse que la transformation (4) est non dégénérée.
Nous nous heurtons à la même contradiction si nous supposons que
l < k y d’où l’égalité k = Z, qui démontre le théorème.
Le nombre de coefficients positifs et négatifs de la forme normale
d’une forme quadratique réelle / est dit respectivement indice d'inertie
positif et négatif de la forme /, tandis que la différence de ces indices
est appelée signature de la forme /. Bien entendu, si le rang d’une
forme est donné et si l’on connaît, en plus, l’un des trois nombres
définis ci-dessus, alors on peut trouver les deux autres, de sorte
que nous ne parlerons dans l ’énoncé des théorèmes que de l ’un de
ces nombres.
Démontrons maintenant le théorème:
Soient deux formes quadratiques de n indéterminées à coefficients
réels ; on peut les réduire Vune à Vautre par une transformation linéaire
184 FORMES QUADRATIQUES [CH. VI

réelle non dégénérée si et seulement si ces deux formes sont de même


rang et de même signature.
En effet, supposons qu’une forme / est réductible à la forme g par
une transformation réelle non dégénérée. On sait que cette transfor­
mation conserve le rang de la forme. Elle conserve aussi la signature,
car, dans le cas contraire, les formes f et g auraient des formes norma­
les différentes, de sorte que la forme / serait réductible à ces deux
formes normales. Or, cela contredit le théorème d’inertie. Inverse­
ment, si les formes f et g sont de même rang et de même signature,
alors elles sont réductibles toutes deux à une même forme normale
et, par conséquent, peuvent être transformées l ’une en l ’autre.
Soit une forme quadratique g réduite à la forme canonique
g =■ b(y\ + b2y\ + .. . + brÿrj (9)
avec &!, &2, . . ., bT non nuis; elle est manifestement de rang r.
Appliquant le procédé déjà utilisé ci-dessus à la réduction d’une
forme du type (9) à la forme normale, il est facile de voir que l ’indi­
ce d’inertie positif est égal au nombre de coefficients bt positifs
intervenant dans le second membre de l ’égalité (9). De cette remar­
que et du théorème précédent résulte le théorème :
Une forme quadratique f est réductible à la forme canonique (9)
(par une transformation réelle non dégénérée) si et seulement si la for­
me f est de rang r et si son indice d'inertie positif est égal au nombre de
coefficients bt positifs dans le second membre de Vexpression (9).
Formes quadratiques, produits de deux formes linéaires. Multi­
pliant deux formes linéaires de n indéterminées
(p = a\X± -j- a2x2+ . . . -h ^ — biXi -f- b2x2bnxny
nous obtenons, manifestement, une forme quadratique. Ce n ’est
pas toute forme quadratique qui peut être représentée sous la forme
d’un produit de deux formes linéaires; nous voulons trouver les
conditions qui garantissent une telle représentation, c’est-à-dire
les conditions pour lesquelles une forme quadratique peut être
resprésentée comme un produit de deux formes linéaires.
Une forme quadratique complexe f z 2, . . ., xn) est le produit
de deux formes linéaires si et seulement si elle est de rang deux au plus.
Une forme quadratique réelle f (x^ x 2l * . ., xn) est le produit de deux
formes linéaires si et seulement si Vune des deux conditions suivantes
est vérifiée : ou bien f est de rang un au plus ou bien f est de rang deux
et de signature nulle.
Considérons d’abord le produit de formes linéaires cp et ty. Si l ’une
d’elles est nulle, alors leur produit est une forme quadratique à coef­
ficients identiquement nuis et, par conséquent, de rang nul. Soiènt
deux formes proportionnelles <p et i|),
V = Cipt
§ 27] THÉORÈME D ’INERTIE 185

où c =t^=0 et <p n'est pas identiquement nulle ; on peut supposer, par


exemple, que le coefficient est non nul. Alors la transformation
linéaire non dégénérée
yi = alx i + . . , +OnXn> Vi = Xi pour i^= 2, 3, . , n
réduit la forme quadratique cpt|) à la forme
q4 = cyî-
Le second membre est une forme quadratique de rang un, de sorte
que <pi|) a le même rang. Soient, enfin, deux formes linéaires non pro­
portionnelles <p et on peut supposer, par exemple, que
#t d2
■0.
&i b2
Alors, la transformation linéaire
£/i — a^Xi + a2^2 + • * ~i~dnXny
y 2 = biXi + b2x2+ •
Vi = Xi pour 1 = 3, 4, . . . , n
est non dégénérée et réduit la forme quadratique (p\|) à la forme
<P^ = £i2/2.
Le second membre est une forme quadratique de rang deux; de plus,
dans le cas réel la signature de cette forme est nulle.
Démontrons la réciproque. Evidemment, toute forme quadratique
de rang nul peut être considérée comme produit de deux formes
linéaires dont Tune est identiquement nulle. Ensuite, toute forme
quadratique f (x19 x 2, . . ., xn) de rang 1 est réductible par une
transformation linéaire non dégénérée à la forme
f = cy\, c=£ 0,
ou encore
/ = (cÿl) J/l-
y1 s’exprimant linéairement par les indéterminées xly x Zy . . ., xnj
nous obtenons la représentation cherchée de / sous forme d ’un pro­
duit de deux formes linéaires. Enfin, toute forme quadratique réelle
/ (#i» x 2, . . ., z n) de rang 2 et de signature 0 est réductible par une
transformation linéaire non dégénérée à la forme
/ = irï-d;
on peut réduire à la même forme toute forme quadratique complexe
de rang 2. On a
y \— y\ = {yi-yzi{Vi+y2)
et, remplaçant yx et z/2 Par leurs expressions linéaires en xx, x 2, . . .
. . z n>nous obtenons !e produit de deux formes linéaires en ques­
tion. Le théorème est démontré.
186 FORMES QUADRATIQUES [GH. VI

§ 28. Formes quadratiques définies positives


Une forme quadratique f de n indéterminées à coefficients réels
est dite définie positive si sa forme normale est la somme des carrés
des indéterminées xXl x 2, . . xn avec les coefficients + 1 ou,
encore, si / est de rang n et son indice d’inertie positif est également n.
Le théorème qui suit permet de caractériser les formes quadra­
tiques définies positives sans avoir besoin de recourir *à leurs formes
normales ou canoniques.
Une forme quadratique f de n indéterminées xv xa, . . xn à coef­
ficients réels est définie positive si et seulement si f est positive pour
toutes les valeurs réelles des indéterminées x2, . . xn telles qu'au
moins une des x t soit non nulle.
Démonstration. Supposons qu’une forme quadratique f soit
réductible à la forme normale suivante:
/=yî + yî+...+tfm (1)
par la transformation linéaire réelle
n
ÿi = S aUxh i = 1, 2, . . . , n, (2)
i=l
à déterminant non nul. Si l ’on veut trouver la valeur de / pour
certaines valeurs réelles des on peut trouver d’abord par les
formules (2) les valeurs correspondantes des y t et, ensuite, par la
formule (1), la valeur de /. Notons que si x±i x2, . . xn ne sont
pas tous nuis, alors il en est de même des yl9 y2, . . ., yni car, dans
le cas contraire, le système d’équations linéaires homogènes à dé­
terminant non nul
n
2 Q'tjXj ^ 0, i = 1, 2, . . . , n,
i=l
aurait une solution non triviale. Remplaçant dans (1) yv y2l . . yn
par leurs valeurs (2), nous obtenons la valeur correspondante de /
qui est la somme des carrés de n nombres réels non tous nuis ; par
conséquent, cette valeur de f sera positive.
Inversement, soit une forme / qui n’est pas définie positive;
cela signifie que soit le rang, soit l ’indice d’inertie positif est infé­
rieur à n. Gela signifie encore que dans la forme normale de f (obte­
nue par exemple par la transformation linéaire non singulière (2)),
au moins un des carrés yf, . . soit est muni du coefficient —1
ou bien du coefficient 0. Montrons qu’il existe'des valeurs réelles
des indéterminées xlt z 2, . . ., xn non toutes nulles telles que les
valeurs correspondantes de/soient milles ou même négatives. On peut
trouver ces valeurs de xly x2, . ♦ ., xn en résolvant, par exemple,
au moyen de formules de Cramer, le système d’équations linéaires
§ 28] FORMES QUADRATIQUES DÉFINIES POSITIVES 187

obtenu de (2) avec yx = y2 — . . . = yn^1 — 0, y n = 1* En effet, pour


ces valeurs des indéterminées la forme / est nulle si y* n'intervient
pas dans sa forme normale, et f est —1 si y£ y intervient avec le
coefficient —1.
Le théorème démontré joue un grand rôle dans toutes les branches
où on a besoin des formes quadratiques définies positives. Néan­
moins, il ne permet pas d’établir, en partant des coefficients d’une
forme quadratique, si cette forme est définie positive ou non. On se
sert pour cela d’un autre théorème que nous énoncerons et démontre­
rons lorsque nous aurons introduit une notion auxiliaire.
Soit une forme quadratique f de n indéterminées à matrice A =
— {aif). Les mineurs d’ordre fc, situés à l’intersection des k pre­
mières lignes et des k premières colonnes,où k == 1, 2, . . n, de A
0 t i a i2 . . . « tk 011 012 • • ■ 0171
a ll a i2 021 022 • • ■ a Zh 021 022 • • • 0271
a tu » . . .t , * >. ,
021 022 . . . . .

0 * 1 '0A2 • « * a hh 0 /i 1 0ft2 * ■ • 07m

sont dits mineurs principaux de la forme /.


Le théorème suivant est vrai:
Pour qu'une forme quadratique f de n indéterminées à coefficients
réels soit définie positive, il faut et il suffit que tous ses mineurs prin­
cipaux soient positifs.
Démonstration. Pour n — 1 le théorème est vrai, car, dans ce cas,
la forme quadratique se réduit à un terme ax2 et est définie positive
si et seulement si a > 0. Aussi nous allons démontrer le théorème
par récurrence sur le nombre d’indéterminées n en faisant l ’hypothèse
que pour n — 1 indéterminées le théorème soit déjà démontré.
Faisons d’abord une remarque:
Soit une forme quadratique f réelle à matrice A ; toute transfor­
mation linéaire non dégénérée à matrice réelle Q conserve le signe
du déterminant de la forme f {c'est-à-dire le signe du déterminant
de la matrice A),
En effet, après une transformation linéaire à matrice Qy nous
obtenons une forme quadratique dont la matrice est Q'AQ ; or, on
a I Qf I = I Q N de sorte que

c?est-à-dire le déterminant \A \ se trouve multiplié par un nombre


positif.
Soit, maintenant, une forme quadratique
n
/ = 2 dijXiXj.
i. j=l
188 FORMES QUADRATIQUES [CH. VI

On peut la mettre sous la forme


71—1
/ = <P (£i, æ2, .. ., x„_i) + 2 2 ainXiXn + annx£, (3)
1=1
où cp est une forme quadratique de n — 1 indéterminées formée
par les termes de / qui ne contiennent pas xn. Il est clair que les
mineurs principaux de la forme coïncident avec les mineurs prin­
cipaux correspondants de la forme / (excepté le mineur principal
d’ordre n de /).
Supposons que la forme / soit définie positive. Alors il en est
de même pour la forme <p, car s’il existait des valeurs non toutes
milles de xl9 x 27 . . ., xn„x qui rendaient la forme cp non positive,
alors faisant xn — 0, on trouverait des valeurs xl7 z 2, . . ., xn telles
que /, en vertu de (3), prenne une valeur non positive, bien que
les valeurs trouvées de xl7 x 2, . . xn ne soient pas toutes nulles.
Ainsi, d’après l’hypothèse de récurrence, les mineurs principaux
de <p sont tous positifs, de sorte que tous les mineurs principaux
de /, excepté celui d’ordre n, sont tous positifs. En ce qui concerne
le mineur d’ordre n de la forme /, c’est-à-dire le déterminant de la
matrice A, sa positivité résulte des raisonnements suivants: la
forme / étant définie positive, on peut la réduire par une transfor­
mation linéaire non.,dégénérée à la forme normale, c’est-à-dire à une
somme de n carrés des indéterminées avec le coefficient + 1 . Le dé­
terminant de la forme normale étant positif, il en est de même
pour le déterminant de la forme /, en vertu de la remarque ci-dessus.
Supposons, à présent, que les mineurs principaux de la forme /
soient tous positifs. Il en résulte que tous les mineurs principaux
de la forme <p sont également positifs, dé sorte que, en vertu de l’hy­
pothèse de récurrence, q> est définie positive. Donc, il existe une
transformation linéaire non dégénérée des indéterminées xl7 x 2, . . .
. . ., xn. x qui réduit la forme q> à la somme des carrés de n — 1
indéterminées nouvelles, soit yl7 yn~v- On peut compléter
cette transformation en une transformation linéaire non dégénérée
de n indéterminées xx, x 2, . . xn en posant yn = xn> En vertu
de (3), la forme / se réduit, par cette transformation, à la forme
/ = S y l + 2 2 biny-iHn + bnny l ; (4)
i= l

les expressions exactes des coefficients 6**, par a**, n’ont aucune
importance. Etant donné que
V \ + ^ .b ln y iy n = { j/ i “h b in U n )* —
la transformation linéaire non dégénérée
+ i= 1, 2, . — 1,
Zn = yn
§ 28J FORMES QUADRATIQUES DÉFINIES POSITIVES189

réduit, en vertu de (4), la forme / à la forme canonique

/ = 2 Zi + CZn- (5)
i—1
Pour montrer que / est définie positive, il suffit de prouver que
le nombre c > 0- Le déterminant de la forme quadratique dans
le second membre de (5) est égal à c. Or, ce déterminant doit être
nécessairement positif, car la forme quadratique, second membre
de (5), est obtenue à partir de la forme / par deux transformations
linéaires non dégénérées, et le déterminant de /, en tant que mineur
principal d'ordre n de /, est positif.
Ainsi s’achève la démonstration du théorème.
Exemples. 1. La forme quadratique
/ = §x\ + x\ + 5x§ -f 4x^2 —8xjX3—4x2x3
est définie positive, car tous ses mineurs principaux sont positifs:
5 2 —4
= 1, 2 1 —2
—4 —2 5
2. La forme quadratique
/ = 3^1 + ar| + 5x§ + 4xtx2—8x^3 —4x2x3
n’est pas définie positive, car son mineur principal d’ordre deux est négatif
3 2
2 1
Remarquons que, par analogie avec les formes définies positives,
on peut introduire les formes définies négatives, c'est-à-dire les formes
quadratiques réelles non dégénérées telles que leurs formes normales
contiennent les carrés des indéterminées avec des coefficients —1.
Les formes quadratiques dégénérées dont la forme normale contient
seulement les carrés des indéterminées avec des coefficients -f l
(ou, respectivement, —1), sont dites, quelquefois, semi-définies.
Enfin, les formes quadratiques dont la forme normale contient les
carrés des indéterminées avec des coefficients + 1 et —1 sont dites
indéfinies.
Chapitre V II ESPACES VECTORIELS

§ 29. Définition d'un espace vectoriel. Isomorphisme


^ La définition d’un espace vectoriel à n dimensions, donnée au
§ 8, utilise la définition d’un vecteur, d’après laquelle un vecteur
est un ensemble ordonné de n nombres. Nous avons introduit T addi­
tion des vecteurs et la multiplication d’un vecteur par un scalaire,
et cela nous a conduits à la notion d’espace vectoriel à n dimensions.
Les premiers exemples d’espaces vectoriels ont été fournis par les
vecteurs segments issus de l ’originfe des coordonnées dans un plan
ou dans un espace à trois dimensions. Ayant du à faire à ces exemples
en géométrie, nous n ’avons pas toujours défini les vecteurs segments
par leurs coordonnées, car l ’addition des vecteurs et la multiplica­
tion d ’un vecteur par un scalaire peuvent être introduites du point
de vue géométrique, indépendamment du choix du système des
coordonnées. Notamment, on utilise la règle du parallélogramme
pour définir l’addition des vecteurs, tandis que la multiplication
d’un vecteur par un scalaire a signifie que ce vecteur est soumis
à une homothétie de coefficient a (avec changement de sens si a est
négatif). Il est logique de donner, dans le cas général, une défini­
tion d’un espace vectoriel n ’utilisant pas les coordonnées, c’est-à-
dire une définition qui n ’exige pas la donnée d’ensembles ordon­
nés de nombres. Nous allons donner cette définition. Elle sera
axiomatique. Les propriétés individuelles des vecteurs n ’y jouant
aucun rôle, cette définition a trait aux opérations algébriques sur
les vecteurs.
Soit un ensemble V ; on note les éléments de V par des lettres
latines minuscules : a, 6, c, . . . l . Supposons que dans l’ensemble V
soit définie une opération, dite addition, qui fait correspondre à tout
couple d’éléments a et b de V un autre élément bien défini de V
dit leur somme et noté a + b ; soit une autre opération dans l’ensem­
ble V dite multiplication d ’un vecteur par un scalaire réel, associant
à tout nombre réel a et à tout élément a de V un autre élément
bien défini de F, noté a a.
1 Différemment des notations adoptées au chapitre II, dans tout ce qui
suit les vecteurs seront notés par des lettres latines minuscules et les nombres
par des lettres grecques minuscules.
$ 29] DÉFINITION D ’UN ESPACE VECTQRIEL. ISOMORPHISME 191

Les éléments de F sont dits vecteurs et l ’ensemble F est appelé


espace vectoriel réel (ou encore espace affine réel) si les opérations
définies ci-dessus jouissent des huit propriétés suivantes:
I, L’addition est commutative: a + b = b + a,
IL L’addition est associative: {a + b) + c = a + (6 + c).
III. Il existe dans F un élément neutre, noté 0, vérifiant pour
tout a de F l ’égalité : a + 0 = a.
Il est facile de montrer, en s’appuyant sur la propriété I, Vuni­
cité de Vélément neutre ; en effet, soient deux éléments neutres 0X
et 0a, alors
0i + 02:= 0 lî
+ 02= 02+ 04= 0*.
d’où 0X= 02.
IV. Pour tout élément a de F il existe dans F un élément opposé.
noté — a, vérifiant l ’égalité : a + (—a) = 0.
I et II montrent 1*unicité de Vélément opposé; en effet, si (—a)l
et (—a)a sont deux éléments opposés de a, alors
( —a)t + Ia + ( —a)?\ “ ( —ai) + 0 = ( —a)u
[( —a)i + aJ + ( a)i = 0 + ( —a)2 = ( -»• a)2,
d’où {—o)x = (—a)2*
On déduit des axiomes I-IV pour tout couple d’éléments a et &
de F Vexistence et Vunicité de la différence a — b définie comme solu­
tion de l’équ&tion'
b+ x ~ a . (1)
En effet, posant
a — b —fl-f' ( —ù).
on vérifie aisément que a —b satisfait à (1):
b-\~ Ia + ( — &)] — [&+ ( — &)] Jr a = 0 + a = a,
ce qui prouve l ’existence de la différence. L’unicité se démontre
par le raisonnement suivant : soit un autre élément c tel que (1)
ait lieu, c’est-à-dire
b-\-c = a ;
ajoutant aux deux membres de cette identité l’élément —6, il
vient
c = a + (— 6).
Les axiomes suivants (cf. § 8) établissent le lien entre l ’addition
et là multiplication par un scalaire, ainsi que le lien entre la multi­
plication par un scalaire et les opérations sur les nombres. Notam­
ment, pour tout couple d ’éléments a, b de F et pour tout couple
192 ESPACES VECTORIELS [CH, VII

de nombres réels oc et P les égalités suivantes doivent être vérifiées :


V. a(a-\-b) = aa + ab ;
V I. (oc -|- P) a —oca -j- Pa )
VII. (ccP) a = oc(pa) ;
VIII. 1 -a = af
où par le symbole 1 on a noté le nombre un.
Indiquons quelques conséquences simples de ces axiomes.
[1]. oc-0 = 0.
En effet, si a est un vecteur de F, alors on a
oca = a (a + 0) —oca + cc-0,
c'est-à-dire
oc-0 = a a —aa — oca + [ —(oca)] = 0.-
[2]. 0-a = 0f
le symbole 0 dans le premier membre désignant le nombre réel mil
et dans le second l ’élément neutre de F.
En effet, si a est un nombre réel, alors
aa = (a + 0) a = aa + 0 *a,
d’où
0-a —oca — aa — 0.
[3]. Si oca = 0, alors soit cc = 0, soit a = 0.
En effet, si oc^O, c’est-à-dire si oc"1 existe, alors
a = 1•a = (a-1oc) a — a"1 (a a) — oc"1«0 = 0.
[4J. a ( —a) — —oca.
En effet,
oca + oc( —a) = a [a + ( —a)] = a •0 =? 0,
c’est-à-dire l ’élément oc( — a) est l ’opposé de oca.
[5], ( —o c ) a = —aa.
En effet,
oca + ( —a) a = [a + ( —a)] a = 0 *a = 0,
c’est-à-dire l ’élément ( — a) a est l ’opposé de a a.
[6]. a (a —b) = aa — oc6.
S ü9] DÉFINITION D ’UN ESPACE VECTORIEL. ISOMORPHISME 193

En effet, d'après [4],


ci(a — b)---=a [a~{-( — b)] --aa-\-a( — b) aa + ( —ab) - a a — ab.
17]. (a —p) a = <%a—pa.
En effet,
( a - p ) a - [ a + ( - P ) ] a - a a + ( —13) a ™aa -j- ( —pa) a a — fia.
Les axiomes I-VIII, ainsi que les propositions [l]-[7] qui en
découlent, seront utilisés ultérieurement sans indications spéciales.
Nous avons donné ci-dessus la définition d'un espace vectoriel
réel. Si nous avions supposé que sur l ’ensemble F, outre la multipli­
cation par les nombres réels, celle par les nombres complexes était
définie, alors les mêmes axiomes I-VIII nous donneraient la notion
(Vespace vectoriel complexe. Pour fixer les idées nous ne considérerons
ci-dessous que les espaces vectoriels réels ; néanmoins tous les résultats
se rapportant aux espaces réels s'étendent au cas complexe sans aucune
modification.
Il n ’y a pas de difficulté à donner des exemples d ’espaces vectoriels
réels. Tout d’abord, c’est l ’espace vectoriel réel à n dimensions
étudié au chapitre II et qui a pour éléments les vecteurs lignes.
Les vecteurs segments issus de l ’origine des coordonnées dans un
plan ou dans un espace à trois dimensions munis de l ’addition et
de la multiplication par un scalaire au sens géométrique (voir le
début de ce paragraphe) forment également des espaces vectoriels
réels.
Il existe des exemples d’espaces vectoriels à une infinité de
dimensions. Considérons les ensembles ordonnés de nombres réels
nui sont de la forme
a ( e t #2, • ■• i ce/i , * . »).
Les opérations sur les ensembles sont appliquées aux composantes
correspondantes ; notamment, si
b ((îj, P2i • • ■»Pn» • ■•)»
alors
a -f- b -= (ot| + Pi, «2 + P21 *• • »an + pn» • • •) î
d’autre part, si y est un nombre réel, alors
ya = {yai9 ya2, .. . 9yan, • - .)•
Les axiomes I-VIII sont vérifiés de sorte que nous avons dans ce cas
un espace vectoriel réel.
Un autre exemple d’espace vectoriel réel à une infinité de dimen­
sions est donné par l'ensemble des fonctions à valeurs réelles d ’une
variable réelle muni de l’addition et de la multiplication par les
nombres réels au sens usuel de la théorie des fonctions.
■i:j 12il»
194 ESPACES VECTORIELS CCH. Vil

Isomorphisme. A présent, nous nous proposons de trouver parmi


tous les espaces vectoriels réels ceux* qu’il est naturel d’appeler
les espaces à un nombre fini de dimensions. D’abord introduisons
une notion générale.
La définition d’un espace vectoriel utilise les propriétés des opé­
rations sur les vecteurs et non pas les propriétés des vecteurs eux-
mêmes. Cela étant, il peut arriver que les vecteurs de deux espaces
vectoriels soient de nature différente, tandis que les espaces vectoriels
eux-mêmes sont identiques du point de vue des propriétés des opé­
rations algébriques définies ci-dessus. Donnons la définition exacte:
Deux espaces vectoriels réels F et F' sont dits isomorphes s ’il
existe une application bijective entre les éléments de F et F' (à tout
élément a de F on associe son image bien définie a' dans F ', deux
éléments distincts de F ayant des images distinctes dans F', et
inversement à tout élément a' de F' correspond son image a bien
définie dans F) telle que pour tout couple d’éléments a et b de F
et pour tout nombre réel a Vimage de la somme (a + b) est la somme
des images, respectivement, de a et de 6:

{a 4* b'Y ^ a* -j- b*r ( 2)

de même que Vimage du produit a a est le produit du nombre a


par Vimage de a :
(a a / « a a \ (3)
Notons que toute application bijective entre F et F', vérifiant
les conditions (2) et (3), est dite application isomorphe ou isomor­
phisme.
Ainsi, l ’espace des vecteurs segments issus de l’origine dans
un plan est isomorphe à l ’espace vectoriel à deux dimensions ayant
pour éléments les couples ordonnés de nombres réels. En effet,
fixant dans le plan un système de coordonnées, on obtient un iso­
morphisme de ces deux espaces en faisant correspondre à tout vecteur
le couple ordonné de ses coordonnées.
Montrons la propriété suivante des isomorphismes d ’espaces
vectoriels : soient deux espaces F et F' et une application isomorphe
entre V et F' ; alors Vimage de Vélément neutre de F est Vélément
neutre de F'
En effet, soient a et a' respectivement un élément de F et son
image dans F'. Alors, en vertu de (2), on a
§ 30] ESPACES À UN NOMBRE FINI DE DIMENSIONS. BASES ld 5

§ 30. Espaces à un nombre fini de dimensions. Bases


Le lecteur peut vérifier aisément que les définitions de la dépen­
dance linéaire des vecteurs lignes, données au § 9, ainsi que la dé­
monstration de leur équivalence, n’utilisent que les opérations sur
les vecteurs, de sorte qu’elles peuvent être étendues au cas des espa­
ces vectoriels. Ainsi, on peut parler des vecteurs libres, des familles
maximales de vecteurs, etc., dans les espaces définis axiomatique-
ment.
Soient deux espaces isomorphes V et V' ; pour qu'un ensemble de
vecteurs a1? a 2> . ■-, ak de V soit une famille non libre, il faut et il
suffit que Vensemble formé par leurs images a[, a7, . . ., ai soit une
famille non libre.
Notons que si l ’application a a* est un isomorphisme, alors
l’application inverse à! —► - a l ’est également. Il suffit, donc, de
considérer le cas où l ’ensemble alf a 2i ■• ■» g* est une famille non
libre. Supposons qu’il existe des nombres a 2, - . M non tous
nuis tels que
a iûi “h «2^2 + **• “h &hak = 0.
L’image du second membre de cette égalité par l ’isomorphisme
considéré est l’élément neutre O7 de l’espace V'. Prenant l’image
du premier membre par cet isomorphisme et appliquant plusieurs
fois les formules (2) et (3), il vient
+ a 2Æ2+ • • • + &hah = 0',
autrement dit, l’ensemble a7, a7, . . ., a7* est une famille non libre.
Espaces à un nombre fini de dimensions. Un espace vectoriel V
est dit à un nombre fini de dimensions si l’on peut y trouver une famil­
le maximale formée par un nombre fini de vecteurs ; s’il en est ainsi,
toute famille maximale de V est dite base de l ’espace V.
Un espace vectoriel à un nombre fini de dimensions peut avoir
plusieurs bases différentes. Par exemple, dans l ’espace des vecteurs
segments du plan tout couple de vecteurs non colinéaires
(c’est-à-dire qui ne se trouvent pas sur une même droite) forme une
base de cet espace. Notons que la définition d’un espace à un nombre
fini de dimensions ne donne pas la réponse à la question suivante :
peut-il exister dans cet espace des bases à différents nombres de
vecteurs? De plus, on pourrait même admettre l’existence de bases
à un nombre arbitrairement grand de vecteurs dans un espace à un
nombre fini de dimensions. Nous allons élucider quelle est la si­
tuation en réalité.
Soit dans un espace vectoriel V une base de n vecteurs
^i» ^2i (l)
196 ESPACES VECTORIELS {CH. Vil

Soit a un vecteur de F. La base (1) étant une famille maximale,


Le vecteur a est une combinaison linéaire des vecteurs (1) :
a = a ^ t + a 2e2+ • •. + anen• (2)
D’autre part, la famille (1) étant libre, la représentation du vec­
teur a sous la forme (2) est unique. En effet, admettons que
a = a[ex+ a'2e2+ . . . +a'nen,
alors
{ai — a[)ei + (a2 — a2)e2 + .. .+(<** — a'n)en ^ Q ,
d’où il vient
^ = aî, i = 1, 2, ..
Ainsi, on peut associer à tout vecteur a une ligne bien définie
( « i, a 2, . . . , a « ) ( 3)
composée des coefficients de l ’expression (2) de a par les vecteurs
de la base (1) ou, comme nous convenons de dire, ligne des coordon­
nées du vecteur a rapporté à la base (1). Inversement, toute ligne
de la forme (3), c’est-à-dire tout vecteur à n composantes, au sens
du chapitre II, est la ligne des coordonnées d ’un vecteur de l’espa­
ce F, rapporté à la base (1), à savoir le vecteur qui s’exprime par
rapport à la base (1) sous la forme (2).
Ainsi, nous avons établi une application bijective entre les vec­
teurs de l’espace F et les vecteurs lignes de l’espace vectoriel à
n dimensions. Montrons que cette application (qui dépend, évidem­
ment, de la base (1)) est un isomorphisme.
Outre le vecteur a, qui dans la base (1) s’écrit sous la forme (2),
prenons dans l’espace F un vecteur h qui dans la base (1) se met
sous la forme
b- + P2£2+ ■• • + PnCn-
On a
&+ b — (cti + Pi) Cf + (c&2+ P2) ^2+ • • • + (Oto+ P»)
autrement dit, Vespace F étant rapporté à la base (l) et a et b des vecteurs
de V respectivement de coordonnées (aj) et (p,), la somme a + b a pour
coordonnées (a; + p>). D’autre part,
y a =3 {ya\) <?! + (ya2) e2+ . . . + (Va *) >
c’est-à-dire le produit ya> où y est un scalaire et a un vecteur de F,
rapporté à la base (1), a pour coordonnées le produit de y par les coor~
données correspondantes de a.
§ 30] ESPACES A UN NOMBRE FINI DE DIMENSIONS. BASES 197

Ceci démontre le théorème :


Tout espace vectoriel, ayant une base de n éléments, est isomorphe
à Vespace des vecteurs lignes à n dimensions.
On sait déjà que par isomorphisme entre deux espaces vectoriels
à toute famille non libre d ’un espace correspond une famille non
libre d’un autre espace et inversement. Donc, toute famille libre
de vecteurs conserve cette propriété après un isomorphisme quel­
conque. Il en résulte que Yimage de toute base d'un espace vectoriel
par isomorphisme est une base du second espace.
En effet, soient ev e2y . . en une base d’un espace V et e'r
e*v . . ,, e'n l’image de cette base dans l ’espace V' isomorphe à V.
La famille de vecteurs e[, e'2, . . e'n est libre. Supposons qu’elle
ne soit pas maximale. Alors on peut trouver, un vecteur / ' de V'
tel que la famille e', e'2, . . e'n, / ' soit encore libre. D’autre part,
le vecteur / ' est l ’image par isomorphisme d’un vecteur / de F.
Il en découle que la famille ely e2, . . en, f doit être libre* ce qui
est en contradiction avec la définition d’une base.
On sait également (cf. § 9) que toute famille maximale de l ’espa­
ce vectoriel des lignes à n dimensions est composée de n vecteurs
et que, par conséquent, toute famille de {n + 1) vecteùrs est non
libre. En outre, toute famille libre de vecteurs est sous-famille d’une
famille maximale. Tenant compte des propriétés des isomorphismes
établies ci-dessus, nous sommes conduits aux résultats suivants:
Toutes les bases d'un espace vectoriel V à un nombre fini de dimen­
sions possèdent le même nombre de vecteurs. Ce nombre étant n, l ’es­
pace F est dit espace vectoriel à n dimensions.
Toute famille de (n + 1) vecteurs d'un espace à n dimensions est
non libre.
Toute famille libre d'un espace à n dimensions appartient à une
base de cet espace.
Maintenant il est facile de vérifier que les espaces vectoriels
composés, respectivement, des suites infinies et des fonctions,
indiqués ci-dessus, ne sont pas à un nombre fini de dimensions ;
en effet, le lecteur y trouvera des familles libres qui contiennent
un nombre arbitrairement grand de vecteurs.
Changement de bases. Ce sont les espaces vectoriels à un nombre
fini de dimensions qui font l ’objet de notre étude. Evidemment,
l’étude des espaces vectoriels à n dimensions se ramène à celle de
l’espace vectoriel des lignes à n dimensions qui a été introduit au
chapitre II. Seulement, dans le chapitre II, cet espace était rapporté
à une base fixe, constituée des vecteurs ej, dont la / ème coordonnée
est égale à 1 et toutes les autres sont nulles, en outre, tout vecteur
de l’espace rapporté à cette base était donné par la ligne de ses coor­
données; tandis que maintenant nous n ’allons pas attribuer un rôle
exceptionnel à une base quelconque de cet espace.
198 ESPACES VECTORIELS [CH, VIJ

Voyons d’abord quel est le nombre de bases dans un espace vecto­


riel à n dimensions et quel est le rapport entre ces bases.
Soient deux bases d’un espace vectoriel V à n dimensions:
eiy e2>.. . ,en (4)
et
^2» ***»£«• (5)
Tout vecteur de la base (5) étant un vecteur de V, il s’exprime de
façon unique par les vecteurs de la base (4)
n
ï —1, 2( (6)
La matrice T.

dont les lignes sont formées par les coordonnées des vecteurs (5)
rapportés à la base (4), est dite matrice de passage de la base (4)
à la base (5).
En vertu de (6), la relation entre les bases (4) et (5) et T peut
être exprimée sous la forme de l ’égalité matricielle:
\ / T11^12 *• " ^1n N/ \
t 21t 22* ■- xzn *2
_

w \ Tri Tti2 • • • / < en /


ou, désignant respectivement par e et e' les colonnes des vecteurs
(4) et (5), on a encore
e' = Te.
D’autre part, notant par T' là matrice de passage de la base (5)
a la base (4), on a
e=7V .
II en résulte que
e = (T 'ï)e ,
e, — ( T T ' ) e '
ou, encore, en vertu de l’indépendance linéaire des bases e et e\

T 'T = 7T' = £ ,
§ dû] ESPACES À UN NOMBRE FINI DE DIMENSIONS, BASES 199

d’où
Tr = r e ­
cela prouve que la matrice de passage d'une base à une autre
est non singulière.
D'autre part, toute matrice carrée non singulière d'ordre n h élé­
ments réels est une matrice de passage d'une base donnée de l'espace
vectoriel à n dimensions à une autre base de cet espace.
Soient, en effet, une base (4) et une matrice non singulière T
d’ordre n. La base (5) sera formée par les vecteurs qui, rapportés
à la base (4), ont pour coordonnées les lignes correspondantes de la
matrice T; par conséquent, l ’égalité (7) est vérifiée. La matrice T
étant non singulière, le système de ses lignes et, par conséquent,
la famille (5) sont libres. Donc, la famille (5), en tant que famille
libre de n vecteurs, est une base de l’espace considéré et la matrice T
est la matrice de passage de la base (4) à la base (5).
Ainsi, nous aboutissons au résultat suivant: dans un espace
vectoriel à n dimensions on peut trouver autant de bases différentes
qu’il existe de matrices carrées non singulières d’ordre n* Bien enten­
du, nous considérons comme distinctes les bases formées par les
mêmes vecteurs, ordonnés de façon différente.
Transformation des coordonnées dfun vecteur. Soient deux bases
(4) et (5) d’un espace à n dimensions et r= (T ^ ) la matrice de passage
de e à e* :
e '^ T e .
Soit un vecteur a rapporté respectivement à la base (4) et à la
base (5) ; il s’agit de trouver la relation qui existe entre les lignes
des coordonnées de a dans ces deux bases.
Soit
n
a — 2<*■&}. (8)
j=i
n
' 1 = i2= l a i e 'i-
Utilisant (6), il vient :

a = 2 «i ( 2 *uej) = 2 ( 2 a iTu) «)■


i—1 i=l i—i i=l
Comparant cette dernière égalité et la relation (8) on a, en vertu
de l ’unicité de la représentation des vecteurs par les vecteurs d’une
base, la relation
n

O.J = 2 7 = 1. 2, . . . , n,
i —i
200 ESPACES VECTORIELS [CH. V il

ou encore, sous la forme matricielle,


(«î» a 2, . . . , On) = (a', a', .. .,a'n) T.
Ainsi, Za des coordonnées d'un vecteur a, rapporté à /a base
est égale à la ligne des coordonnées de a, rapporté à la base e \ multi­
pliée à droite par la matrice de passage T.
Bien entendu, il en résulte l'égalité
(a[, oc2, . . . , = (an a 2, . . . , a„) T~l .
Exemple. Considérons l'espace à trois dimensions ayant pour base les
vecteurs
«l, *3- (9)
Les vecteurs
e[=5ei — e2— 2e3y X
^2= 2^1—
1~3^2, >(10)
*3——2ei + e2+ *3 '
forment une autre base de cet espace, la matrice de passage de la base (9)
à la base (10) étant de la forme
5 —1 —2v

on a
Ti
2 3
_ 0 J;
2 1 V

Ainsi, le vecteur
a= 4^2—e3»
rapporté à la base (10), a pour ligne des coordonnées la ligne

/ 3 -* 6\
(ai, «J. aj) = ( l ,4 ,- i ) | - 2 1 - 4 = (-13,6,-27),
V 8 - 3 17/
c’est-à-dire
a= —134 + 64-27^.

§ 31* Applications linéaires


Nous avons déjà rencontré au chapitre III la notion de transfor­
mation linéaire des indéterminées. La notion que nous allons intro­
duire maintenant est d’un autre caractère. D’ailleurs, il n ’y aurait
aucune difficulté d’établir le lien qui existe entre ces deux notions.
Soit un espace vectoriel réel à n dimensions, noté Fn. Consi­
dérons une transformation de cet espace dans lui-même, c’est-à-dire
$ 31] applications linéaires 201

une application qui associe à tout vecteur a de Vn un vecteur a' de


cet espace. Le vecteur a' est appelé image du vecteur a par l'applica­
tion considérée.
Désignant par <p l ’application en question, on convient de noter
acp l’image du vecteur a par l’application cp (et non pas qp (a) ou
encore <pa) ; on a
a' — aq>.
La transformation cp d’un espace vectoriel Vn est appelée appli­
cation linéaire de Vn si la somme de tout couple de vecteurs a, b de
Vn a pour image la somme des images de a et de b :
(a + 6)<p = a(p + bcp, (1)
et si le produit de tout vecteur a de Vn par un scalaire réel a
a pour image le produit de a par l ’image de a :
(aa) cp= a (aqp), (2)
Il résulte immédiatement de cette définition que toute applica­
tion linéaire d'un espace vectoriel associe à une combinaison linéaire
des vecteurs alT a 2, ■• &k la combinaison linéaire de leurs images
avec les mêmes coefficients:
(aiai + a2a2+ . . . + a Aaft)(jp^al (a1(p) + a2(a2(p)+ . . . + a k (ak(p). (3)
Démontrons la proposition suivante :
Toute application linéaire (p d'un espace vectoriel Vn conserve le
vecteur nul,
0cp=0,
et pour tout vecteur a de Vn Vimage de — a par (p est le vecteur
— acp :
( —a)cp = —acp.
En effet, tenant compte de (2)t on a pour tout vecteur b de Vn
Ocp = (0•b) q>—0• (fcqp) = 0.
D’autre part,
( —a)q> = [( —l)a]rp = ( —l)(a<j>)= — eup.
La notion d’application linéaire d’un espace vectoriel dans lui-
même est une généralisation de celle de transformation affine d’un
plan ou d’un espace à trois dimensions connue du cours de géo­
métrie analytique; de fait, les conditions (1) et (2) sont toujours
vérifiées pour les transformations affines. Ces conditions sont encore
vraies pour les projections des vecteurs d’un plan ou d’un espace
à trois dimensions sur une droite (ou sur un plan). Par exemple,
la transformation de l ’espace vectoriel à deux dimensions, ayant
202 ESPACES VECTORIELS [CH. VIJ

pour éléments les vecteurs segments issus de l ’origine, qui associe


à tout vecteur sa projection sur un axe passant par l'origine, est
une application linéaire.
L'application identique e donnée dans un espace vectoriel Vn,
qui conserve tout vecteur a de 7 n :
ae = a,
ainsi que l'application nulle <o, qui fait correspondre à tout vec­
teur a de Vn le vecteur nul,
a(ù = 0,
sont des exemples d’applications linéaires.
Maintenant, nous passons à la description des applications
linéaires d ’un espace vectoriel Vn. Soit une base de Vn :
^li ^2» • *• t &n » (^)
exactement comme ci-dessus, la base (4), rangée en une colonne,
est notée par e. Tout vecteur a de Vn étant une combinaison linéaire
bien définie des vecteurs (4), l ’image de a est, en vertu de (3), la
combinaison linéaire avec les mêmes coefficients des images des
vecteurs ej. En d’autres termes, toute application linéaire <p de Vn
est bien définie par les images ex<p, c2cp, . . en<p des vecteurs d'une
base fixe quelconque de l'espace vectoriel Vn.
Quelle que soit la famille ordonnée de n vecteurs de Vn,
^1» ^2» • • • »C/li (5)
il existe une application linéaire unique dans Vn telle que les vecteurs
Ci, c2, . . cn de la famille (5) soient respectivement les images des
vecteurs Cj, c2ï . . en de la base (4) par l'application
£f(p —-cj, i — 1, 2, • • ,, n*(6)
L’unicité de l ’application <p ayant été montrée ci-dessus, il
suffit de démontrer son existence. Définissons l ’application <p de la
manière suivante: si a est un vecteur quelconque de 7 n, qui, rap­
porté à la base (4), est de la forme
n
a= 1
i= l

nous définissons l’application <p par l ’égalité


n
açp ~ o&jCj* (7 )
i= l

Montrons que, ainsi définie, l ’application <p est linéaire. En effet,


soit un autre vecteur 6 de Fn, qui, rapporté à la base (4), s’expri-
S 3 i] APPLICATIONS LINEAIRES 203

me par la combinaison linéaire


n

Alors, on a

(a + 6 )« p = [ + <?«]<p =
i=i
n n n
= S { « i + P i)cl = 2 «*c<+ 2 PiCi = aip-f bip.
i=l i=*i i=l
D’autre part, y étant un scalaire réel, il vient:
n n
(va)Cp= [t=l2 (Y«i) «il q> — i—2 1 (va.)Ci =
n
—y <2 a ici = v(acp).

En outre, les relations (6) sont vérifiées car elles résultent de la


définition même (7) de l ’application <p; en effet, la ième coordonnée
du vecteur eu rapporté à la base (4), est égale à l’unité et toutes
les autres coordonnées sont nu lies.
Ainsi, nous avons une application bijective entre les applications
linéaires d'un espace vectoriel Vn et les familles ordonnées de n vecteurs
(5) de cet espace.
Or, toutvecteur ch rapporté à la base(4), a des coordonnées
biendéfinies, desorte que l ’on a leségalités
71
i = l, 2, (8)
i=i
avec ccij bien définis. Les coordonnées du vecteur q, rapporté à la
base (4), forment une matrice carrée d’ordre n,
A = (a y), (9)
qui a pour sa ième ligne celle des coordonnées du vecteur ct (avec
1 ^ i ^ ra). La famille (5) ayant été choisie arbitrairement, la
matrice A d’ordre n est quelconque, mais à éléments réels.
Ainsi, nous avons une application bijective entre les applications
linéaires données dans un espace vectoriel F„ et les matrices carrées
d'ordre n; bien entendu, cette application dépend du choix de la
base (4).
La base (4) étant fixe, nous dirons que la matrice A donne une
application linéaire 9 ou, encore, que A est la matrice de l'applica­
tion 9, rapportée à la base (4). Notant «9 la colonne des images des
204 ESPACES VECTORIELS ECH. V li

vecteurs de la base (4) et comparant les relations (6), (8) et (9).


on en déduit l'égalité matricielle
ey = Ae (10)
qui décrit entièrement la relation qui existe entre une application
linéaire <p, une base e et la matrice A de l'application <p, rapportée
à la base e. cp étant une application linéaire qui, rapportée à la base
(4), a A pour matrice, a étant un vecteur quelconque, il s’agit de
trouver, en partant des coordonnées de a, rapporté à la base (4).
les coordonnées de acp rapporté à la même base. Si
n
a= 2j
i= l
alors,
n

i —1
la dernière relation est équivalente à l ’égalité matricielle
*<P = (<*!, ♦- .>0^) ( e s ­
compte tenu de (10) et de l’associativité de la multiplication des
matrices (cette dernière se vérifie aisément dans le cas où l ’un des
facteurs est une. colonne de vecteurs), on obtient :
acp —[(«i, a 2, .. .,On)A]e.
Il en résulte que la ligne des coordonnées du vecteur acp est le pro~
duit à droite de la ligne des coordonnées du vecteur a par la matrice A
de Vapplication linéaire <p (acp, a et cp étant rapportés à la base (4)).
Exemple. Soient un espace vectoriel à trois dimensions et une applica­
tion linéaire (p, qui, rapportée à une base eu e2, a pour matrice

a —5^+ ^2—2^3,
alors
( - 2 10\
(5, 1, - 2 ) 1 3 2 = ( - 9 , 16, 0),
V 0 - 4 1/
c 'e st-à -d ir e
aip = —9 ^ + 16<?2.
Changement de bases et relation entre les matrices correspondan­
tes d ’une application linéaire. Bien entendu, la matrice d’une appli­
cation linéaire dépend de la base, à laquelle cette application est
§ 31) APPLICATIONS LINÉAIRES 205

rapportée. Etablissons la relation qui existe entre les matrices d ’une


application linéaire rapportée à des bases différentes.
Soient deux bases e et e' et la matrice de passage T de e à e* :
e' = Te. (11)
Soient A et A' les matrices d’une application linéaire cp rapportée
respectivement aux bases e et e ', de sorte que
ecp~Ae, e'<p — A'e'. (12)
Compte tenu de (11), la seconde égalité (12) donne
(Te) A ' (Te).
Or,
{Te)<p = T (e(p).
En effet, si (t*,, t*2, . . ., t^ ) est la ?6mc ligne de la matrice T,
alors
(riiei + Tize2+ . . +Tiïle„)(p = T,1(^1cp) +
+ (*2<P) + ■• • + Tin
Ainsi, en vertu des relations (12), on a
(Te) ip — T (*p) = T (Ae) = (TA) e,
A ' (Te) = (A'T)e
ou encore
(TA)e=*(A'T)e.
Si au moins pour un i (avec 1 i ^ /i), la ième ligne de la matrice
TA était différente de la ième ligne de la matrice A 'T , cela signifierait
que deux combinaisons linéaires différentes des vecteurs ex, e2, . . .
. . en coïncident, ce qui est en contradiction avec rindépendance
linéaire des vecteurs de la base e. Ainsi, on a
TA = A'T,
d’où, en vertu de la non-singularité de la matrice de passage 7\
on obtient les relations
A 9= TAT~X, A = T M T . (13).
Deux matrices carrées B et C telles que l ’on ait l ’égalité
C — Q~XBQ,
où Q est une matrice carrée non singulière, sont dites matrices sem­
blables. En outre, on dira que la matrice C est la transmuée (ou,
encore, transformée) de la matrice B par la matrice Q.
Les égalités (13), établies ci-dessus, peuvent être ainsi énoncées
sous la forme d’un théorème.
206 ESPACES VECTORIELS (CH. VII

Les matrices d'une même application linéaire, rapportée à des


bases différentes, sont toutes semblables. En outre, la matrice d'une
application linéaire <p rapportée à une base e' s'obtient en transmuant
la matrice de <prapportée à une base e par la matrice de passage de e* à e.
Il faut souligner que si une application linéaire 9 rapportée
à une base e a A pour matrice» alors toute matrice B semblable
à A , c'est-à-dire telle que
B = Qr'AQ,
est la matrice de l'application cp rapportée à une autre base, à savoir
à celle qui s'obtient de e par la matrice de passage Q~x.
Opérations sur les applications linéaires. Fixant une base dans
l'espace Vn et faisant correspondre à toute application linéaire donnée
dans Vn la matrice de cette application rapportée à la base fixe,
on obtient» comme il a été démontré ci-dessus, une application
bijective entre les applications linéaires et les matrices carrées
d'ordre n. Il est naturel de s'attendre à ce que l ’addition et la multi­
plication des matrices, ainsi que la multiplication d'une matrice
par un scalaire, se traduisent par les mêmes opérations sur les ap­
plications linéaires correspondantes.
Soient deux applications linéaires 9 et 9 données dans un espace
vectoriel Fn. L'application qp -J- aj?, définie par l'égalité
a(<p + ty) = ay + ay>> (14)
est dite somme de 9 et 9 î elle associe donc à tout vecteur a de Vn
la somme des images de a, respectivement par les applications qp et 9,
U application qp + 9 est linéaire. En effet, pour tout couple
de vecteurs a et & de Vn et pour tout scalaire a, on a
+■&) (<P+ “ (a + b) 9 + (a -f- b) 9 =
= aqp + 69 + a\J>-j- 69 = a (qp+ 9) + b (cp+ 9 ) ;
(an) (qp + 9) = (aa) 9 + (aa) 9 = a (< 2 9 ) + a (a9) =
~ a (ûHp+ aap) = a [a (9 + 9)1-
D'autre part, on appelle produit de deux applications linéaires 9
et 9 une application 99 telle que l'on ait pour tout vecteur a de Vn :
a (91)5) (a9) 9 ; (15)
autrement dit 99 est le résultat de l'application successive de 9
et de 9-
L'application 99 est linéaire; en effet,
(a + 6 ) M>) = ((« + &) <p]t = (a<P+ M 1P=
= (a<p) + (&<p) t = a (<ptj>) + b (qn|>) ;
(aa) (qï^) = [(aa) <p] =
= [a (a9)l 9 = a [(<29) 9] —a [a (99)] ■
§ 31J APPLICATIONS LINÉAIRES 207

Enfin, x étant un scalaire et qp une application linéaire, on


appelle produit de (p par x une application x<p telle que Ton ait
a (x<p) = x (acp) ; (16)
l'image d’un vecteur par l'application x<p est, donc, le produit du
scalaire x et de l ’image de ce vecteur par l ’application qp.
Vapplication x<p est linéaire; en effet,
(a + b) (x<p) = x [(a + b) cp] = x (aqp + 6<p) =
= x (aqp) + x (ôcp) = a (xqp) + b (x<p) ;
(aa) (xqp) —x [(aa) <p] = x [a (acp)] =
= a [x (acp)J = a [a (xqp)].
Supposons que les applications linéaires cp et rapportées toutes
deux à une base el9 e2, . . en> ont pour matrices correspondantes
respectivement A et B, A = (a^), B — ((}*;):
etp — Ae, e\p = Be.
Alors, en vertu de (14), on a
n n
e;(cp + t{>) = ei<p+ <YiJ>= 2 octJe}+ 2 ^iJei =
i= i i=i
n
” ^21^ (a iJ "H P ii) e J>
ou encore

Ainsi, la matrice de la somme d'applications linéaires rapportée à une


base est égale à la somme des matrices de ces applications rapportées
à la même base.
D’autre part, compte tenu de (15), on a
n n
et (<pf) = (e,(p) t|>= ( 2 à tjej) = 2 «w (e^ ) =
j=i j= i

—S ( 2 PjbPh) “ 2 ( 2 a tvPj'ft) eki


; —1 k=i fc=l j—i
ou encore
e(<pi|)) = {AB) e.
Autrement dit, la matrice du produit de deux applications linéaires
rapporté à une base est le produit des matrices de ces applications rap­
portées à la même base.
UU8 ESPACES VECTORIELS {CM. VU

Enfin, en vertu de (16), on a


n a
t?j(x(p) = x (gicp) = X 2 a UeJ = S (xau) ef,
3—1 J=1
ou encore
0 (xcp) = (x4) éL
Par conséquent, la matrice de Vapplication xcp (ou x un scalaire
et rp wrce application linéaire) rapportée à une base est le produit de x
par la matrice de l'application cp rapportée à cette même base.
Il s'ensuit que les opérations sur les applications linéaires jouis-
sent des memes propriétés que les opérations correspondantes sur
les matrices. Ainsi, l'addition des applications linéaires est commuta-
live et associative, tandis que leur multiplication est associative
et non commutative pour n > l . La différence des applications
linéaires est également bien définie. Il faut souligner que l'applica­
tion identique %joue le rôle de Vélément unité dans Vensemble des appli­
cations linéaires, tandis que le rôle de Vélément nul est tenu par Vap­
plication linéaire nulle co. En effet, les applications linéaires e et co
rapportées à une base quelconque ont pour matrices respectivement
la matrice unité et la matrice nulle.

§ 32*. Sous-espaces d'un espace vectoriel


Un sous-ensemble L d'un espace vectoriel F est appelé sous-
espace vectoriel de F si L est un espace vectoriel par rapport à T ad­
dition des vecteurs et à la multiplication d’un vecteur par un scalaire
définies dans F . Ainsi, dans un espace euclidien à trois dimensions
l ’ensemble des vecteurs issus de l’origine et appartenant à un plan
(ou à une droite), passant par l'origine, forme un sous-espace vecto­
riel.
Pour qu'un sous-ensemble L non vide soit un sous-espace vectoriel
d'un espace vectoriel F, il suffit que les conditions suivantes soient
vérifiées :
1. Si les vecteurs a et b appartiennent à L, alors L contient éga­
lement le vecteur a + b,
2. Si le vecteur a appartient à L, alors a a appartient également
à L quel que soit le scalaire a.
En effet, en vertu de la condition 2, L contient le vecteur nul,
car si a appartient à L, alors 0-a — 0 appartient également à L.
Ensuite, si le vecteur a appartient à L, alors son opposé —a est
également un élément de L, compte tenu de la condition 2 et de
l'égalité —a — (—1)-a. Ceci entraîne, en vertu de la condition 1.
que la différence des deux vecteurs de /^appartient encore à L.
Les autres conditions de la définition d ’un espace vectoriel étant
valables pour F, elles sont, en particulier, vérifiées pour L.
§ 32] SOUS-ESPACES D ’UN ESPACE VECTORIEL 209

L’espace vectoriel F ainsi que l ’ensemble composé de l ’élément


nul de F nous fournissent deux exemples de sous-espaces vectoriels
de F (le second est dit sous-espace nul). Un exemple moins banal
s’obtient par le procédé suivant : soit
^21 • • • 7 Ûr (1)
une famille finie quelconque de vecteurs de F et soit L l ’ensemble
de toutes les combinaisons linéaires des vecteurs de la famille (1).
Montrons que L est un sous-espace vectoriel. En effet, si
b= -f“a 2^2 "H • • ■-|-0Crûr, C — 4“P2a2“h *• • “hPr^r»
alors
b - \ - C = (o&i + P i ) t f i + (0&2 + P 2 ) a 2 + • ■ • + ( a r + P r ) ^ r »
c’est-à-dire le vecteur b-\-c appartient à L \ de même, si b est un
élément de L , alors le vecteur
yb = (ya,) ax+ (ya2) a2+ . . . + {yar) ar
appartient également à L, quel que soit le nombre y .
Le sous-espace L est dit engendré par la famille de vecteurs (1);
L contient, en particulier, tout vecteur de là famille (1).
D’ailleurs, tout sous-espace vectoriel à un nombre fini de dimensions
est engendré par une famille finie de vecteurs, car il possède une base
finie (excepté le cas où le sous-espace est nul). La dimension d ’un
sous-espace vectoriel L ne dépasse pas celle de l ’espace Vn ; en outre,
la dimension de L est égale à n si et seulement si L — Vn. Bien
entendu, nous conviendrons que la dimension du sous-espace vecto­
riel nul est le nombre 0.
Pour tout entier k {avec 0 < k ri), il existe dans Vespace Vn
un sous-espace vectoriel de dimension k . Pour montrer cela, il suffit
de prendre le sous-espace vectoriel de Fn engendré par une famille
libre de k vecteurs de Fn.
Soient deùx sous-espaces vectoriels Lx et L 2 d ’un espace F.
L’ensemble des vecteurs appartenant simultanément à Lx et à L2
est encore un sous-espace vectoriel noté L 0 ; cela se vérifie facilement.
Lé sous-espace vectoriel L 0 est Vintersection de Lx et L2. D’autre
part, l’ensemble des vecteurs de la forme a + 6, où a appartient
à Lx et b à L2, est encore un sous-espace vectoriel noté L ; L est la
somme de Lx et £ 2. Désignant les dimensions de Lt, L2, L 0 et L
respectivement par dx, d2, d0 et d, on a la formule :
d — d\-\-d2—do? (2)
autrement dit, la dimension de la somme de deux sous-espaces vecto­
riels est la somme des dimensions de ces sous-espaces de laquelle on re­
tranche la dimension de leur intersection.
14-1212
210 ESPACES VECTORIELS [CH. VII

Pour démontrer cette formule, fixons une base quelconque de L0


^2* ♦• • » ado j (3)
complétons la famille (3) par les vecteurs fedo+i» b<h en une
base sur L iy soit
^ * ^do* ^do-hli • • •» ^dl» (4)
et par les vecteurs edo+1, . . cd2 en une base sur L2, soit
^1» ^2* •••> ^d24 (5)
Utilisant la définition du sous-espace vectoriel £, on vérifie aisé­
ment que L est engendré par la famille des vecteurs
^1* ^2* • • ^do» &do+l* • • • j ^di» *• *i Cd2* (6)
La formule (2) sera donc démontrée si nous démontrons que les
vecteurs (6) forment une famille libre.
Supposons le contraire, c'est-à-dire que l ’on ait :
a ^ i + a 2a2+ • •. + ccdoado + Pdo-M&do-fi + • • *+
+ Pdi&d1 + Vdû-fl^do+1 + * * • +Y d2^d2 “ O
avec certains coefficients numériques. Alors
d — a tat + <*2a2+ • • »+ «doad0+ Pdo+i^do+l + • • •
• • « “f"Pdi^di “ Tdo+l^do+i • • • Yd2^d2- (7)
Le premier membre de (7) appartient à Lly le second est un élément
de L %, de sorte que le vecteur dy valeur commune des deux membres,
appartient à L0 et s’exprime donc par les vecteurs de la base (3).
Or, le second membre de (7) montre que le vecteur d s’exprime
également par les vecteurs cdo +i, . . cd2. Il en résulte, compte
tenu de l ’indépendance linéaire des vecteurs (5), que tous les coef­
ficients Ydo+i» • ■m Yda sont nuis e t> Par conséquent, d = 0.
Or, la famille (4) étant libre, on déduit de l ’égalité d = 0 que tous
les coefficients aly . . a<f0, Pdo+i, . . -, $dl sont également nuis.
Ceci achève la démonstration de l’indépendance linéaire des vec­
teurs (6).
On laisse au lecteur le soin de vérifier que notre démonstration
est encore valable dans le cas où L 0 est un sous-espace vectoriel
nul, c’est-à-dire où dQ = 0.
Image et noyau d ’une application linéaire. Soit une application
linéaire q> d’un espace vectoriel Vn dans lui-même. Les définitions
d’un sous-espace vectoriel et d’une application linéaire entraînent
immédiatement que pour tout sous-espace vectoriel L de Vn l'en­
semble Lq> des images des vecteurs de L par l'application q> est encore
un sous-espace vectoriel. En particulier, l’ensemble Fnq> des images
§ 32] SOUS-ESPACES D 'U N ESPACE VECTORIEL 211

des vecteurs de Vn par l ’application qp est un sous-espace vectoriel,


dit image de l'application qp.
Calculons la dimension de l ’image de qp. Pour cela, rappelons
que les matrices d ’une application linéaire qp rapportée à des bases
différentes sont toutes semblables et, en vertu du dernier théorème
du § 14, ont toutes le même rang. On peut donc appeler ce nombre
rang de l’application linéaire qp.
La dimension de limage dyune application linéaire qp est égale
au rang de qp.
En effet, soit A la matrice de (p rapportée à une base ev ...
. ...» en. Le sous-espace vectoriel Fnqp est engendré par les vecteurs
£^qp, e2<p, • • ■» (8)
de sorte que toute sous-famille maximale de la famille (8) peut
être choisie comme base du sous-espace Fnqp. Or, le nombre maximal
de vecteurs linéairement indépendants de la famille (8) est égal
au nombre maximal de lignes linéairement indépendantes de la
matrice A ; autrement dit, il est égal au rang de A . Ceci achève
la démonstration du théorème.
On sait que l ’image du vecteur nul par toute application
linéaire qp est le vecteur nul. Ainsi, l ’ensemble N (<p) des vecteurs
de Vn, dont les images par l ’application qp sont le vecteur nul, est
non vide ; en outre, il est clair que N (qp) est un sous-espace vectoriel.
N (qp) est appelé noyau de l ’application linéaire qp, tandis que la
dimension de N (qp) est appelée dimension du noyau ou, encore,
déficit de qp.
Quelle que soit Vapplication linéaire qp de Vespace vectoriel Vn
dans lui-mêmey la somme du rang et de la dimension du noyau de qp
(ou codimension de l ’image de Vn par l ’application qp) est égale a la
dimension n de Vespace Vn.
En effet, soit r le rang de <p; alors le sous-espace vectoriel Fnqp
possède une base de r vecteurs
(9)

évidemment, les vecteurs (10) en général ne sont pas définis de façon


unique. S’il existait une combinaison linéaire non triviale des vec­
teurs (10) telle que l’image de cette combinaison par l ’application qp
soit le vecteur 0 (et, en particulier, si les vecteurs (10) étaient linéai­
rement dépendants), alors les vecteurs (9) seraient linéairement
14*
212 ESPACES VECTORIELS [CH. VII

dépendants, contrairement à leur choix. Il en résulte que le spus-


espace vectoriel L engendré par les vecteurs (10) est à r dimensions
et a le vecteur nul pour unique élément commun avec* N {j).
D autre part, la somme des sous-espaces vectoriels L et N (q>)
est l’espace Vn. En effet, soit c un vecteur de Vn ; il est clair que
le Vecteur d = cq> appartient au sous-espace Fnq). On peut, donc,
trouver un vecteur 6 de L tel que
b<p = d
(pour trouver b , il suffit de remarquer que les coordonnées du vecteur
6 rapporté à la base (10) coïncident avec les coordonnées du vecteur d
rapporté à la base (9)). Il résulte de cette dernière égalité et de la
définition du vecteur d que le vecteur c — b appartient au
sous-espace N (q>), car
(c —b ) <p= cq>—fc(p = d —d = 0.
Ainsi,
c = z b + {c — b)

avec (c — b ) appartenant à N (<p).


Les résultats obtenus et la formule (2) démontrée ci-dessus achè­
vent la démonstration du théorème.
Applications linéaires non dégénérées* Une application linéaire q
de l’espace vectoriel Vn dans lui-même est dite non dégénérée (ou non
singulière) si elle vérifie l ’une des conditions suivantes (l’équivalence
de ces conditions résulte immédiatement des théorèmes démontrés
ci-dessus) :
1. U application cp est de rang n. ,
2. L'image de l'application q) coïncide avec Vn.
3. L'application <p est telle que son noyau est de dimension nulle.
On peut donner d’autres définitions équivalentes. Par exemple.
4. Pour tout couple de vecteurs a et b de Fn, a b, leurs images
par Inapplication linéaire cp vérifient l'inégalité ay =£ by.
En effet, si l ’application q) satisfait à la condition 4, alors le
noyau de q) se réduit à l’élément nul, de sorte que la condition 3
est également vérifiée. Si, d’autre part, il existe des vecteurs a
et b de Vn tels que a ^ b et ay = fcq>, c’est-à-dire tels que a — b =£
^ 0 et (a — b) q) = 0, cela signifie que la condition 3 n’est pas
satisfaite.
2 et 4 entraînent :
5. Une application linéaire q> est une application bijective de l'es­
pace vectoriel Vn sur lui-même.
De la condition 5 résulte l ’existence de Vapplication inverse q)”1
pour toute application linéaire (p non dégénérée : q)"1 associe à tout
vecteur a<\p le vecteur a:
(aq>) (p-1 —a.
§ 33] RACINES CARACTÉRISTIQUES ET VALEURS PROPRES 213

L'application qT1 est linéaire, car


(aqp + 6<p) qr1= [(a + 6) «plqr1= a + ù,
[a (aq>)l qr1= [(aa) <p] qr1= aa.
La définition de l ’application qr1 entraîne les égalités
qxp"1 (11)
qui peuvent *être considérées comme définition de l ’application
inverse. Il s’ensuit de (11) et des résultats obtenus à la fin du para­
graphe précédent la proposition suivante: soit A la matrice d'une
application linéaire non dégénérée <p rapportée à une base (A est, en'
vertu de la condition 1, non dégénérée); alors, l'application qp"1, rap­
portée à la même basey a A "1 pour matrice.
Nous sommes donc conduits à la définition suivante d ’une
application linéaire non dégénérée:
6. L'application q) est non dégénérée si Vapplication linéaire
inverse q)"1 existe.

§ 33. Racines caractéristiques et valeurs propres


. Soit A = (aij) une matrice carrée d’ordre n à éléments réels.
La matrice A — XE, où X est une inconnue et E matrice unité d’or­
dre n, est appelée matrice caractéristique de A. Etant donné que
la matrice XE a X pour éléments de sa diagonale principale et que
tous les autres éléments de XE sont nuis, la matrice A — XE est
de la forme
a n —X a 12 . . . ocm
0^2i 0&22—^ • • • &2JI

CGr2 • . * OCnn—X
Le déterminant de la matrice A — XE, noté ] A — XE |, est
un polynôme de degré n par rapport à X. En effet, le produit des
éléments de la diagonale principale est un polynôme par rapport
à X qui est de la forme
( - 1 )n *n + . . . ;
les termes omis sont ceux qui contiennent X à des puissances stricte­
ment inférieures à n ; les autres termes du déterminant en question
peuvent contenir, au plus, (n — 2) éléments de la diagonale princi­
pale et, par conséquent, sont des polynômes de degré n — 2 au plus
.par rapport à X. On peut calculer les coefficients du polynôme en
question. Ainsi, le coefficient de A,”-1 est égal à (—l)*”1 (an +
+ a 22+ . - . + a nn), tandis que le terme indépendant de X est
égal au déterminant de A.
214 ESPACES VECTORIELS [CH. VII

| A — XE |, polynôme de degré n par rapport à X, est appelé


polynôme caractéristique de la matrice A , et on appelle racines caracté­
ristiques de A les zéros (réels ou complexes) du polynôme | A —
— XE |.
Les matrices semblables ont les mêmes polynômes caractéristiques
et y par conséquent y les mêmes racines caractéristiques.
En effet, soit

Alors, étant donné que XE commute avec toute matrice Q et que


j Q-11= j Ç|~S il vient :
\ B ~ X E \ = \Q-1A Q -X E \ = \Q~1( A - X E ) Q \ =
= \ q\ ~k \ A - x e \ . \ q \ = \ a - x e \1
ce qu’il fallait démontrer.
Ce résultat et le théorème du § 31 sur les matrices d’une appli­
cation linéaire rapportée à des bases différentes entraînent la propo­
sition suivante: bien que les matrices d'une application linéaire 9
rapportée à des bases différentes soient, en général, distinctes, elles
ont toutes les mêmes racines caractéristiques. Il est donc correct de les
appeler racines caractéristiques de Vapplication linéaire 9. L ’ensemble
des racines caractéristiques de 9, où chaque racine est prise autant
de fois que l’indique son ordre de multiplicité, est appelé spectral
ou spectre de l’application linéaire 9.
Les racines caractéristiques jouent un rôle très important dans
l’étude des applications linéaires. Le lecteur aura souvent l’occasion
de s’en rendre compte. Nous alions donner une des applications des
racines caractéristiques.
Soit 9 une application linéaire donnée dans un espace vectoriel
réel Vn. Soit b un vecteur non nul de Vn tel que son image par l’ap­
plication 9 soit colinéaire à b, c'est-à-dire
&9 = V>, (1)
où est réel. Alors, le vecteur b est dit vecteur propre et le scalaire
réel X0 valeur propre »le l ’application linéaire 9 ; en outre, on dit
que le vecteur propre b est relatif à la valeur propre A0.
Il faut remarquer que le nombre X0 est bien défini par la relation
(1), car b -t^ O. Notons qu’un vecteur propre est toujours non nul,
bien que le vecteur nul satisfasse à la condition (1) avec X0 quel­
conque.
La rotation d ’un plan euclidien autour de l’origine d’un angle
différent de nm avec m entier est un exemple d ’application linéaire
ne possédant pas de vecteurs propres. L’homothétie d ’un plan de
coefficient 5 est un exemple de nature entièrement différente. C’est
une application linéaire pour laque]lr> tout vecteur non nul, issu
§ 33] RACINES CARACTÉRISTIQUES ET VALEURS PROPRES 215

de l'origine des coordonnées, est propre ; tous ces vecteurs sont


relatifs à la valeur propre 5,
Une application linéaire <p possède des valeurs propres si et seule­
ment si elle a des racines caractéristiques réelles ; en outre, ses valeurs
propres coïncident avec les racines caractéristiques réelles correspondantes.
En effet, soient A — {a^) la matrice de l'application <p rapportée
à la base el9 e2> . . en et 6,
n
b— S
i=1
le vecteur propre de <p :
bq>= X0b. (2)
On a démontré au § 31 que
&<P= l(Pi. P2. •• •» $n)A]e. (3)
Les relations (2) et (3) nous conduisent au système d'équations
P l« il “b p 2 « 2 î " b ■ * • “b P n « n i ^ ^O pi »

P i« i2 + P 2 a 22 + • - • + p 7 i« n 2 = ^0p2» ^

P i« l7 i + P 2 a 2n ~ b • ■ • + P n& nn = ^o P * *

Etant donné que 0, les nombres p4, p2, • ••> Pn ne sont pas
tous nuis, de sorte que le système d'équations linéaires homogènes (4),
qu’on peut mettre sous la forme
(« 1 1 — ^ 0) x i “b « 21^2 -b • « • + & n \ x n = 0 ,
«12#1 "b («22 — ^ 0) x 2 ri* • * • “b « n2x n = 0 ,

«l/i^i "b &znx2+ • • • -b («/m —^o) %n —0,


possède une solution non nulle. Ceci entraîne que son déterminant
doit être nécessairement nul :
« i l — ^Oï «21» «711

«12» « 2 2 — ^ûi • - • i «n2


= 0. (6 )
i
i
« I th « 2 tm - ♦ > «7m — ^0
Transposant ce dernier, il vient
| A — X0E | = 0, (7)
ce qui signifie que la valeur propre X0 est en même temps une racine
caractéristique de la matrice A et, par conséquent, de l ’application
linéaire <p; en outre, X0 est manifestement réel.
216 ESPACES VECTORIELS [CH. VII

Réciproquement, soit À,0 une racine caractéristique réelle de


l ’application <p et, par conséquent, de la matrice A. L ’égalité (7)
a donc lieu, ainsi que l’égalité (6), qui s’obtient de (7) par transpo­
sition. Il en résulte que le système (5) possède une solution non
nulle ; en outre, on peut trouver une solution réelle de ce système,
car tous les coefficients de (5) sont réels. Notant par
( P i.P * . . . . . W (8)

cette solution, on a les égalités (4). Notons par b le vecteur de \'n


qui, rapporté à la base e1? e2, . . en, a pour ligne des coordonnées
la ligne (8) ; il est clair que b =j£ 0. Alors la relation (3) est vérifiée ;
les égalités (3) et (4) entraînent la relation (2). L’application- <p
a donc le vecteur b pour vecteur propre relatif à la valeur propre X0.
Le théorème est démontré.
Il faut remarquer que dans le cas où l ’espace vectoriel Vn est
complexe, les racines caractéristiques ne sont pas forcément réelles.
Autrement dit, dans ce cas, nous aurions démontré le théorème
suivant: soit une application linéaire <p donnée dans un espace vectoriel
complexe Vn ; alors les racines caractéristiques de qp coïncident avec
les valeurs propres correspondantes de Vapplication qp. Il en résulte
que toute application linéaire donnée dans un espace vectoriel complexe
possède des vecteurs propres.
Revenons au cas réel étudié ci-dessus. Il faut remarquer que
l ’ensemble des vecteurs propres relatifs à la valeur propre d’une
application linéaire cp coïncide avec l’ensemble des solutions réelles
non nulles du système d’équations linéaires homogènes (5). Il en
résulte qu'en ajoutant le vecteur nul à l'ensemble des vecteurs propres
relatifs à la valeur propre XQ1 nous obtenons un sous-espace vectoriel
de Vespace Fn. En effet, les résultats du § 12 montrent que Ven­
semble de toutes les solutions réelles d'un système d'équations linéaires
homogènes à n inconnues est un sous-espace vectoriel de Fn.
Applications linéaires à spectre simple. Il y a des situations où
il est important de savoir s’il existe pour une application linéaire
donnée qp une base telle que la matrice de qp, rapportée à cette base,
soit diagonale. En effet, ce n ’est pas toute application linéaire qui,
rapportée à une base, puisse avoir pour matrice une matrice diagonale.
Les conditions nécessaires et suffisantes seront données au § 61 ;
pour le moment nous ne donnons qu’une condition suffisante. Démon­
trons d’abord les résultats auxiliaires suivants:
Pour qu'une application linéaire qp, rapportée à une base et , e2, . . .
. . en, ait une matrice diagonale, il faut et il suffit que tout vecteur
de cette base soit un vecteur propre de qp.
En effet, les égalités
S 33] RACINES CARACTÉRISTIQUES ET VALEURS PROPRES 217

sont équivalentes à la condition que la matrice de l'application 9,


rapportée à la base et, e2, . . -, en, soit diagonale, les éléments
diagonaux étant respectivement Xv >*2, . . ., Xn.
Les vecteurs propres bly b2, . . jbk d'une application linéaire cp,
relatifs aux valeurs propres distinctes, forment une famille libre.
Démontrons cette proposition par récurrence sur k ; pour k= 1
la proposition est vraie, car, tout vecteur propre étant non nul,
ce vecteur forme une famille libre. Soient
—Xfbi, i = l ,2 , . .., k 1
et
Xi *-/—Xj pour i —f—ji .
Si la famille bu b2l ., bk est non libre.
^2^2H-*• • ■t ® A —0? (9)
avec, par exemple, o ^ ^ O , alors appliquant 9 aux deux membres
de l ’égalité (9), il vient :
(xiX^bi -f- cc2^2^2 ~\r • ♦ • + &}iXkbh — 0.
Multipliant, l'égalité (9) par Xh et la retranchant de la dernière
égalité, on obtient *
a t (^ 1 — ^ k ) ^1 ~h a 2 (^ 2 —*^ h ) b% + • * • “f f t h - i bk-i = 0 .

Cela signifie que les vecteurs bv &2, . . bk^ forment une famille
non libre, car a x 0.
On dit qu’une application linéaire 9 donnée dans un espace vec­
toriel réel Vn a un spectre simple si toutes ses racines caractéristiques
sont réelles et distinctes. L’application 9 a, donc, n valeurs propres
distinctes, de sorte que, en vertu du théorème démontré ci-dessus,
il existe dans l’espace Vn une base formée par les vecteurs propres
de cette application. Ainsi, toute application linéaire à spectre simple
peut être donnée par une matrice diagonale.
Passant de l ’application linéaire aux matrices qui la définis­
sent, nous obtenons le résultat suivant :
Toute matrice dont toutes les racines caractéristiques sont réelles
et distinctes est semblable à une matrice diagonale ou, encore, est ré­
ductible à la forme diagonale.
Chapitre VI I I ESPACES EUCLIDIENS

§ 34. Définition des espaces euclidiens. Bases orthonormales


La notion d’espace vectoriel à n dimensions ne généralise pas,
dans une mesure complète, celle de plan ou d’espace euclidien à trois
dimensions ; en effet, la longueur d’un vecteur, ni l’angle des deux
vecteurs n ’étant pas définis pour n > 3, il est impossible de déve­
lopper dans ce cas la théorie géométrique très riche qui est bien
connue du lecteur pour n = 2 et n = 3. Néanmoins cette situation
peut être redressée de la manière suivante.
On sait du cours de géométrie analytique que l ’on peut intro­
duire dans un plan ou dans un espace à trois dimensions le produit
scalaire des vecteurs. Cette définition utilise la notion de longueur
des vecteurs et celle d’angle de deux vecteurs; mais il se révèle,
par la suite, que la longueur d’un vecteur aussi bien que l ’angle
de deux vecteurs peuvent être exprimés au moyen du produit scalaire.
Ainsi, utilisant les propriétés bien connues du produit scalaire des
vecteurs du plan ou de l ’espace à trois dimensions, nous définirons
d’abord de façon axiomatique le produit scalaire des vecteurs d ’un
espace vectoriel à n dimensions. En outre, nous n ’introduirons pas
la notion de longueur d’un vecteur, ni celle d’angle de deux vecteurs
compte tenu de ce qui nous a poussés à inclure ce chapitre dans le
cours d ’algèbre supérieure. Nous renvoyons le lecteur désireux
d’apprendre les fondements de la géométrie dans les espaces à n di­
mensions à la littérature spéciale et, notamment, aux cours plus
complets d’algèbre linéaire.
Notons crue partout dans ce chapitre, excepté la fin de ce para­
graphe, les espaces vectoriels sont supposés réels.
Nous dirons qu’un produit scalaire est défini dans un espace
vectoriel Vn à n dimensions si à tout couple de vecteurs a et b on
associe un nombre réel (noté (a, b) et dit produit scalaire des vecteurs
a et b) tel que les conditions suivantes soient vérifiées :
I. (a, &) = (&, a).
II. {a “ bj c) = (û, c) -|- (6, c).
III. (aa, 6) = a(a, b).
§ 34] DEFINITION DES ESPACES EUCLIDIENS. BASES ORTHONORMALES 219

IV. Si o # 0 , alors le produit scalaire de a par a est stricte­


ment positif,
(a, a ) > 0.
Ici a, b, c sont des vecteurs de l ’espace V„ et a un nombre réel.
Faisant a = 0 dans III, il vient:
(0, b) = 0, (1)
autrement dit, le produit scalaire du vecteur nul par tout vecteu • b est
nul ; en particulier, le produit scalaire du vecteur nul par lui-même
est nul.
Il résulte immédiatement des II et III la formule pour le produit
scalaire des combinaisons linéaires des vecteurs de deux familles:

( 2 ®i®ii 2 —2 2 (®<> t>j). (2)


i —1 j= l i= lj= i

Un espace vectoriel à n dimensions, muni d’un produit scalaire,


est dit espace euclidien à n dimensions.
Quel que soit n, on peut définir dans un espace vectoriel Vn un pro­
duit scalaire, c'est-à-dire transformer Vn en un espace euclidien.
En effet, soit ev e2, . . en une base de Fn. Si
n n
a= Oli€i, b — ^
i—i i=1
on pose

6 ) = S «iPi- (3)
i=i
On vérifie aisément que les conditions I-IV sont satisfaites, c’est-à-
dire que l ’égalité (3) définit dans Vn un produit scalaire.
La définition (3) dépendant manifestement du choix de la base,
nous constatons qu’il existe une multitude de façons d’introduire
le produit scalaire dans un espace vectoriel à n dimensions; or, pour
le moment, nous ne savons pas encore si nous sommes en mesure
d’introduire un produit scalaire de façon essentiellement diffé­
rente. Nous nous proposons d’examiner toutes les façons de trans­
former un espace vectoriel à n dimensions en un espace euclidien ;
cela nous amènera à la conclusion que, dans un certain sens, il
n ’existe pour tout n qu’un seul espace euclidien à n dimensions.
Soit En un espace euclidien à n dimensions, c’est-à-dire supposons
que l ’espace vectoriel à n dimensions soit muni d’un produit scalaire
quelconque. Les vecteurs a et b sont dits orthogonaux si leur produit
scalaire est nul :
(a, b) = 0.
220 ESPACES EUCLIDIENS [CH. VIII

Il résulte de (1) que le vecteur nul est orthogonal à tout vecteur;


néanmoins, il existe des vecteurs orthogonaux non nuis.
Une famille de vecteurs est appelée familte orthogonale si tous
ses vecteurs sont orthogonaux deux à deux.
Toute famille orthogonale de vecteurs non nuis est libre.
Ett effet, soit une famille de v.ecteurs al9 a2, . . ah de EA
telle que at 0, i — 1, 2, . . k y et
(ah aj) — 0 pour (4)
Soit
a iai + «2a2 + • • • + = 0î
formant alors les produits scalaires des deux membres de la dernière
égalité par les vecteurs aiy l< i< Z c , il vient, en vertu de (1), (2)
et (4),
0 —(0, a^ = (ccia* + cc2^ 2 > fl*) —
~ a i (®i> a i ) + & 2 ( a 2> a i ) + * ■* + à i) =
= <Xj (flî, Æf).
Il en résulte que à t = 0, i = 1, 2, . . ft, car, selon IV,
(ûf, ai) > 0, ce qu’il fallait démontrer.
A présent, décrivons le procédé d'orthogonalisation, c’est-à-dire
un moyen de passer d’une famille libre de k vecteurs non nuis
a U a2i *• ah (5)
d’un espace euclidien En à une famille orthogonale composée éga­
lement de k vecteurs non nuis de En qui seront notés bx, b2l . . bk.
Soit bL = a19 c’est-à-dire le premier vecteur de la famille (5) sera
également un élément de la famille orthogonale que nous devons former.
. Posons, ensuite,
&2= "I” ®2*
Le vecteur b2 n ’est pas nul pour toute valeur du nombre réel a lf
car bx = et les vecteurs ax et a2 sont linéairement indépendants.
Choisissons a x de manière que b2 soit orthogonal à bx :
0~ (6i, 62) — -(^î* a i ^ i + a z ) = a t (^1* ^ i ) + ( ^ i i a z)>

d’où, vu la condition IV, on obtient:


(61,
(bu bt)
Supposons que nous ayons déjà trouvé une famille orthogonale
de l vecteurs non nuis, soit bv • • •» bt ; supposons, en outre,
que le vecteur bt s’exprime linéairement par les vecteurs al9 a2, . . .
• • -, ati l ^ i ^ L Cette dernière supposition sera également vraie
§ 34] DÉFINITION DES ESPACES EUCLIDIENS, BASES ORTHONORMALES 221

pour le vecteur b;+1, s’il :est de la forme


bi+t = bi + oc2^2 + • - *+ &ibi + ai+1*
En outre, la famille (5) étant libre et le vecteur n'intervenant
pas dans l’expression des vecteurs 61? ô2, • i bh le vecteur è /+1
est non nul. Choisissons les coefficients a*, i = 1, 2, . . I, de
manière que le vecteur soit orthogonal aux vecteursb\, i =
- 1, 2, . . I,
0 = (bi, bt+i) = {bh atb l+ a ^ 2+ • • •
- • • + a { b i + û/+1) = a 4( b i , b ^ +
+ a 2(6i, &a) + • • • ~\~ai (&<>
+ (&*» ai+1) î
les vecteurs bu b2, . .*,6* étant orthogonaux, il en résulte que
ai (bu bi) + (bu a<+1) = 0
ou encore
a t-= (bit i = l , 2, . . L
(bit &i)
Continuant ce processus, nous construirons la famille orthogonale
cherchée de vecteurs 62, , , i /t,
Appliquant le procédé cTorthogonalisation à une base de l’espace
En, nous obtiendrons une famille orthogonale de n vecteurs non nuis,
c ’est-à-dire une base orthogonale de En, les vecteurs en étant linéaire­
ment indépendants, en vertu de la proposition démontrée ci-dessus.
En outre, étant donné que tout vecteur non nul appartient à une
base et compte tenu de la remarque ci-dessus sur le premier pas
du procédé d’orthogonalisation, nous pouvons énoncer la proposi­
tion suivante :
Tout espace euclidien possède des bases orthogonales; en outre,
tout vecteur non nul de cet espace appartient à une base orthogonale.
Dans la suite, un rôle important est attribué à un type spécial
de bases orthogonales ; ces bases correspondent aux coordonnées
cartésiennes, utilisées en géométrie analytique.
Un vecteur b est dit normé si le produit scalaire de b par lui-même
est égal à l ’unité:
<*. b) = 1.
Le passage d’un vecteur a^= 0 (et, par suite, (a, a ) > 0 ) au
vecteur
1
222 ESPACES EUCLIDIENS [ch . v n i

s'appelle normalisation du vecteur a. Le vecteur b est déjà


normé, car
{b, b) =
a)
a, -y j= = a ) = ( - 7 ! =
l/{a , a) I \V (a , a)l
Y 2 (a, a) = 1.
Une base e2, , . . , e n d’un espace euclidien En est dite
orthonormale si elle est orthogonale et si tout vecteur ej de cette
base est normé :
(ei, ej) = 0 pour i ^ U
{eu = i = l, 2, . . n. ^
Tout espace euclidien possédé des bases orthonormales.
Pour démontrer cela, il suffit de normer les vecteurs d’une
base orthogonale. La base restera orthogonale, car si (a, 6) = 0r
alors
(aa, p&) = aP (a, b) = 0,
pour tous nombres a et p.
Pour qu'une base el7 e2, . . en d'un espace euclidien En soit
orthonormale, il faut et il suffit que pour tout couple de vecteurs de En
rapportés à cette base leur produit scalaire soit égal à la somme des
produits des coordonnées de même indice de ces vecteurs ; autrement
dit, les égalités
n n
& = s PieJ (7)
i=l i=i
entraînent
(a,6) = J [ a , p , (8)
et inversement.
En effet, si la base en question vérifie les égalités (6), alors
n n
(æ , à) = ( 2 S Pj€ j)=
1 }=1
n n
— S a *P.J (* * » = S a *P*-
i, j=i i=l
Réciproquement, si la base ev e2, . . en est telle que pour tout
couple de vecteurs a et b ayant la forme (7) le produit scalaire
(a, b) s’exprime par la formule (8), alors, prenant pour a et & les
vecteurs et et e,*avec 1 L ) n> nous déduirons de (8) les égalités
( 6).
Comparant ce résultat à la démonstration du théorème d’existen­
ce des espaces euclidiens à n dimensions pour tout n (cf. ci-dessus),
§ 34] DÉFINITION DES ESPACES EUCLIDIENS. BASES ORTHONORMALES 223

nous pouvons énoncer la proposition suivante : soit une base dans


un espace vectoriel Vn à n dimensions; alors on peut munir Vn d'un
produit scalaire tel que la base choisie soit une base orthonormale de
l'espace euclidien correspondant.
Isomorphisme d’espaces euclidiens. Les espaces euclidiens E et E r
sont dits isomorphes s’il existe une application bijective de E sur E'
telle que les conditions suivantes soient vérifiées:
1) cette application est un isomorphisme de E sur E ', en tant
qu’espaces vectoriels (cf. § 29) ;
2) cette application conserve le produit scalaire, autrement dit>
si les vecteurs a' et b* de E f sont respectivement images des
vecteurs a et & de E , alors

(«,&) = («', 6'). (9) •


Il résulte immédiatement de la condition 1) que deux espaces
euclidiens isomorphes ont la même dimension. Montrons la réciproque.
Si E et E* sont deux espaces euclidiens à n dimensions, alors ils
sont isomorphes.
En effet, soient
£i» «• •» ( 10)
et
^1» ^2* *»• > (Ü )
les bases orthonormales respectivement de E et E \ Faisant cor­
respondre à tout vecteur a de E :
n
a = S ar«i
i=i
le vecteur a' de E f
n
a’ = 2 a iëi
i=l
(a et a' rapportés respectivement aux bases (10) et (11) ont les mêmes
coordonnées), nous obtenons manifestement un isomorphisme des
espaces vectoriels E et E'. Montrons que l ’égalité (9) a lieu; en
effet, si

b= S P iri,
i= i i=i
alors, selon (8), il vient (les bases (10) et (11) sont orthonormales !) :
n
(a, b)= 2 a<P«= <«'» b').
i=l
224 ESPACES EUCLIDIENS [CH. VIII

Il est naturel de ne pas distinguer les espaces euclidiens isomor­


phes. Ainsi, pour tout n, il m ’y a qu’un seul espace euclidien à n
dimensions, de même que pour tout n il n ’existe qu’un seul espace
vectoriel à n dimensions.
Les notions et les résultats de ce paragraphe peuvent être généralisés au
cas des espaces vectoriels complexes. Un espace vectoriel complexe est appelé
espace euclidien complexe s’il est muni d7un produit scalaire (a , 6), le nombre
(a, b) étant, en général, complexe; le produit scalaire doit vérifier les axio­
mes II-IV (dans l ’énoncé du dernier axiome il faut souligner que le produit
scalaire d’un vecteur b non nul par lui-même est réel et strictement positif),
tandis que Taxiome I doit être remplacé par la condition :
1' (a, 6) —(6, a),
où la barre signifie, comme d ’habitude, le passage au nombre conjugué complexe.
Par conséquent, le produit scalaire n ’est plus commutatif. Néanmoins,
l’égalité symétrique de celle de l ’axiome II est encore valable
ir (a, 6 + c) = (af &) + (a, c).
car
(a, b + c) = (b + cf a) = (b, a) + (c, a) = (b, a) + (c, a) = (<z, &) + (<*, c).
D’autre part,
nr (a, a b) — a (a, &),
car _____
(a, a b) —(ab , a ) — a (b, a) = a (b, a) — a (a, b).
Les notions d ’orthogonalité et de famille orthonormale de vecteurs se
généralisent sans aucun changement au cas des espaces euclidiens complexes.
On démontre, tout comme dans le cas réel, l’existence de bases ôrthonormales
dans un espace euclidien complexe à un nombre fini de dimensions. Toutefois,
si e e 2\ . . ., en est une base orthonormale et si les vecteurs a et b, rapportés à
cette bise, ont la forme (7), alors
n
(a, b) = 2
«iPi-
i= l
Les résultats des paragraphes suivants s’étendent également au cas des
espaces euclidiens complexes. Toutefois, nous ne nous en occuperons pas ici
et nous renvoyons le lecteur qui s’y intéresse aux livres spéciaux d’algèbre
linéaire.

§ 35. Matrices orthogonales, applications orthogonales


Soit une transformation linéaire réelle de n indéterminées à coef­
ficients réels ;
n
Xi= 2 i = l, 2, (1)
Notons par Q sa matrice. Cette transformation associe à la somme
des carrés des indéterminées x,. x2t . i xni c’est-à-dire à la forme
s 35] MATRICES ORTHOGONALES, APPLICATIONS ORTHOGONALES 225

quadratique x\ + x\ + . . . + x2ni une forme quadratique des


indéterminées yv y 2, . . ., yn. Il peut arriver que cette dernière
soit également une somme des carrés des indéterminées yly y2, . . ., yn,
c’est-à-dire que l ’on ait, après avoir remplacé z 17 x 2, . . ., xn par
leurs expressions (1), l’identité
x\ + x\ • - » + #n = y \ + y \ + • - • + Un- (2 )

Une transformation linéaire des indéterminées (1) jouissant de cette


propriété, c’est-à-dire conservant la somme des carrés des indéter­
minées, s’appelle transformation orthogonale et sa matrice Q est
dite matrice orthogonale.
Il y a d’autres définitions équivalentes des transformations et
matrices orthogonales. Donnons-en quelques-unes qui sont néces­
saires pour la suite.
On connaît du § 26 la règle selon laquelle se transforme la matri­
ce d’une forme quadratique lorsqu’on fait une transformation linéaire
des indéterminées. En l’appliquant dans notre cas, nous obtenons,
vu que la matrice unité E est la matrice de la forme quadratique,
somme des carrés des indéterminées, une égalité matricielle équiva­
lente à (2)
Q 'E Q ^ E
ou encore
Q'Q = E , (3)
d’où l ’on a
Q ' (4)
de sorte que l ’on a aussi
Q Q '^Ë . (5)
Ainsi, en vertu de (4), on peut dire que la matrice Q est orthogo
nale si sa transposée Q' est égale à son inverse Q~l. Chacune des égali­
tés (3) et (5) peut être admise comme définition des matrices ortho­
gonales.
Les colonnes de la matrice Q' étant les lignes correspondantes
de la matrice Q, on déduit de (5) la proposition suivante : une matri­
ce carrée Q est orthogonale si et seulement si la somme des carrés des
éléments dyune ligne quelconque de Q est égale à Vunité et si la somme
des produits des éléments d'une ligne quelconque par les éléments cor­
respondants d'une autre ligne quelconque est nulle. Il résulte de (3)
la même proposition pour les colonnes de la matrice Q.
Passant dans (3) aux déterminants, il vient :
226 ESPACES EUCLIDIENS [CH. VIII

car | Q f t = I Q I* On en déduit que le déterminant d'une matrice


orthogonale est ± 1 . Ainsi, toute transformation orthogonale des indé­
terminées est non dégénérée L Bien entendu, la réciproque n ’est pas
vraie; en outre, ce n ’est pas toute matrice à déterminant ± 1 qui
sera orthogonale.
L'inverse d'une matrice orthogonale est également une matrice
orthogonale. En effet, passant dans (4) aux matrices transposées,
il vient :
(ç~i) '= ( ç ') '= ç = ( ( ? - ir 1.
D’autre part, le produit de matrices orthogonales est une matrice ortho­
gonale. En effet, soient Q et R deux matrices orthogonales ; utili­
sant (4), ainsi que Légalité (6) du § 26 et l ’égalité analogue pour
la matrice inverse, nous obtenons :
(QRy = R'Q' - R~xQ~l = (QR)~K
La proposition suivante sera utilisée au § 37 :
La matrice de passage d'une base orthonormale dans un espace
euclidien à une autre base orthonormale dans ce même espace est ortho­
gonale.
En effet, soient elf e2, . . en et e[, e e fn deux bases
orthonormales sur En et Q = (qu) la matrice de passage de e à er :
ë = Qe.
La base e étant orthonormale, le produit scalaire de tout couple
de vecteurs de En et, en particulier, de deux vecteurs de la base e',
est égal à la somme des produits des coordonnées de même indice
de ces vecteurs rapportés à la base e. Or, la base ë étant aussi ortho-
normale, le produit scalaire de tout vecteur de ë par lui-même
est égal à l ’unité, tandis que le produit scalaire de tout couple
de vecteurs distincts de ë est nul. Il en résulte que les lignes des
coordonnées des vecteurs de la base e \ rapportés à la base e, c’est-à-
dire les lignes de la matrice Q, vérifient les égalités qui ont été
déduites de l ’égalité (5) et caractérisent les matrices orthogonales.
Applications orthogonales dans un espace euclidien. Maintenant,
il est commode de passer à l ’étude d’un type spécial d’applications
linéaires des espaces euclidiens, bien que ce type d’applications
ne soit pas ensuite utilisé.
Une application linéaire <p d ’un espace euclidien En est appelée
application orthogonale sur En, si elle conserve le produit scalaire
de tout vecteur a par lui-même, c’est-à-dire si
(atp, a<p) = (a, a). ( 6)

1 En fait, cela résulte déjà de l'égalité (3). (N.d.T.)


§ 35] MATRICES ORTHOGONALES, APPLICATIONS ORTHOGONALES 227

On en déduit une proposition plus générale, qui, comme il va


de soi, peut être également admise comme définition d’une appli­
cation orthogonale. Voici cette proposition :
Une application orthogonale <p sur un espace euclidien conserve
le produit scalaire de tout couple de vecteurs a et b de cet espace
(aip, &cp) = (a, b). (7)
En effet, en vertu de (6), on a
((a + b)ip, (a + b)q>) = (a + b, a + b).
D’un autre côté,
((a + i>)<p, ( a + ô) <p) = (aqp -j- b<p, a<p + 6<p) =
= (a<p, a<p) + (a<p, by) + (b<p, a<p) + (&<p, 6<p),
(a + 6, a + &) = (a, a) + (a, b)~\~(b9a)-f(6, 6).
Utilisant (6) aussi bien pour a que pour b et compte tenu de la
commutativité du produit scalaire, on en déduit l ’égalité
2 (a<p, 6<p) ~ 2 (a, 6),
d’où la relation (7).
L'image de toute base orthonormale sur un espace euclidien par
une application orthogonale est encore une base orthonormale de cet
espace. Inversement, supposons qu'une application linéaire sur un
espace euclidien transforme au moins une seule base orthonormale
en une base orthonormale ; alors, cette application est une application
orthogonale.
En effet, soient <p une application orthogonale et ex, e2, . . ., en
une base orthonormale sur Ên. Compte tenu de (7), on déduit des
égalités
(<?*, et)= 1, i = l , 2, . . . , rc,
(euej) = 0 pour i ^ j
les égalités
(<?i<p, <?i<p)= 1 , i = 1, 2 , . . rc,

ejtp) = 0 pour t^ j ;
autrement dit, la famille de vecteurs ^cp, e2<p, . . enqp est ortho*
normale, de sorte que ces vecteurs forment une base orthonormale
de En.
Réciproquement, soient <p une application linéaire et el7 e2y . . .
. . en une base orthonormale de En telle que l ’image de cette base,
soit ej<p, e2(f, . • en<p9 par l’application <p, soit encore une base
228 ESPACES EUCLIDIEN S (CH, V III

orthonorinale de En. Si
n
CL ^ CC1 6 1

est un vecteur quelconque de l ’espace Enj alors


n
aq)= i2= l «*(*<?)»
c’est-à-dire le vecteur a<p, rapporté à la base eqp, a les mêmes coordon­
nées que le vecteur a rapporté à la base e. Or, les deux bases sont
orthonormales, de sorte que le produit scalaire de tout vecteur par
lui-même est égal à la somme des carrés de ses coordonnées, et cela
indépendamment de la base orthonormale choisie dans En. Ainsi
n
(a, a) = (aç>, atp) — 2 aï»
4=1
c'est-à-dire l ’égalité (6) a lieu.
Une application orthogonale sur un espace euclidien, rapportée
à toute base orthonormale, a pour matrice une matrice orthogonale.
Inversement, supposons qu'une application linéaire sur un espace
euclidien, rapportée à une base orthonormale donnée, a pour matrice
une matrice orthogonale ; alors, cette application est orthogonale.
En effet, soient qp une application orthogonale et ex, e2, . . en
une base orthonormale ; alors, la famille de vecteurs £2qp, e2qp, ■• •
. . enfp est aussi une base orthonormale, La matrice A dé l’appli­
cation qp, rapportée à la base e,
e<p— Ae (8)
est, donc, la matrice de passage de la base orthonormale e à la base
orthonormale e<p; par conséquent, d’après la proposition démontrée
ci-dessus, A est une matrice orthogonale.
Inversement, soient une application linéaire qp et une base ortho­
normale eu e2, . . en ; supposons que la matrice A de l ’applica­
tion <p rapportée à la base e soit orthogonale. Alors l ’égalité (8)
a lieu. La base e étant orthonormale, le produit scalaire de tout
couple de vecteurs de En et, en particulier, de deux vecteurs de la
famille eLqp, e2<p, . . e n qp, est égal à la somme des produits des
coordonnées de même indice de ces vecteurs (les vecteurs sont rap­
portés à la base e). Ainsi, la matrice A étant orthogonale, on a
(£«qp, £i<p) —1» i = l, 2, .. ., n,
{etip, <?,-<p) = 0 pour i^= j,
c’est-à-dire la famille eqp est une base^rthonormale de l ’espace En.
Il en résulte que q> est une application orthogonale.
§ 36J APPLICATIONS SYMÉTRIQUES 229

Le lecteur sait du cours de géométrie analytique que parmi toutes


les applications linéaires du plan dans lui-même les rotations sont
les seules à conserver le produit scalaire des vecteurs (il faut y ajouter
aussi les symétries par rapport aux droites). Ainsi, par analogie,
les applications orthogonales dans un espace euclidien à n dimensions
peuvent être considérées comme les « rotations » de cet espace.
Il est clair que l’application identique dans un espace euclidien
est une application orthogonale. D’autre part, la relation établie
ci-dessus, entre les applications orthogonales et les matrices ortho­
gonales, ainsi que les résultats du § 31, concernant les opérations
sur les applications linéaires et les matrices, permettent d ’établir,
en partant des propriétés déjà connues des matrices orthogonales,
les propriétés correspondantes des applications orthogonales.
Toute application orthogonale est une application linéaire non
dégénérée et son inverse est aussi une application orthogonale.
Le produit d'applications orthogonales est encore une application
orthogonale.
D’ailleurs, ces propositions peuvent être vérifiées directement.

§ 36. Applications symétriques


Une application linéaire <p d ’un espace euclidien à n dimensions
est dite application symétrique (ou auto-adjointe) si pour tout couple
de vecteurs a et b de l’espace on a
(aq>, 6) = {a, fop), (1)
autrement dit, dans un produit scalaire on peut faire passer une
application symétrique du premier facteur au second.
Il est clair que l ’application identique e et l ’application nulle œ
sont des exemples d’applications symétriques. Un autre exemple,
moins banal, est donné par l ’application linéaire qui à tout vecteur a
de l ’espace fait correspondre le vecteur aa, a étant un nombre réel
fixe,
acp ~ oui.
En effet, on a dans ce cas
(a<p, b) = (aa, 6) = a (a, b) = (a, a b) = (a, top).
Le rôle joué par les applications symétriques est très important,
et nous devons les étudier en détail.
Une application symétrique dans un espace euclidien, rapportée
à une base orthonormale quelconque, a pour matrice une matrice sy­
métrique. Inversement, si une application linéaire dans un espace
euclidien, rapportée au moins à une seule base orthonormale, donne
une matrice symétrique, alors cette application est symétrique.
230 ESPACES EUCLIDIENS [CH. VIII

En effet, soit A — (a*;) la matrice d ’une application symétrique <p


rapportée à une basp elf e2l . . en. Etant donné que le produit,
scalaire de deux vecteurs, rapportés à une base orthonormale, est
égal à la somme des produits des coordonnées de même indice, il
vient :
n
ej) = ( S athek, ej) = a ,v ,
ft=i
n
( C j , £/Cp) = (tfj, 2 ® 'jk € k ) = C6jfii

c’est-à-dire, en vertu de (1), on a pour i et / quelconques


j = a^£.
Ainsi la matrice 4 est symétrique.
Inversement,, supposons que la matrice A = (a^) d’une appli­
cation cp, rapportée à une base orthonormale ex, e2, . . ., eni soit
symétrique, c’est-à-dire que
<Xij = an pour tous i, /. (2)
Soient b et c deux vecteurs de l’espace euclidien, qui, rapportés
à la base e, sont de la forme
n n
b— S e= S
i= l

Alors

&<P= 2 P* (e*q>)
i=l 2(2
j=i i=l
eh
n n n
cy = S W (<w) 2 ( 2 *’
j—1 i—i j= 1
Compte tenu de ce que la base e est orthonormale, il vient :
n
(fc<p, c)= 2
j, i=.l
n
(b, ccp) = 2 PiY^i-

D’après (2), les seconds membres des deux dernières égalités coïnci­
dent, de sorte que l ’on a
(6 <p, c) = (b, cq>).
ce qu’il fallait démontrer.
§ 36] APPLICATIONS SYMÉTRIQUES 231

On déduit du résultat obtenu la propriété suivante des appli­


cations symétriques (qui, d’ailleurs, peut être vérifiée directement):
La somme des applications symétriques aussi bien que le produit
d'un scalaire par une application symétrique sont encore des applica­
tions symétriques.
Démontrons maintenant le théorème important suivant:
Toutes les racines caractéristiques d'une application symétrique sont
réelles.
Etant donné que les racines caractéristiques d ’une application
linéaire (p ont les mêmes valeurs que les racines caractéristiques
de la matrice qui s’obtient en rapportant q> à une base quelconque
et vu que les applications symétriques rapportées à des bases ortho­
normales sont données par les matrices symétriques, il suffit de
démontrer la proposition suivante :
Toutes les racines caractéristiques d'une matrice symétrique sont
réelles.
En effet, soit une racine caractéristique, réelle ou complexe,
d ’une matrice symétrique A — (a*,),
14 - V E | = 0.
Alors, le système d’équations linéaires homogènes à coefficients
complexes
n
ctijXj = i = 1, 2. • • *, n t
j=i
a son déterminant nul, ce qui veut dire que ce système possède
une solution non nulle, soit pt, p2, . ..♦ pn> qui est, en général,
complexe ; ainsi
71
S Q'ijfij= ^oP*» 1= 1, 2, n.(3)
j—i
Multipliant les deux membres de la ième égalité (3) par le nombre
pi conjugué complexe de Pi et les additionnant par rapport à i,
il vient :

i, j==1a oP./Pi —^0i—


S PiPi* (^)
1
Le coefficient de %0 dans (4) est réel et non nul, car il est égal
a la somme de nombres réels non négatifs dont au moins un est
non nul. Ainsi, on démontrera que X0 est réel si l’on montre que
le premier membre dans (4) est un nombre réel. Pour cela il suffit
de montrer que ce nombre coïncide avec son conjugué complexe.
Ici nous utiliserons pour la première fois le fait que la matrice A
232 ESPACES EUCLIDIENS [CH. VIII

est symétrique (et réelle). On a

2j ~ S a *vP./Pe “ 2 j a ^P/Pî ^ S a7*ïPjPi ~


i. }—t i. j=l i, i—1 i, j—i

= 2j ^iiPiP; ^ S a OpiPi*
i»7=1 *,j=l
Notons que T avant-dernière égalité a été obtenue en échangeant
les indices de sommation i et /. Le théorème est donc démontré.
Une application linéaire cp d'un espace euclidien En est une appli­
cation symétrique si et seulement si il existe dans En une base ortho­
normale formée par les vecteurs propres de <p.
Une partie de cette proposition est presque évidente: s'il existe
une base orthonormale ev e2, . . en dans En telle que
ei<p = kiei, i = 1, 2, .. ., n,
alors la matrice de l ’application <p, rapportée à la base e1 est
diagonale :
fh x 0\
V

Ko 'K '
Or, la matrice diagonale est manifestement symétrique, de sorte
que l ’application cp, rapportée à la base orthonormale e, a pour
matrice une matrice symétrique ; par conséquent, cp est une appli­
cation symétrique.
Nous allons démontrer la réciproque par récurrence sur la dimen
sion n de l ’espace En. En effet, pour n = 1 l’image de tout vecteur a
de l ’espace Ex par une application linéaire cp est colinéaire à a.
Il s’ensuit que tout vecteur non nul a de E x est un vecteur propre
de cp (il en résulte, d’ailleurs, que toute application linéaire est
dans ce cas symétrique). Prenant pour a un vecteur normé, nous
obtenons la base orthonormale cherchée.
Supposons que le théorème soit démontré pour tout espace eucli­
dien à (n — 1) dimensions, et soit cp une application symétrique
dans En. Du théorème démontré ci-dessus il résulte l ’existence d’une
racine caractéristique réelle, soit À0, de l ’application cp. À0 est, donc,
une valeur propre de <p. Soit a le vecteur propre de cp relatif à la
valeur propre* X0 ; alors, tout vecteur non nul colinéaire à a est,
également, un vecteur propre de cp relatif à la même valeur propre
A,rt, car
(a a) cp — a (a c p ) = a (A ,0a ) = (a a ).
§ 36] A P P L IC A T IO N S S Y M É T R IQ U E S 233

Préliant, en particulier, un, vecteur normé colinéaire à a, il vient :

(^i, ^i) ~ 1•
Nous avons démontré au § 34 que tout vecteur non nyl ex de En
peut être complété en une base orthogonale de En :
^2’ ***» (3)
Les vecteurs de En, qui ont dans la base (5) Ja première coordonnée
nulle, c’est-à-dire qui sont de la forme a 2e'2-\- ... . + ctne'n, forment,
manifestement, un sous-espace vectoriel à (n — 1) dimensions de
l’espace En qui sera noté L. En outre, L est un espace euclidien
à {n — 1) dimensions, car le produit scalaire étant défini pour
les vecteurs de En, il est, en particulier, défini pour les vecteurs de
L et jouit de toutes les propriétés requises.
Le sous-espace L est formé par les vecteurs de En qui sont ortho­
gonaux au vecteur ev En effet, si
a = cL\ex-f- a2e2+ .■•-+-
alors, la base (5) étant orthogonale et le vecteur e4 normé, on a
(^i, cl) = ai (ei7 ex) -J- a2(ei7 e2)-\~ ...-\-a 'n (e±, e'n) = a*,
c’est-à-dire (ex, a) = 0 si et seulement si ax = 0.
Soit a un vecteur du sous-espace L, c’est-à-dire (el7 a) — 0.
Alors, le vecteur aip appartient également à L. En effet, l’applica­
tion <p étant symétrique, on a
(<?i, a<p) = (*i(p, a) = (V i, a) = k0*0 = 0,
c’est-à-dire le vecteur a<p est orthogonal à ex et, par conséquent,
appartient à L. On exprime cette propriété du sous-espace L en
«lisant que L est invariant par rapport à l’application <p; elle permet
de considérer qp en même temps comme une application linéaire
de l ’espace euclidien L à (n — 1) dimensions sur lui-même. Cette
application définit, en outre, une application symétrique dans L,
car l ’égalité (1), valable pour les vecteurs de En, est, en particulier,
vraie pour les vecteurs de L.
En vertu de la récurrence, il existe une base orthonormale dans L
formée par les vecteurs propres de l’application <p; notons cette
base par e2, e3, . . ., en. Tous ces vecteurs sont orthogonaux au
vecteur el7 de sorte que la famille el7 e2l . . en est la base ortho­
normale de En, formée par les vecteurs propres de l ’application qp_
Le théorème est démontré.
234 ESPACES EUCLIDIENS fCH. VIII

§ 37. Réduction d'une forme quadratique à ses axes principaux.


Couples jde formes quadratiques
Appliquons le dernier théorème du paragraphe précédent pour
donner 'la démonstration du théorème suivant sur les matrices :
Pour toute matrice symétrique A on peut trouver une matrice ortho­
gonale Réduisant A à la forme diagonale, c'est-à-dire une matrice
orthogonale Q telle que la matrice Q~*AQ soit diagonale.
En effet, soit une matrice symétrique A d'ordre n. Si el9 e2, . . .
. . ., en est une base orthonormale d’un espace euclidien En à n
dimensions, alors il existe une application symétrique cp dans En
telle que ç, rapportée à la base e, soit donnée par la matrice A .
On a démontré l'existence d’une base orthonormale dans En formée
par les vecteurs propres de q>, soit f x, / 2, . . fn ; l’application <p,
rapportée à cette base, a pour matrice une matrice diagonale
(cf. § 33). Alors, en vertu du § 31, on a
B = ( t lAQ, (1)
Q étant la matrice de passage de la base / à la base e,
e = Qf. (2)
En tant que matrice de passage d’une base orthonormale à une autre,
Q est orthogonale (cf. § 35). Le théorème est démontré.
La matrice Q étant orthogonale et, par conséquent, son inverse
étant égale à sa matrice transposée: Ç”1 = Qf, on peut mettre l ’éga­
lité (1) sous la forme suivante :
B = Q'AQ.
Or, on sait du § 26 que c’est là exactement la loi selon laquelle
se transforme la matrice symétrique A d ’une forme quadratique
soumise à une transformation linéaire des indéterminées de matrice Q.
Compte tenu de ce qu’une transformation linéaire des indéterminées
de matrice orthogonale est une application orthogonale (cf. § 35)
et vu que la matrice diagonale correspond à la forme quadratique
réduite à la somme des carrés des indéterminées, nous obtenons,
utilisant le dernier théorème, le théorème suivant sur la réduction
des formes quadratiques à leurs axes principaux:
Toute forme quadratique réelle f (xl7 x 2, . . xn) peut être réduite
par une application orthogonale des indéterminées à la forme canonique.
Bien qu'il y ait, en général, plusieurs applications orthogonales
réduisant une forme quadratique / (xv x 2, . . ., xn) à la forme cano­
nique, les coefficients de la forme canonique sont bien définis:
Quelle que soit Vapplication orthogonale réduisant une forme
quadratique f (xXl x 2, . . ., xn) de matrice A à la forme canonique,
les coefficients de cette forme canonique sont les racines caractéristiques
de la matrice A prises avec leurs ordres de multiplicité.
§ 37] RÉDUCTION D UNE FORME QUADRATIQUE 235

En effet, supposons que / soit réduite par une application ortho­


gonale à la forme canonique
f ( x u X 2 , . . . , ^ ) = * l A 10 Î + |* 2 ff !+ . . . + P ^ n .

La somme des carrés des indéterminées étant invariante par rapport


à Une application orthogonale, on a
n n n
f ( x i. *2. . . . , X n ) — h 2 4 = S N 2 /i — k S î4 >
i* l i—1 i= l

où X est un paramètre réel. Passant aux déterminants de ces formes


quadratiques, il vient :
m —X 0 ... 0
\A-XE\ = fi2— X . . . 0
= n
i= l
0 0 . . . (in À
car, après une transformation linéaire des indéterminées de matrice Q,
le déterminant de la forme quadratique / se trouve multiplié par
| Q |2 (cf. § 28), et si Q est orthogonale, alors | Q |2 = 1 (cf. § 35).
La dernière égalité démontre le théorème.
On peut énoncer ce résultat sous la forme matricielle :
Quelle que soit la matrice orthogonale réduisant une matrice symé­
trique A à la forme diagonale, les éléments de la diagonale principale
de la forme diagonale sont les racines caractéristiques de la matrice A ,
prises avec leurs ordres de multiplicité.
Procédé pratique pour trouver une application orthogonale
réduisant une forme quadratique à ses axes principaux. Dans certains
problèmes il ne suffit pas de connaître la forme canonique d ’une
forme quadratique, mais il s’agit également de trouver une appli­
cation orthogonale qui réduit cette forme à la forme canonique.
Il serait difficile de chercher cette application en s’appuyant sur
la démonstration du théorème ci-dessus concernant la réduction
des formes quadratiques. C’est pourquoi nous voulons indiquer
un autre procédé. En fait, il faut un moyen pour trouver une matrice
orthogonale Q telle qu’une matrice symétrique A donnée soit réducti­
ble par Q à la forme diagonale. Bien entendu, au lieu de Q on peut
chercher son inverse D’après (2), la matrice Q"1 est la matrice
de passage de la base e à la base /. Autrement dit, la matrice A étant
celle d’une application symétrique q> rapportée à la base e et f ly
/ 2, . . ., fn étant une base orthonormale de n vecteurs propres de (p,
la ièmc ligne de la matrice Q~x est la ligne des coordonnées du vec­
teur fi, rapporté à la base e (1 ^ i ^ n). Il reste à trouver la famille
de vecteurs propres.
236 ESPACES EUCLIDIENS ICH. VIII

Soit X0 une racine caractéristique d’ordre de multiplicité k0


de la matrice A. On sait du § 33 que l ’ensemble des lignes des coor­
données des vecteurs propres de T application <p, associés à la valeur
propre X01 est le même que l'ensemble des solutions non nulles du
système d’équations linéaires homogènes
( A - X 0E )X = 0; (3)
la matrice A étant symétrique, on peut la remplacer dans (3) par A'.
Il résulte du théorème d ’existence d’une matrice orthogonale ré­
duisant une matrice symétrique A à la forme diagonale et du théorème
d’unicité de la forme diagonale que le système (3) possède au moins
k0 solutions linéairement indépendantes. La famille de ces solutions
peut être trouvée par les méthodes données au § 12 et orthonorma-
lisée conformément au § 34.
Faisant dans (3) X0 successivement égal à toutes les racines
caractéristiques distinctes de la matrice A, nous obtenons, compte
tenu de ce que la somme des ordres de multiplicité des racines
caractéristiques est égale à n> une famille de n vecteurs propres
de l’application q>, donnés par leurs coordonnées, les vecteurs
propres étant rapportés à la base e. Pour montrer que cette famil­
le est bien la famille orthonormale cherchée, il reste à démontrer
le lemme suivant :
Les vecteurs propres d'une application symétrique <p, associés à des
valeurs propres différentes, sont orthogonaux.
En effet, soient
bip = À-j6, c<p = X2c,
avec Xi t^=X2, Etant donné que
c) = (Xtb, = c),
(b, c<p) = (b, Xgc) = X2(b, c),
on déduit de l ’égalité
(6qp, c) = (6, cqp)
la relation
K (b, c) = X2 (b7c).
Compte tenu de ce que Xi ^ X Zy il vient:
(M ) = 0,
ce qu’il fallait démontrer.
Exemple. Réduire la forme quadratique
f li x3i ^4) = 2Ti^2"b —2^1X4* 2^2^3 “1“ 2x2^4 -j- 2^3*4
à ses axes principaux.
8. 37] RÉDUCTION D UNE FORME QUADRATIQUE 237

La matrice A de / est de la forme


( 01 —11
10 - 1
1

1 —1 0
Trouvons son polynôme caractéristique:
i
0 )
X 1 11 —1
- 1
1 -X —1 1
\A —XE\ = = (X — 1)3 ( l + Z ) .
1 -1 - X 1
1 1 1 -X
Ainsi, la matrice A a la racine caractéristique 1 d’ordre de multiplicité 3 et la
racine caractéristique —3T simple. Par conséquent, nous connaissons déjà la
forme canonique à laquelle la forme / est réductible par une application ortho­
gonale :
f = y î + y l + y l — 3yl
Trouvons Inapplication orthogonale réduisant /. Le système d’équations
linéaires homogènes (3) pour A,0 —1 prend la forme
—*i + *2 + * 3 ^ *4 = 0,
X i— X2- -
1 Xi—X2^X 3-|-X4 = 0,
- —xi =
Le système étant de rang 1, on peut trouver trois solutions linéairement
indépendantes, soit
= 1, 0, 0),
b2 = (U 0, 1, 0),
*3 = ( - l . Û, 0, 1).
Utilisant le procédé d’orthogonalisation, nous obtenons la famille de
vecteurs
= = 1, 0, 0),
C2= - - o , + 62= = ( | . - { , 1, 0) ,
1 1 / 1 1 1 \
«3 = y c*+ ‘3‘ c2+ ^ = ( —y • Y ' T ’ *) '
D’autre part, faisant dans (3) X0= —3, nous obtenons le système d’équa­
tions linéaires homogènes
3x i X2 -J- X3 — x 4 = 0 ,
X| 3x2—X3-J- X4 —0,
*1 —*2+3*3+*4 = 0,
l —Xi -|- X2 -f- X3—3x4 0 ■
Son rang est 3. La solution non nulle est donnée par le vecteur
c4 = (l, - 1, - 1, 1).
238 ESPACES EUCLIDIENS [CH. VIII

La famille des vecteurs c\9 c2, c3, c4 est orthogonale. Passant aux vecteurs
normés correspondants, nous obtenons la famille orthonormale des vecteurs

( i T T W ' 0' # )-
c'2—
( i r - ^ r - /!••)•
4=
(
\
1 1 1
2 1 /3 ’ 2 ]/'3 ’ 2 1 /3 ’
fi_ _ i_ _ i_ i \
J /3
2 )
«i = V2 ’ 2 ’ 2 ’ 2 / ’
Ainsi, la forme / est réductible à ses axes principaux par l'application
orthogonale

' ' - î k I , + ï 7 s ‘!•


1 < , 1 /2 "
vs v r * ! + ^ t *»
1 . 1 , 1 , V3
- s ÿ ï **+ s ÿ T ‘! + T Ï/5
1 1 1 ,1
==— g" ^2 "g*X3T-~2"
Il faut noter que le choix de la famille de vecteurs propres linéairement
indépendants, relatifs à une valeur propre multiple, est arbitraire, de sorte
qu’il existe plusieurs applications orthogonales réduisant la forme / à la forme
canonique. Nous n ’en avons trouvé qu’une seule.
Couples de formes* Soit un couple de formes quadratiques réelles
de n indéterminées: / (ælt x2, . . ., xn) et g (x^ x2, . . ., xn). Exis-
te-t-il une transformation linéaire non dégénérée des indéterminées
x l9 x2> . . xn telle que les deux formes / et g soient réductibles par
cette transformation à la forme canonique?
La réponse est, en général, négative. Considérons, par exemple,
le couple de formes
f(x 1, Xz)=x\, g (*!, X2) — XiX2.
Supposons qu’il existe une transformation linéaire non dégénérée
x i = ^11^1 + ^12^2» 1 ^
XZ = c2il/i “h ^22^2» J
réduisant les deux formes à la forme canonique. Pour que la trans­
formation (4) réduise / à la forme canonique, il faut que l’un des
coefficients cn ou c12 soit nul, car, dans le cas contraire, on aurait
le terme 2c11c12y1y2. Echangeant, s’il le faut, les indices des y, on
§ 37] RÉDUCTION D ’UNE FORME QUADRATIQUE 239

peut supposer que c12 = 0 ; par conséquent, clz 0. Or, dans ce cas,
g {%\ t #2) = ci\Vi (c2li/i + c2zV2) —ciic2ill\ + Cllc22*/i#2-
La forme g devant être réduite par (4) à la forme canonique, on
a nécessairement cn c22 = 0, c’est-à-dire c22 — 0; cl2 et c22 étant
nuis, la transformation (4) est dégénérée.
La situation est toute différente si l’une des formes, soit g (xlf
x 2y . . s n), est définie positive1. Notamment, le théorème suivant
est vrai:
Soient f et g un couple de formes quadratiques réelles de n indéter­
minées,, dont g est définie positive. Alors, il existe une transformation
linéaire non dégénérée des indéterminées, réduisant simultanément g
à la forme normale et f à la forme canonique.
Pour cela, réalisons d’abord la transformation linéaire non
dégénérée des indéterminées x ^ z 2, . . xn, soit
X = TYy
qui réduit la forme définie positive g à la forme normale
g (xu x2, . . Æ„) = ÿï + y |+ . . . -f yl.
Alors la forme f devient une forme quadratique, soit <p,des nouvelles
indéterminées :
/ («£i » ^2» • ■ • » — tp i y 1 1 2/2» ■ • • » Vn)*

Effectuons, ensuite, une transformation orthogonale des indétermi­


nées yu g2, . . yn,
Y^Q Zy
qui réduit cp à ses axes principaux
<P{yU g2y - • ■1Un) = K 4 + + • • • + KZn-
Q (cf. § 35) associe à la somme des carrés des indéterminées
Vu y n la somme des carrés des indéterminées zu z2, ...» z*.
Finalement, nous obtenons
/ x 2* • • • > x n) — + %2z \ + > . . . + ^nZnj

g (x U x2, “ -, Xn)= z \+ Z l+ . + Z i,
de sorte que
X = (T Q )Z
est la transformation cherchée.

1 Bien entendu, cette condition n'est pas nécessaire ; par exemple, les for­
mes + x\ — x\ et x\ — x\ — x\^ toutes deux canoniques, ne sont pas défi­
nies positives.
Chapitre IX CALCUL DES ZÉROS D'UN POLYNOME

§ 38? Equations des deuxième, troisième et quatrième degrés


D’après le théorème fondamental démontré au § 23, tout poly­
nôme de degré n à coefficients numériques possède exactement n
zéros complexes. Néanmoins, aucune démonstration de ce théorème
(ni celle donnée au § 23 ni toutes les autres connues jusqu’aujour­
d’hui) ne donne une méthode pratique de calcul des zéros ; ces démons­
trations permettent seulement d’en établir l ’existence.
Naturellement, on a d’abord essayé d’établir des formules ana­
logues à celle donnant les racines d ’une équation du deuxième
degré; le lecteur connaît cette formule du cours d’algèbre élémen-
taire, lorsque les coefficients de l ’équation sont réels. Nous allons
montrer qu’elle reste valable dans le cas des équations du deuxième
degré à coefficients complexes et que des formules analogues (mais
plus compliquées) peuvent être établies pour les équations dutroisiè-
me et du quatrième degré.
Equations du deuxième degré. Soit une équation du deuxième
degré à coefficients complexes
x2+ px-\-q = 0.
On peut supposer, sans restreindre la généralité, que le coefficient
du terme du deuxième degré en x est égal à l ’unité. On peut récrire
cette équation sous la forme

( * + 1 ) ’+(«***?) =°-
On sait que les valeurs de la racine carrée du nombre complexe
p2
~— q sont des nombres complexes. La racine carrée ayant deux
valeurs opposées, on peut les noter ± J . / ^ - —q. Ainsi
§ 38] ÉQUATIONS DES DEUXIÈM E, TROISIÈME ET QUATRIÈME DEGRÉS 241

c’est-à-dire les ràcines de réquation donnée peuvent être calculées


selon la formule usuelle:

Exemple. Résoudre" Téquatiou


æ2—3x -f- (3—i)—0.
Appliquant la formule établie ci-dessus il vient:

"= 4± / T - (3- i) = T ± T V ^ + ^ -
Au moyen des méthodes du § 19, on trouve :
V - 3 + 4i = ± < l + 2 i ) ,

de sorte que
xi = 2 -\-iy x2 = i —i.
Equations du troisième degré. A la différence du cas des équations
du deuxième degré nous n ’avons pas jusqu’à maintenant de métho­
des pour la résolution des équations du troisième degré, même
lorsque les coefficients sont réels. Nous allons établir pour les équa­
tions du troisième degré une formule analogue à la formule qui
donne les racines des équations du deuxième degré; en outre, nous
supposons, dès le début, que les coefficients des équations sont des
nombres complexes quelconques.
Soit une équation du troisième degré à coefficients complexes
l f + ayt + by + c = 0. (1)
Remplaçant dans (1) l ’inconnue y par une nouvelle inconnue x,
liée à y par la relation
V= x ~ - ^ » (2)
il est facile de vérifier que nous obtenons pour l’inconnue x une
équation où le terme en x2 disparaît, c’est-à-dire une équation de
la forme
a? + px + q = 0. (3)
Calculant les racines de l ’équation (3), nous pouvons, d’après (2),
trouver celles de l ’équation (i). Donc, il reste à trouver une méthode
de résolution de l’équation du troisième degré « non complète »
à coefficients complexes (3).
D’après le théorème fondamental, l ’équation (3) possède trois
racines complexes. Soit x0 l’une de ces racines. Introduisons une
inconnue auxiliaire u et considérons le polynôme
/(w) = u2—X0U— ^ .
242 CALCUL DES ZÉROS D ’UN POLYNÔME £CH. IX

Ses coefficients étant des nombres complexes, cette équation possède


deux racines complexes a et P; en outre, selon les .formules de
Viète on a
a + p = z0, (4)

(5)
Portant dans (3) l’expression (4) de la racine x$, nous obtenons :
(a + P )3+ p (a + P ) + g = 0
ou encore
a 3+ P3+ (3aP+ p) (a + P) + g = 0.
Or, il s’ensuit de ( 5 ) que 3 a p 4 - p = 0 , de sorte que l ’on a:
a 3+ P 3= —?• (6)
D’autre part, il découle de (5)
(7)
Les égalités (6) et (7) montrent que les nombres a 3 et P3 sont
les racines de l’équation du deuxième degré à coefficients complexes
z* + gz —g = 0. (8)
Résolvant réquation (8), il vient :

Nous sommes conduits à la relation, dite formule de Cardan,


qui exprime les racines de l’équation (3) par les coefficients au moyen
de racines carrées et cubiques:

x0= a + P = j / ^ —- J + J / " t + |7 + ^ V ^T + S -
La racine cubique d’un nombre complexe a trois valeurs com
plexes, de sorte que les formules (9) donnent trois valeurs pour a etl*
1 Les nombres a et p intervenant de manière symétrique dans les égalités
(6) et (7) et dans l’expression (4) de ar0» on peut donc choisir, sans différence
aucune, pour a3 (respectivement pour p3) la première ou la seconde racine de
lféquation (8).
6 38] ÉQUATIONS DES DEUXIEME, TROISIÈME ET QUATRIÈME DEGRÉS 243

autant de valeurs pour p. Cependant, si l ’on veut appliquer la formu­


le de Cardan, on ne peut pas prendre les valeurs de a indépendam­
ment de celles de p: pour toute valeur de a il faut prendre la valeur
de p qui vérifie la condition (5).
Soit a i l ’une des trois valeurs de a, données par la formule (9).
On a montré au § 19 que les deux autres valeurs de a s’obtiennent
en multipliant exx par les racines cubiques de l ’unité e et e®:
ot2= aie, a s = ai8a.
Désignons par px celle des trois valeurs de p, données par la formule
(9), qui correspond à la valeur de a, d ’après la relation (5), c’est-à-
dire pt est la valeur de p telle que l'on ait : = — y . Les
deux autres valeurs de p sont
P2= Pi®> p3 = Piea.
Vu que e®= 1 et que
02P3= a ^ P i e 2= ajpxe* = a tp, = —y ,
à la valeur o 2 de a correspond la valeur ps de P ; d ’une manière
analogue, à la valeur a 3 correspond la valeur p2. Ainsi, les trois
racines de l’équation (3) peuvent être écrites de la manière suivante :
x1= o , + p 1,

x3= a3+ p2= a je®-f P|8 :}


x3— a 2+ Ps = ai» -|- Pie®, ( 10)

Equations du troisième degré à coefficients réels. Voyons ce


qu’on peut dire des racines d’une équation du troisième degré non
complète
+ (11)
si ses coefficients sont réels. Dans ce cas, le rôle du signe de Fexpres-
n2 n3
sion ^ + —, se trouvant sous la racine carrée dans la formule
de Cardan, se révèle très important. Remarquons que ce signe est
opposé à celui de l’expression
D = — 4/>3— 27g®------ 108 ( . | + g ) ,
dite discriminant de l'équation (11) (cf. § 54); les énoncés qui
suivront utiliseront le signe du discriminant.
1) Soit D < O.'Dans ce cas, le même nombre réel positif se trouve
sous les racines carrées dans la formule de Cardan, de sorte que l'on
extrait les racines cubiques des nombres réels. Or, la racine cubique
16*
244 CALCUL DES ZÉROS D ’UN POLYNOME [CH. IX

d’un nombre réel a une valeur réelle et deux valeurs conjuguées


complexes. Soit a x la valeur réelle de a ; alors, la valeur pj de p,
qui correspond à a x d’après la formule (5), est également un nombre
réel, car p est réel. Ainsi, la racine xx — a x + px de l ’équation (11)
est réelle. On trouve les deux autres racines, en remplaçant dans
les formules (10) de ce paragraphe les racines cubiques de l’unité
e- et e2 = e2 par leurs expressions (7) du § 19:

XZ = a te + p te2 = a j (~ y + î y ^ ) ( — y — *y ^ ) =

a t + Pi
2 iV 3-
xs= a,eî + p1e = a, ( —y —i-y^) + Pi ( —y + iy ^ ) =
a l + Pl
■iV 3 ^ î ;
les nombres a t et px étant réels, les racines x 2 et x 3 sont des nombres
conjugués complexes; en outre, le coefficient de la partie imagi­
naire de x %et de x 3 est non nul, car ^ Pi (ccx et px sont des valeurs
des racines cubiques distinctes).
Ainsi, si D < 0, alors Véquation (11) a une racine réelle et deux
racines conjuguées complexes.
2) Soit D = 0. Dans ce cas,

« - f - f t - y - i
Soit la valeur réelle de la racine cubique a. En vertu de (5),
Pt est également un nombre réel ; en outre, == px. Remplaçant
dans les formules (10) px par et utilisant l ’égalité évidente e +
+ e2 = — 1, il vient :
x t = 2<X|, xz = (e + e2) = — a lt xz = a x(ea + e) = — a*.
Ainsi, si D = 0, alors Véquation (11) a ses racines réelles dont
deux coïncident.
3) Enfin, soit D > 0. Dans ce cas, on a le même nombre réel
négatif sous les racines carrées dans la formule de Cardan, de sorte
que les racines cubiques doivent être extraites des nombres conju­
gués complexes. Ainsi, toutes les valeurs de a et P sont maintenant
des nombres complexes. Or, parmi les racines de l ’équation (11)
l’une au moins est réelle. Supposons que la racine
xi~ a o+ Pc

soit réelle. La somme et le produit des nombres a 0 et p0 étant réels


(rappelons que a opo = — y ) , H s’ensuit que les nombres a 0 et pn
§ 38] ÉQUATIONS DES DEUXIÈM E, TROISIÈME ET QUATRIÈME DEGRÉS 245

sont conjugués, en tant que racines d’une équation du deuxième


degré à coefficients réels. Alors, les couples de nombres cc0e, poe*
et a 0e2, p0e sont également conjugués, d’où il découle que les racines
de l ’équation (11)
x2= a 0ç + p0éa, x3=î‘ + p0e
sont aussi des nombres réels.
Ainsi, dans ce cas, toutes les racines de l’équation (11) sont
réelles; en outre, il est facile de montrer; qu’elles sont distinctes.
En effet, supposant le contraire, on peut choisir la racine xx de
manière que ar2 = ar3, d’où l’on a
«o (e — e2) = p0(e — e2),
c’est-à-dire a 0 = p0; or, cela est impossible.
Ainsi, si D > 0, alors l'équation (11) a trois racines réelles dis­
tinctes.
Le dernier résultat montre que l ’intérêt pratique de la formule
de Cardan est relativement petit. En effet, bien que les racines
de l ’équation (11) à coefficients réels soient réelles pour D > 0,
leur calcul selon la formule de Cardan nécessite l ’extraction de raci­
nes cubiques de nombres complexes, et nous ne savons le faire qu’en
passant à la forme trigonométrique de ces nombres. Ainsi, l ’expres­
sion des zéros d’un polynôme du troisième degré à coefficients réels
au moyen de racines carrées et cubiques n ’a pas <Je valeur pratique.
Utilisant certaines méthodes (dépassant le cadre de notre livre)
on pourrait montrer que dans le cas considéré les racines de l ’équation
(11) ne peuvent point être exprimées par les coefficients au moyen
de racines de nombres réels. Ce cas de la résolution de l ’équation (11)
est dit irréductible (ne pas confondre avec l ’irréductibilité des poly­
nômes !).
Exemples. 1. Résoudre Téquation
i/3+ 3i/a—3y —14=0.
Posant y — x — 1, nous trouvons l Téquation
æ3 — 6a:— 9 = 0. (12)

Ici p = —6, g= —9, de sorte que


g2 , P8
4 “*"27
c’est-à-dire l ’équation (12) a une racine réelle et deux racines conjuguées
3 / - 'q w _ _ 3y q 7 3 __
complexes. D’après (9) on a a = J/ = y 8, P — y ^ — g- = y i . Ainsi,
aj = 2, pj = l, e’est-à-dire ^ —3. Les deux autres racines s’obtiennent par
3 "l/3
les formules (10) : x2 — — 2"+* ’
246 CALCUL DES ZÉROS D ’UN POLYNÔME [GH» IX

Il en résulte que les racines de l’équation donnée sont


V3
5/1= 2, U 2 ’
2. Résoudre l ’équation
*3—12ar+16 = 0.
Ici —12, q= 16, de sorte que l ’on a
iL + f ü - o
4 +27 U'

Il en découle que a = ^ " —8, c'est-à-dire « j = —2. Par conséquent,


#1 =• —4, a:2= x3—2.
3. Résoudre l ’équation
*3—19*+30=^0»
ici p —

' 2 7 ■27
97 ^

Ainsi, si l’on veut rester dans le domaine des nombres réels, la formule
de Cardan n’est pas valable pour cette équation, bien que ses racines soient
les nombres réels 2, 3 et —5.
Equations du quatrième degré. Le calcul des racines d’une équa­
tion du Çuatrième degré à coefficients complexes
y* + ay3+ by* + cy + d = 0 (13)
se ramène à la résolution d’une équation auxiliaire du troisième
degré. On réalise cette réduction par la méthode suivante due à
Ferrari.
D’abord, posant y = x — on ramène l ’équation (13) à la
forme
xfk-\~p3?-\~qx-\~r = 0. (14)
Ensuite, on transforme le premier membre de cette équation en
introduisant un paramètre auxiliaire a de la manière suivante :
x*-\-pz2+ qx + r = ^;ra + y + a ) 2 + gz + r —y —a 2—2axa—pa
ou encore
( ^ + y + a ) 2—[2axa—g x - f ( a a- f p a —r - f Ç ) ] = 0. (15)
Choisissons a de manière que le polynôme entre les crochets soit
le carré d’un polynôme du premier degré. Pour cela, ce polynôme
$ 3 8 ] ÉQUATIONS DBS DEUXIÈME, TROISIÈME ET QUATRIÈME DEGRÉS 247

doit avoir un zéro double, c’est-à-dire on doit avoir l’égalité


(16)
L’égalité (16) est une équation du troisième degré à coefficients
complexes par rapport à a* On sait que cette équation a trois racines
complexes. On en choisit une, soit oc0 ; d’après la formule de Cardan,
a 0 s’exprime par les coefficients de l ’équation (16) et, par consé­
quent, par les coefficients de l’équation'(14), "au moyen de racines
troisièmes au plus.
a étant choisi de cette manière, le polynôme entre les crochets
dans (15) a le zéro double ^ , de sorte que l’équation (15) prend
la forme

c’est-à-dire elle se décompose en deux équations du deuxième degré

(17)

Nous avons été amenés en partant de l’équation (14) aux équa­


tions (17) à l’aide d’un certain nombre de transformations réver­
sibles; par conséquent; les racines des équationp (17) sont celles
de l ’équation (14). En outre, il est facile de voir que les racines
de l ’équation (14) s’expriment par les coefficients au moyen de radi­
caux. Nous ne donnerons pas ici les formules correspondantes, car
elles sont trop encombrantes et n ’ont aucune utilité pratique;
nous n ’étudierons pas non plus le cas particulier où les coefficients
de l’équation (14) sont réels.
Remarques sur les équations de degrés supérieurs. Les méthodes
de résolution des équations du deuxième degré étaient déjà connues
des anciens Grecs, et la découverte des méthodes de résolution des
équations du troisième et du quatrième degré, exposées ci-dessus,
remonte au XVI<* siècle. Puis suivirent presque trois siècles de vains
efforts pour faire le pas suivant, c’est-à-dire trouver des formules
qui donneraient les racines d’une équation du cinquième degré
en fonction des coefficients au moyen de radicaux (les équations étant
à coefficients littéraux quelconques). Il fallut le résultat d ’Abel,
établi dans les années vingt du siècle dernier, pour mettre fin à ces
tentatives; d’après ce résultat il n’existe pas de telles formules pour
les racines d’une éauation de degré n, lorsque n 5.
248 CALCUL DES ZÉRO S D 'U N POLYNÔM E [C H . IX

Le résultat d’Abel n ’excluait pourtant pas la possibilité pour


tout polynôme concret à coefficients numériques de trouver ses zéros
en fonction des coefficients au moyen des racines rceraes; autrement
dit; ce résultat n’écartait pas la conjecture que toute équation
concrète soit résoluble par radicaux. Le problème de la résolution
par radicaux des équations de degré n a été étudié en détail par
Galois dans les années trente du siècle dernier. Il s’est révélé que
pour tout n, à partir de n = 5, on peut indiquer des équations de
degré n à coefficients numériques (même à coefficients entiers) qui
ne peuvent pas être résolues par radicaux. Ainsi, l’équation
x5—4x — 2 — 0
est une équation de ce genre.
Les recherches de Galois ont déterminé tout le développement
ultérieur de l’algèbre. Néanmoins, l’exposé de la théorie de Galois
ne fera pas l’objet de notre cours.

§ 39* Limites des zéros


Nous savons qu’il n ’existe pas de méthode permettant de trouver
les expressions exactes des zéros des polynômes à coefficients numé­
riques. Néanmoins, les différents problèmes de mécanique, de physi­
que, ainsi que des problèmes de technique se ramènent au calcul
des zéros de polynômes; en outre, ces polynômes ont souvent des
degrés assez élevés. C’est ce genre de problèmes qui ont stimulé
de nombreuses recherches ayant pour objet l ’étude de certaines
propriétés des zéros d’un polynôme à coefficients numériques
sans être obligé de calculer ces zéros. Par exemple, on a étudié
le problème de répartition des zéros dans le plan complexe (notam
ment, les conditions garantissant que les zéros d’un polynôme
se trouvent à l ’intérieur d ’un cercle de rayon unité, c’est-à-dire
les conditions pour que les modules des zéros soient inférieurs à
l’unité ou, encore, les conditions pour que les zéros d’un polynôme
appartiennent au demi-plan gauche, c’est-à-dire qu’ils aient les
parties réelles négatives, etc.). Pour les polynômes à coefficients
réels on a élaboré des méthodes permettant de déterminer le nombre
de zéros réels, ainsi que des méthodes qui permettent de les localiser,
etc. Enfin, de nombreuses recherches ont été consacrées aux calculs
approchés des zéros: dans les applications techniques, il suffit,
en général, de connaître les valeurs approchées des zéros avec une
précision donnée à l’avance, de sorte que si, par exemple, nous avions
les expressions des zéros au moyen de radicaux, nous serions obligés
de remplacer ceux-ci par des valeurs approchées avec une précision
satisfaisante.
§ 39) LIMITES DES ZÉROS 249

Tous ces problèmes étaient, dans le temps, l'objet d'étude de


l’algèbre supérieure. Notre cours renferme seulement un petit nombre
de résultats se rapportant à ces problèmes; en outre, tenant compte
des applications, nous nous limitons au cas des polynômes
à coefficients réels et au problème de
calcul de leurs zéros réels, ne sortant
que rarement du cadre de ces problè­
mes. Le polynôme à coefficients réels
/ (x) sera considéré comme une fonc­
tion réelle (continue) de la variable
réelle x; en outre, nous utiliserons
les méthodes d’analyse partout où
cela se révélera efficace.
Il est utile de commencer l ’étude
des zéros réels d ’un polynôme à coef­
ficients réels f (x), en considérant \e
graphe de / (x). Il est clair que les
zéros réels du polynôme / (x) sont les
abscisses des points d'intersection du
graphe de f (x) avec l'axe des abscisses ;
/ (x) n'a pas d'autres zéros réels.
Considérons, par exemple, le po­
lynôme du cinquième degré
h{x) = x5+ 2x4— 5x3+ 8x2— 7x —3.
D’après les résultats du § 24 sur les
zéros des polynômes, on peut affirmer
que h (x) a au moins un zéro réel,
car / (x) est de degré impair ; en outre,
si le nombre de zéros réels de h (x) Fig- 9
est supérieur à un, alors ce nombre
est égal a trois ou bien à cinq, car les zéros complexes sont conju­
gués deux à deux.
Le graphe du polynôme h (x) permet d’obtenir plus de renseigne­
ments sur ses zéros. Calculant les valeurs de h (x) pour x entiers
(par exemple, au moyen du procédé de Horner), traçons le graphe
en question (fig. 9) 1.

1 L’échelle de l ’axe des y est, sur la figure 9, dix fois plus petite que celle
de l’axe des x .
250 CALCUL DES ZÉROS D'UN POLYNÔME [CH. IX

X h[x) JC h(x)

—1 18
0 -3
1 -4
—4 —39 2 39
—3 144 . #
— 2 83 • •

On voit que le polynôme h (s) possède, en tout cas, trois zéros réels
dont un positif, a*, et deux négatifs, a a et a 3 ; en outre,
1 < a t<2, — l < a 2< 0 ,
—4 < a 3< —3.
j
L’information sur les zéros (réels) d’un polynôme, fournie par
le graphe, est pratiquement assez satisfaisante. Néanmoins, chaque
fois il reste des doutes concernant l’existence d ’autres zéros réels.
Ainsi, dans l ’exemple considéré ci-dessus nous n ’avons pas démontré
qu’il n ’existait pas de zéros de h (z) à droite du point x = 2 et
à gauche du point" x = —* 4. De plus, n ’ayant pas considéré les
valeurs non entières de x , on peut admettre que le graphe tracé
sur la fig. 9 ne correspond pas tout à fait au véritable comportement
de la fonction h (a:), notamment il ne prend pas en considération
les oscillations plus petites de h (z) et, pour cette raison, il est pos­
sible qu’on perde de vue certains zéros de cette fonction.
Il est vrai qu’on aurait pu, en traçant le graphe de h (x), prendre
les valeurs de h (z) qui correspondent non seulement aux va­
leurs entières de x , mais aussi aux valeurs de la variable indépendante
qui en diffèrent de 0,1 ou, encore, de 0,01. Mais cela ne ferait que
compliquer les calculs, sans faire disparaître les doutes évoqués
ci-dessus. D’autre part, on pourrait, utilisant les méthodes d’analy­
se, étudier le comportement de la fonction h (x) en déterminant
ses points extrémaux et comparer ainsi notre graphe avec l ’allure
véritable de h (z) ; or, cela conduit au problème du calcul des zéros
de la dérivée h' (z), c’est-à-dire encore au problème qui nous préoc­
cupe.
Il en résulte la nécessité de trouver des méthodes plus efficaces
de calcul des limites des zéros des polynômes à coefficients réels,
ainsi que des méthodes permettant de déterminer le nombre de ces
zéros. Nous allons aborder le problème de calcul des limites des
zéros réels ; le problème de détermination du nombre de zéros réels
sera étudié aux paragraphes suivants.
La démonstration du lemme du module du terme principal (cf. § 23)
permet déjà d’établir certaines limites pour les modules des zéros
§ 3»] LIMITES DES ZEROS 251

d’un polynôme. En effet, posant h — 1 dans (3) du § 23, nous


obtenons, pour
A
x \> 1 -f (1)
Kl ’
où a0 est le coefficient du terme principal et A le maximum des
modules des autres coefficients, que le module du terme principal
est strictement supérieur au module de la somme de tous les autres
termes, de sorte qu’aucune valeur de x, vérifiant (1), ne peut
être zéro de ce polynôme.
Ainsi, quel que soit le polynôme f (x) à coefficients numériques,
le nombre 1 + — r est une borne supérieure des modules des zéros réels
IûoI
et complexes de f {x). Ainsi, pour le polynôme h (x) considéré ci-des-
sus on a: a0 = 1, A = 8 , de sorte que le nombre 9 est une borne
supérieure des modules des racines de h (x).
Néanmoins, la borne supérieure (1) étant trop grossière, surtout
lorsqu’on ne cherche que les zéros réels, nous allons donner d ’autres
méthodes, plus précises. En outre, il ne faut pas oublier que si l ’on
donne des limites entre lesquelles les zéros réels peuvent être
compris, cela ne veut nullement dire que ces zéros existent réellement.
Montrons d’abord qu’ü suffit de trouver une borne supérieure des
zéros positifs d'un polynôme. En effet, soient un polynôme / (x)
de degré n et N 0 une borne supérieure des zéros positifs de / (x).
Considérons les polynômes
y l (x) = xni ( —)
< P 2 (z ) = / ( — * ).

<P3 ( * ) = * "/ ( ~ - ) .

Soient N Xi N 2, des bornes supérieures respectives des zéros


l
positifs de ces polynômes. Alors le nombre est une borne inférieure
des zéros positifs du polynôme f (x); en effet, a étant un zéro positif de/k(x),
1 1
le nombre — CC
est un zéro positif de (x) et l ’inégalité — OCr
< Nx
1 1
entraîne a IVj
. De même, les nombres — N 2 et —-rp IV3
sont respecta
vement des bornes inférieure et supérieure des zéros négatifs du poly­
nôme f (x). Ainsi, tout zéro positif du polynôme f (x) vérifie
l’inégalité y < x < iV0, de même que tout zéro .négatif de / (a:)
satisfait à l’inégalité
— N z < x< Z — N*
252 CALCUL DLS ZÉROS D 'U N POLYNOM E [C H . IX

On peut appliquer la méthode suivante pour trouver une borne


supérieure des zéros positifs. Soit un polynôme à coefficients réels
/ (x) = floX” + diX*-1+ . .. +ûn ;
on suppose en outre que a0 > 0. Soit ensuite aA, 1, le premier
coefficient négatif de / (x); si tous les coefficients du polynôme
f (x) étaient positifs, alors / (x) ne pourrait pas avoir de zéros posi­
tifs. Enfin, notons par B la plus grande des valeurs absolues des
coefficients négatifs de / (x). Alors le nombre

est une borne supérieure des zéros positifs du polynôme f (x).


En effet, soit x > 1 ; remplaçant dans l’expression de / (x) les
coefficients aly a2> . ♦ ah_x par le nombre zéro et les coefficients
ahj • ■•, an par le nombre —5 , la valeur de / (x) n ’en devient
que plus petite,
/ (x) > aoZn~-B (x"''* + xn~ft_1+ . . . + x + 1) =

de sorte que, en vertu de x > l , on a


/ ( x ) > aaxn — Bxxn_ h*1= W xk-1( a ;— 1 ) - f i ] ( 2 )
Si

x>i+y/f ’ (3)
alors l ’expression entre les crochets dans la formule (2) est stric­
tement positive, vu que pour x > l on a l ’inégalité
a o x * -1 (x — 1 ) — B > a 0 (x — 1 f — B \

par conséquent, en vertu de (2), la valeur de / (x) est strictement


positive. Ainsi, aucune valeur de x vérifiant l’inégalité (3) ne peut
être zéro de / (x), ce qu’il fallait démontrer.
Pour le polynôme h (x) considéré ci-dessus on a : A; = 2 et 2? — 7,
et notre méthode donne le nombre 1 + 1 ^ 7 pour borne supérieure
des zéros positifs de h (x) ; on peut le remplacer par le nombre 4 qui
est le plus petit nombre entier majorant 1 + J/T.
Parmi les nombreuses autres méthodes de calcul de bornes supé­
rieures des zéros positifs nous donnerons encore celle due à Newton.
Quoique cette méthode soit plus laborieuse que celle exposée ci-
dessus, elle donne d’habitude de très bons résultats.
| 39] LIMITES DES ZÉROS 253

Soit un polynôme à coefficients réels f (x) dont le coefficient


du terme principal a0 est positif. Si le polynôme f (x) et ses dérivées
f (x), f" {x), . . / <n) (a:) sont positifs pour x — c, alors le nombre c
est une borne supérieure des zéros positifs.
En effet, d ’après la formule de Taylor (cf, § 23) on a
f(x) = f{c) + (x — c ) f (c) + (x —c)2 r2(c)
!
...+ { x - c ) n /(w) (c)
nI
On voit que le second membre est strictement positif pour x ^ c,
c’est-à-dire aucune valeur de x vérifiant l ’inégalité a ; > c ne peut
être zéro de / (x).
Il est utile de procéder de la manière suivante en calculant
le nombre correspondant c pour un polynôme donné / (x). La dérivée
/<n) (x) = n !a0 étant un nombre positif, le polynôme / (n“1) (x) est
une fonction croissante de x. Donc, il existe un nombre tel que
la dérivée f ^ X x ) est positive pour x ^ cv II en résulte que la
dérivée / <7l"2) (x) est une fonction croissante de x pour x cly de
sorte qu’il existe un nombre c2, c2 cly tel que la dérivée / (n~2) (x)
est positive pour x ^ c 2. Continuant ce processus, ou trouvera,
finalement, le nombre c.
Appliquons la méthode de Newton au polynôme h (x) considéré ci-dessus.
On a
h (s) = x®+ 2a;4—5a:3 + 8a:2—I x —3,
h9 (x) = 5a* + 8a:3—15z2+ 16a;—7,
h” (x) = 20a;3+ 24a:2—30a:+16,
hM(x) = QO*2+ 48a:—30,
hi v (x) =120*4-48,
hy {x) = 120.
Il est facile de vérifier (utilisant, par exemple, le procédé de Hôrner) que
tous ces polynômes sont positifs pour x — 2. Ainsi, le nombre 2 est une borne
supérieure des zéros positifs du polynôme h (a:) ; c’est là un résultat beaucoup
plus précis que ceux obtenus ci-dessus par d ’autres méthodes.
Pour calculer une borne inférieure des zéros négatifs de h (a:) considérons
le polynôme q)2 (a:) = —h (—x) 1. On a
<p2 (x) = x fi—2x* —5a:3—8a;2—7a:-j- 3,
(x)=5x* —8a:3—15a:2—16a:—7,
<PÎ (a:) = 20a:3—24a?2—30a:—16.
9? (**0—60a:2—48z —30,
<p|v (x) = 120*—48,
(x) = 120;
1 On prend —h (—x) au lieu de h (—x ), car le coefficient du terme princi­
pal doit être positif afin que l’on puisse appliquer la méthode de Newton. Bien
entendu, cela ne modifie pas les zéros du polynôme q>2 (x).
254 CALCUL DES ZÉROS D ’UN POLYNÔME [CH, IX

tous ces polynômes étant positifs pour x = 4, ce oui est facile de vérifier» le
nombre 4 est une borne supérieure des zéros positifs de <p2 (x), de sorte que le
nombre —4 est une borne inférieure des zéros négatifs de h (x).
Enfin» considérant les polynômes
(p! (x) — —x*h = 3x5+ 7 x 4—8x3+ 5x2—2x— 1,

<p3 (x) = —x&h ^ = 3 x 6—7a;4—!-8x3—5a;2—2x~\-1»

on trouve des bornes supérieures de leurs zéros positifs qui sont» respectivement»
les nombres 1 et 4 en appliquant la méthode de Newton. Par conséquent» le
nombre — — 1 est une borne inférieure des zéros positifs de h (x) et le nombre
1
— *£-une borne supérieure des zéros négatifs de h (a;).
Ainsi, les zéros positifs de h (x) sont compris entre les nombres 1 et 2, et
ses zéros négatifs se trouvent entre les nombres —4 et — ^ . Ce résultat est bien
en accord avec T information fournie par le graphe de h (x),

§ 40- Théorème de Sturjn


Nous passons maintenant au problème de la détermination du
nombre des zéros réels d'un polynôme f {x) à coefficients réels. En outre,
on s’intéressera non seulement au problème du calcul du nombre
total des zéros réels de / (x), mais aussi à celui de la détermination
du nombre de zéros positifs, négatifs et, plus généralement, de zéros
compris entre des nombres donnés a et b. Il existe plusieurs méthodes
de calcul du nombre exact des zéros d ’un polynôme ; elles sont toutes
assez laborieuses; parmi ces méthodes celle de Sturm est la plus
commode et nous allons l ’exposer.
Introduisons d’abord une définition qu’on utilisera également
dans le paragraphe suivant.
Soit une suite finie ordonnée dénombrés réels non nuis, par exemple,
1, 3, ~ 2 , 1, - 4 , - 8 , - 3 , 4, 1. (1>
Ecrivons successivement les signes qui précèdent ces nombres
— > —» — (2)
Nous constatons que dans la suite de signes (2) on rencontre quatre
fois des couples de signes opposés voisins. Nous dirons dans ce cas
qu’il y a dans la suite ordonnée (1) quatre changements de signes.
Bien entendu, on peut calculer le nombre de changements de signes
pour toute suite finie ordonnée de nombres réels non nuis.
Soit maintenant un polynôme à coefficients réels / (x) ; on peut
supposer que / {x) ne possède pas de zéros multiples, car, dans le cas
contraire, on aurait pu diviser f (x) par le plus grand commun divi­
seur de / (z) et de sa dérivée f -(x). Une famille finie ordonnée de
§ 40j THËORÈME DE STURM 265

polynômes non nuis à coefficients réels


/ (a) = /o(æ). f l (æ), h (z ), .. •, U (z) (3)
est appelée famille de Sturm du polynôme / (x) si les conditions
suivantes sont vérifiées:
1. Aucun couple de polynômes voisins de la famille (3) ne pos­
sède de zéros communs.
2. Le dernier polynôme f a (x) n'a pas de zéros réels.
3. Si a est un zéro réel d'un des polynômes f k (x) de la famille
(3) avec 1 ^ k ^ s —1, alors f k^x (oc) et f h+1 (a) sont des nombres
réels de signes opposés.
4. Si oc est un zéro réel du polynôme / (s), alors le produit
/ (x) fi (x) change de signe en passant du moins au plus lorsque
x croît en passant par le point a.
Le problème d’existence d’une famille de Sturm pour tout poly­
nôme sera considéré ci-dessous; supposant à présent qu’une telle
famille existe, montrons comment elle peut être utilisée pour déter­
miner le nombre de zéros réels de / (x).
Fixons un nombre réel c qui ne soit pas zéro du polynôme/ (æ) ï
supposons que la famille (3) soit une famille de Sturm de / (z) et
formons la suite de nombres réels
/(«)* /l(c), hic), . . . . hic),
éliminant ceux des membres de cette suite qui sont nuis, désignons
par W (c) le nombre de changements de signes dans la suite ordonnée
obtenue de cette manière ; W (c) est appelé le nombre de changements
de signes dans la famille de Sturm (3) du polynôme f (x) pour x = c L
Le théorème suivant est vrai :
Théorème de Sturm. Soit un polynôme f (x) à zéros tous simples.
Supposons que les nombres réels a et 6, a < 6, ne soient pas zéros
de f (x) ; alors on a: W (a) ^ W (b) et la différence W (a) — W (b)
est égale au nombre des zéros réels du polynôme f (s) compris entre a et 6.
Ainsi, pour déterminer le nombre des zéros réels d’un polynôme
f (x), compris entre a et 6, il faut seulement calculer la différence
entre le nombre de changements de signes dans la famille de Sturm
de f (x) pour x » a et pour x ^ b (rappelons que le polynôme / {x)
n’a pas de zéros multiples).
Pour démontrer le théorème considérons le comportement du
nombre W (z) lorsque x croît. Tant que x croît sans passer par un
zéro des polynômes de la famille de Sturm (3), les signes des poly­
nômes de cette famille ne varient pas et par suite le nombre W (æ)
conserve sa valeur. Cela étant, il nous reste, en vertu de la condition
1 Bien entendu, les changements de signes dans la famille de Sturm d'un
polynôme f (s) n'ont rien de commun avec les changements de signe du polynô­
me f (x) lorsque l ’indéterminée x passe par les zéros de f (x).
256 CALCUL DES ZÉROS D'UN POLYNÔME [CH. IX

2) de la définition d’une famille de Sturm, à considérer deux cas :


le passage de x par un zéro d ’un des polynômes intermédiaires f h (x),
1 ^ A: ^ s — 1, et le passage de x par un zéro du polynôme f (x).
Soit a un zéro du polynôme f k (x), 1 ^ k s —1. Alors, d’après
la condition 1), f h_x ( a ) et /A+1 ( a ) sont non nuis. Donc, on peut
trouver un nombre positif 8 (probablement très petit) tel que les
polynômes f h (x) et /*+1 (x) n ’aient pas de zéros dans l ’intervalle
(ce — e, a + s) et, par conséquent, conservent leurs signes pour
a —e^ x a + e, ces signes étant opposés, en vertu de la condi­
tion 3). Il en résulte que deux suites de nombres
fk-i ( a —e), /fc(a —e), (4)
et
/*-i(a + e), fk (a + e), fk+i (a + e) (5)
ont chacune un changement de signes indépendamment des signes
des nombres /* (a — s) et f k (a + e). Ainsi, supposons, par exemple,
que les polynômes ^ (x) et / ft+1 (x) soient respectivement négatif
et positif dans l ’intervalle considéré et que f h (a — e) > 0 ,
fk (a + e) < 0 ; alors aux suites (4) et (5) correspondent les suites
de signes
t + » “"b y 9 » "b •
Ainsi, lorsque x passe par un zéro d’un des polynômes intermédiaires
de la famille de Sturm, les changements de signes peuvent seulement
changer de place, mais il est impossible que de nouveaux change­
ments de signes disparaissent ou apparaissent, de sorte que le nom­
bre W (x) reste invariant pour un tel passage de x.
D'autre part, soit a un zéro du polynôme / (x). D’après la con­
dition 1) a n ’est pas un zéro de f x (x). Donc, il existe un nombre
positif e tel que l ’intervalle (a — e, a + e) ne contient pas de zéros
de f x (x), de sorte que f t (x) conserve son signe lorsque a — 8 ^
x et + e. Si f x (x) est positif dans cet intervalle, âlors,
selon la condition 4), le polynôme f (x) change de signe et devient
positif lorsque x, croissant, passe par a, de sorte que l ’on a: / ( a —
— e) < 0, / (a + e) > 0. Donc, aux suites des nombres
/ ( a —e), M a —e) et / ( a + e), / , ( a + e) (6)
correspondent les suites des signes
— 9 + + T + 9

c’est-à-dire la famille de Sturm perd un changement de signes. Si f x (x)


est négatif sur l ’intervalle (a — e, a + e), alors, en vertu de la
condition 4), le polynôme f (x) change encore de signe et devient
négatif, lorsque x, croissant, passe par a, de sorte que l’on a :
/ (a — e) > 0, f (a + e) < 0 : aux suites des nombres (6) correspon-
§ 40] THÉORÈME DE STURM 257

dent maintenant les suites des signes


~r ^ > »
c’est-à-dire la famille de Sturm perd encore un changement de signes.
Ainsi, le nombre W (x) ne varie que lorsque x, croissant, passe
par un zéro du polynôme f (x) ; en outre, dans ce cas W (x) diminue
d'une unité.
Ainsi le théorème de Sturm est démontré. Il suffit, pour l ’appli­
quer au calcul du nombre des zéros réels d’un polynôme / (x), de
prendre pour a une borne inférieure des zéros négatifs et pour b
une borne supérieure des zéros positifs. Toutefois, il est plus simple
de procéder ainsi. D’après le lemme du § 23, il existe un nombre
positif N (peut-être très grand) tel que pour \x\ > N le signe de tout
polynôme d’une famille de Sturm coïncide avec celui de son terme
principal. Autrement dit, il existe une valeur positive suffisamment
grande de l ’indéterminée x telle que la valeur en x de tout polynôme
d’une famille de Sturm a le même signe que le coefficient du
terme principal du polynôme; nous convenons de noter cette
valeur de x par le signe oo (on n’a pas besoin de la calculer). Il exis­
te, d’autre part, une valeur négative de x , suffisamment grande
en valeur absolue, telle que le signe de la valeur de tout polynôme
d’une famille de Sturm au point x est le même que celui du coeffi­
cient du terme principal si le degré du polynôme est pair et est oppo­
sé à celui du coefficient du terme principal si le degré du polynôme
est impair; on convient de noter cette valeur de x par — oo. Il est
clair que l’intervalle (— oo, oo) contient tous les zéros réels de tous
les polynômes d’une famille de Sturm et, en particulier, tous les
zéros réels du polynôme / (x). Appliquant le théorème de Sturm
successivement aux intervalles (— oo, oo), (— oo, 0) et (0,. oo), nous
trouverons respectivement le nombre dés zéros réels, des zéros
négatifs et des zéros positifs du polynôme / (x).
Il reste à montrer que tout polynôme à coefficients réels f (x),
n'ayant pas de zéros multiples, possède une famille de Sturm. Nous
donnons ici l’une des méthodes permettant de former une telle
famille ; cette méthode est le plus souvent utilisée. Posons fx (x) =
= /' (x), ce qui garantit que la condition 4) de la définition d’une
famille de Sturm est vérifiée. En effet, si a est un zéro réel du poly­
nôme f (x), alors /' (a) ^ 0. Soit /' (a) > 0, alors f (x) > 0 dans
un voisinage du point a, de sorte que f (x) change de signe et devient
positif lorsque x, croissant, passe par le point a ; alors il en est
de mêmq pour le produit / (x) f x (x). Les mêmes raisonnements sont
valables dans le cas où / ' (a) < 0. Divisons ensuite / (x) par f Y (x) ;
le reste de la division multiplié par (—1) est désigné par f 2 (x) :
/(*) = /«(*)?! (*) —h (x).
258 CALCUL DES ZEROS D UN POLYNÔME [CH. IX

Plus généralement, supposant que les polynômes / A-1 (a;) et fk (x)


soient déjà trouvés, le polynôme f k+1 (æ) est le reste de la division
de f k„x (a:) par fk (x), multiplié par (—1) :
1 (x) = h (x) qh (x) —/ft+1 (x). (7)

La seule différence entre la méthode exposée ci-dessus et l ’al­


gorithme d’Euclide, appliqué aux polynômes / (a:) et f (a:), consiste
en ce que l ’on change les signes des restes et que la division s’effectue,
ensuite, par le reste dont on a changé le signe. Un tel changement
de signes étant sans importance pour le calcul du plus grand commun
diviseur, notre processus s’arrêtera lorsque nous aurons trouvé
le plus grand commun diviseur f s (a;) des polynômes / (x) et f (a:) ;
or, le polynôme f (a;) n ’ayant pas de zéros multiples, les polynômes
/ (a:) et f (x) sont premiers entre eux, de sorte que f s (ar) est, en réali­
té, un nombre réel non nul.
Il en résulte que la famille de polynômes ainsi formée

/ (*) = U (x), f (a:) = ^ (x), h (x)........ fa(x)

vérifie la condition 2) de la définition d’une famille de Sturm. Pour


démontrer que la condition 1) est aussi satisfaite, supposons qu’un
couple de polynômes voisins, soit f k (x) et / fe+1 (z), ait un zéro
commun a. Alors, selon (7), a est aussi un zéro du polynôme / A_j (a;).
Passant à l’égalité

/fe-2 (S) = /ft-1 (X) tffc-i(x) —fk (X),

il vient que a est un zéro de / A_2 (a;). Continuant ce processus nous


obtiendrons que a est un zéro commun de / (x) et / ' (a;), ce qui est
en contradiction avec notre hypothèse. Enfin, la condition 3) découle
directement de l ’égalité (7) : si f k (a) = 0, alors f k-x (a) =
= — h +1 («)•
Appliquons la méthode de Sturm au polynôme
h {x) = xP + 2x*—bx*~\-8x* —Ix —3

considéré au paragraphe précédent. Nous n ’avons pas besoin de vérifier préala­


blement que h (x ) n a pas de zéros multiples, car la méthode dé construction
d’une famille de Sturm ci-dessus sert, en même temps, à vérifier si le polynôme
et sa dérivée sont premiers entre eux.
Appliquant la méthode exposée ci-dessus trouvons une famille de Sturm
de h (x). Seulement ici, à la différence de l ’algorithme d ’Euclide, en divisant
un polynôme par un autre, nous ne pouvons multiplier et simplifier les polynô­
mes que par des nombres réels positifs, les signes des restes jouant un rôle impor-
§ 40] THÉORÈME DE STURM 259

tant dans la méthode de Sturm. On obtient la famille


h (x) = x64-2x4—5x3-|-8x2—7x—3,
hi (x) —5x4+ 8x8—15x2 4- 16x—7,
h<i (x) = 66x3—150x24- 172x 4- 61,
hz (x) = —464x24- 1135x+723,
*4 (x) — —32 599 457x - 8 486 093,
'h (*)=* —l'
Trouvons les signes des polynômes de cette famille pour x = - 0 0 et z -
= 00; pour cela, diaprés la remarque ci-dessus, il ne faut prendre en considé­
ration que les signes des coefficients des termes principaux et les degrés des
polynômes en question. Nous obtenons le tableau:
Nombre de changements
h (jc) ht (x) H (x) *3 (x) *4 (X) *5 (*) de signes

—00 — + — — 4 — 4

00 4- + 4 — — 1
Ainsi, lorsque x varie de —00 à 00, la famille de Sturm perd trois change­
ments de signes ; par conséquent, le polynôme h (x) possède exactement trois
zéros réels. Ainsi le graphe de h (x), considéré au paragraphe précédent, donne
réellement tous les zéros réels de ce polynôme.
Appliquons la méthode de Sturm à un autre polynôme, plus simple. Soit
le polynôme :
} (x) = x24-3x2—l.
Calculons le nombre de ses zéros réels, ainsi que les couples de nombres entiers
qui les encadrent ; en outre, ne commençons pas par tracer le graphe de ce
polynôme.
La famille de polynômes
/(x) = x»+ 3x2- l ,
h (x) = 3x24-6x,
Î2 (*) = 2x4' li
/ 3 (x) = 1
est une famille de Sturm du polynôme / (x).
Calculons le nombre de changements de signes dans, cette famille respecti­
vement pour x = —00 et pour x — 00. Il vient :
Nombre
/(*) fi (x) /2 (x) h (*, de changements
de signes

—00 — + — 4 3

00 4 + 4 4 0
260 CALCUL DES ZÉROS ^D*UN POLYNOME [CH. IX

Ainsi, le polynôme f (x) possède trois zéros réels. Pour préciser la répartition
de ces zéros, complétons le tableau précédent :

Nombre de changements
/<*> /I (*) /2(a) /3<*) de signes

x — —3 — + — + 3

x = —2 + 0 — + 2

x = —1 + — — ~t~ 2

3 = 0 — 0 + 1

X—1 + + + + 0

Ainsi, la famille de Sturm du polynôme f (x) perd un changement de signes


lorsque x varie respectivement entre —3 et —2, entre —1 et 0 et entre 0 et 1.
Donc, les zéros ai, a 2l a 3 de ce polynôme vérifient les inégalités:
—3 < a , < - 2, —1 < a 2 < 0, 0 < a 3< l .

§ 4t. Autres théorèmes sur le nombre des zéros réels


Le théorème de Sturm donne la solution complète du problème
de calcul du nombre des zéros réels d’un polynôme. Néanmoins,
son défaut essentiel consiste en ce que cette méthode nécessite des
calculs assez laborieux pour trouver une famille de Sturm ; le lecteur
a pu le constater en faisant tous ces calculs pour le premier exemple
ci-dessus. Pour cette raison, nous allons démontrer deux théorèmes
ne donnant pas le nombre exact des zéros réels, mais limitant su­
périeurement ce nombre. Ces théorèmes permettent quelquefois,
après avoir limité inférieurement le nombre de zéros réels au moyen
du graphe, de trouver le nombre exact des zéros réels sans être obligé
de recourir à la méthode de Sturm.
Soit un polynôme / (x) de degré n à coefficients réels ; en outre,
on admet qu’il puisse avoir des zéros multiples. Considérons la
famille formée par ce polynôme et ses dérivées successives
/(x) = /«»(x), /'(x), f( x ), (x), /<*>(x), (1)
dont la dernière est égale au coefficient ûj du terme principal
de / (x) multiplié par ni, dô sorte que f n) (x) ne change pas de signe.
Soit un nombre réel c tel qu’aucun polynôme de la famille (1) n’ait c
§ 41] AUTRES THÉORÈMES SUR LE NOMBRE DES ZÉROS RÉELS 261

pour zéro; désignons par S (c) le nombre de changements de signes


dans la suite ordonnée des nombres
f(c), f'(c ), f (c), /W(C).
Ainsi, nous avons défini une fonction à valeurs entières S (x) pour
toute valeur de x n’annulant pas les polynômes de la famille (1).
Examinons le comportement de S (x) lorsque x croît. Le nombre
S (x) ne varie pas tant que x, croissant, ne rencontre pas de zéros
des polynômes de la famille (1). Pour cette raison, nous devons
considérer deux cas : le passage de x par un zéro du polynôme f (x)
et par un zéro d’une des dérivées (x), 1 k ^ n — 1.
Soit a un zéro du polynôme / (x) d’ordre de multiplicité Z, i > u
c’est-à-dire
/(«) = / ' ( « ) - . - . = fi1* " (a) = 0, /CO (a) + 0.
Soit un nombre positif e suffisamment petit pour que l ’intervalle
(a — e, a + e) ne contienne pas de zéros des polynômes / (x), /' (x), . . .
. • *, f l~v (x), distincts de a, et pour que le polynôme
/a> (x) ne s’annule pas pour a — e ^ x ^ a + e. Démontrons que
dans la suite des nombres
/(a —e), / '( a —e), . a —e), /<n (a —e)
tous nombres voisins ont des Signes contraires et que les nombres
/ (a + e), / '( a + e), . . . , ^ - O (a + e), /<*>(a + e)
sont tous d’un même signe. Tout polynôme de la famille (1) étant
la dérivée première du polynôme qui le précède, il faut démontrer
seulement que, indépendamment de Tordre de multiplicité d’un
zéro a d e / (x), les polynômes / (x) et / ' (x) ont des signes contraires
lorsque x est voisin de a et x < a, tandis que les signes de / (x)
et de / ' (x) coïncident lorsque x est voisin de a et x > a. Si / (a —
— e) > 0, alors / (x) décroît sur l’intervalle (a — e, a), de sorte
que f (a — e) < 0; si, par contre, / (a — e) < 0, alors / (x) croît
et, par conséquent, /' (a — e) > -0. Donc, dans les deux cas les
signes de f {oc — e) et de f (a — e) sont contraires. D’un autre
côté, si / (a + e) > 0, alors f (x) croît sur l ’intervalle (a, a + e)
et, par conséquent, f ( a + e ) > 0 ; de façon analogue, l’inégalité
/ (a + e) < 0 donne f (a + e) < 0. Ainsi, les signes de / (x) et
de /' (x) coïncident après le passage de x par un zéro a de f (x).
Il résulte de la propriété qui vient d’être démontrée que la
famille
f(x), f ( x ) , . . fV-Vix), fW(x)
perd l changements de signes lorsque x, croissant, passe par un zéro
d’ordre de multiplicité l du polynôme / (x).
262 CALCUL DES ZÉROS D ’UN POLYNOME [CH, IX

Maintenant, soit a un zéro des dérivées


/<*)(*), /<*+*>(*), ...,/(*+*-!)(*), l> 1,
et supposons que a ne soit pas un zéro de ni de /<*+*>(#).
Selon la propriété démontrée ci-dessus, le passage de x par a entraîne
que la famille
fW (x )y /<*+!>(*), /(*+<>(*)
perd l changements de signes. Il est vrai que cela donne un nouveau
changement de signes entre (x) et f ih} (x) ; toutefois, vu que
l ^ 1, le nombre de changements de signes dans la famille
/<*-*> <*), /<*>(*), f<k+ »(z)........../<*+*-*> (z), f<h+lHx)
soit ne varie pas, soit diminue, lorsque x y croissant, passe par oc.
Ce nombre ne peut diminuer que d’un nombre pair, car les polynô­
mes f h~1} (x) et / <fe+i> (x) ne changent pas de signe lorsque x passe
par oc.
Il s'ensuit des résultats obtenus que si les nombres a et b, a < fc,
ne sont pas des zéros des polynômes de la famille (1), alors le nombre
des zéros réels du polynôme f (#), pris avec leurs ordres de multiplicité
et compris entre a et b, est égal à S (a) — S (b) ou inférieur à cette
différence d'un nombre pair.
Afin d'affaiblir certaines restrictions sur les nombres a et 6,
introduisons les notations suivantes. Soit un nombre réel c tel qu’il
ne soit pas un zéro du polynôme / (x) ; le nombre c peut être un zéro
de certains polynômes de la famille (1). Désignons par S+ (c) le
nombre de changements de signes dans la suite
/ (c), r (c), r (c) , . . . . (c), /<*> (c), (2)
ce nombre devant être calculé de la manière suivante : si
/<*> (C) = /(*+» (c) = . . . = /(M-i-D (C) = 0 (3)
et
/(*-U (C)=^0( (4)
alors on dit que /<*> (c), f h+v (c), . . ., / (h+1-1) (c) ont le même
signe que f h+l) (c); il est clair que cela équivaut à éliminer les
zéros de la suite (2), en calculant le nombre de changements de
signes dans cette suite. D’autre part, désignons par S_ (c) le
nombre de changements de signes dans la suite (2), calculé de la
manière suivante: si les relations (3) et (4) ont lieu, alors on dit
que / <ft+i> (c), 0 < i ^ l — 1, a le même signe que / (h+t) (c) quand
l — i est pair, et on dit que f h+u (c), 0 ^ i ^ i — 1, a le signe
contraire à celui de f h+l) (c) si l — i est impair.
Maintenant, si l ’on veut déterminer le nombre des zéros réels
d ’un polynôme / (a:), compris entre a et b, a < b, où a et 6 ne sont
§ 4i] AUTRES THÉORÈM ES SUR LE NOMBRE DES ZÉROS RÉELS 263

pas des zéros de / (a:) mais peuvent être des zéros d'autres polynômes
de la famille (1), on procède alors de la manière suivante. Soit e un
nombre positif si petit que l'intervalle (a, a + 2e) ne contienne pas
de zéros du polynôme / (a;), ni des autres polynômes de la famille
(1), excepté le zéro a; d’autre part, soit î| un nombre positif si petit
que l ’intervalle (6 — 2t|, b) ne contienne pas non plus de zéros de
/ (a:), ni des autres polynômes de (1), excepté, peut-être, le zéro b.
Alors, le nombre qui nous intéresse est égal à celui des zéros réels
du polynôme / (x) compris entre a + e et b — r|, où encore, selon
la proposition démontrée ci-dessus, ce nombre est égal à S (a +
+ e) —S (b — T|) (ou il est inférieur à S (a + e) — S (b — t|) d'un
nombre pair). Or, il est facile de voir que
S (a + t) = S+(à), S (b - x \) = S^(b).
Ce qui démontre le théorème suivant:
Théorème de Budan-Fourier. Soient deux nombres réels a et b,
a < 6, qui ne sont pas des zéros d'un polynôme à coefficients réels
f (x). Alors le nombre des zéros réels de f (x), pris avec leurs ordres
de multiplicité et compris entre a et b, est égal à la différence S+ (a) —
— S - (b) ou est inférieur à S+ (a) — £_ (fc) d'un nombre pair.
Désignons par oo une valeur positive suffisamment grande de
l ’indéterminée x telle que les signes des polynômes de la famille (1)
au point x soient les mêmes que ceux des coefficients de leurs termes
principaux. Ces coefficients étant les nombres a0, na0, n (n —
— 1) a 0, . . n!a0, ayant tous le même signe, on a: S (oo) =
= (oo) = 0. D ’autre part, vu que

f(0) = On, f'(0) = On-u r ( 0 ) = fl»-22 !v


r(0) = an^3l ........ /<*>(0) = <v»!,
où a 0, a v . . ., a n sont les coefficients du polynôme / (x), on cons­
tate que 5 + (0) coïncide avec le nombre de changements de signes
dans la suite ordonnée formée par les coefficients du polynôme
/ (x) ; en outre, on doit éliminer les coefficients nuis. Ainsi, appli­
quant le théorème de Budan-Fourier à l ’intervalle (0, oo), on est
conduit au théorème:
Théorème de Descartes. Le nombre des zéros positifs d'un polynôme
f (x) à coefficients réels, chaque zéro étant pris avec son ordre de multi­
plicité, est égal au nombre de changements de signes dans la suite
ordonnée des coefficients de f (x) (les coefficients nuis devant être omis)
ou inférieur à ce nombre d'un nombre pair.
Pour déterminer le nombre de zéros négatifs d ’un polynôme f (x),
il suffit d’appliquer le théorème de Descartes au polynôme f (—x).
En outre, si tous les coefficients de f (x) sont non nuis, alors à tout
264 CALCUL DES ZÉROS D ’UN POLYNÔME [CH. IX

changement de signes dans la suite des coefficients de / (—x) cor­


respond une conservation de signes dans la suite des coefficients
du polynôme / (x) et inversement. Ainsi, si un polynôme f (x) n'a pas
de coefficients nuis, alors le nombre de ses zéros négatifs (pris avec leurs
ordres de multiplicité) est égal au nombre de conservations de signes
dans la suite des coefficients ou est inférieur à ce nombre d'un nombre
pair.
Donnons une autre démonstration du théorème de Descartes, indé­
pendante du théorème de Budan-Fourier; Démontrons d’abord
le lemme:
Si c > 0, alors le nombre de changements de signes dans la suite
ordonnée des coefficients d'un polynôme f (x) est inférieur au nombre
de changements de signes dans la suite ordonnée des coefficients du poly­
nôme (x — c) f (x) d'un nombre pair.
En ëffet, groupant les termes voisins dont les coefficients sont
de même signe (le coefficient a0 du terme principal est supposé
positif), mettons le polynôme f (x) sous la forme
/ (x) = (ooxn + . . . + i 1xfci+1) —(axxkl + . . .
• • • + 62*krH) + . . . + ( — l)s (a*A -f . . . + Vi**)' (5)
Ici a0 > 0 , ax > 0, . . as > 0 et bv b2, . ♦ bs sont non néga­
tifs ; mais nous supposons que est strictement positif, c’est-à-dire
que xl, t ^ 0, est la puissance de l ’indéterminée x d’exposant le plus
petit qui intervient dans l’expression du polynôme / (x) avec un
coefficient non nul. Il est possible que la parenthèse
{atfcn + . . . + 61xfti+1)
ne contienne qu’un terme : notamment1, cela a lieu si hx + 1 = n.
Les remarques analogues sont vraies pour les autres parenthèses
dans la formule (5).
Maintenant, écrivons le polynôme (x — c) f (x), en mettant
en évidence seulement les termes en x élevé aux puissances n + 1,
kx + 1, . . k 8 + 1 et t. Il vient:
{x — c)f(x) = (a0æn+1 + ....) —« æ fel+1 + . . . ) + • • •
. . . + ( - 1)8(a',xh*+1 + ------ - cbM a*)t (6)
où a\ == at + cbu i = 1, 2, . . s, de sorte que a\ sont strictement
positifs, car c > 0. Ainsi, dans, la, suite des coefficients du polynôme
/ (x) entre les termes a0xn et —axxhl (ainsi qu’entre les termes —axxhl
et a2xh*, etc.) il y a exactement un changement de signes, tandis
que dans la suite des coefficients du polynôme (x — c) f (x) entre
les termes correspondants a 0xn+1 et —ajxfei+1 (respectivement entre
les termes —a'x*1+1 et a^r***1, etc.) il y a soit un changement de
§ 41} AUTRES THÉORÈMES SUR LE NOMBRE DES ZÉROS RÉELS 265

signes, soit plus d ’un changement de signes, mais alors ce dernier


nombre doit être impair. Les endroits où se trouvent ces changements
de signes ne nous intéressent point ; par exemple, il peut arriver
que le coefficient de dans (6) soit négatif, tout comme le coef­
ficient —a'v de sorte qu’il n’y a pas de changements de signes entre
ces deux coefficients voisins; cela signifie que dans la première
parenthèse les changements de signes précèdent les termes en question.
Remarquons maintenant que la dernière parenthèse dans (5) n ’a pas
de changements de signes, tandis que celle dans (6) en a un nombre
impair: pour cela, il suffit de prendre en considération que les der­
niers coefficients non nuis des polynômes / (x) et (x — c) f (z),
c’est-à-dire les nombres (—1Y b ^ et (—l)s+1ès+1 c, ont des signes con­
traires. Ainsi, lorsqu’on passe du polynôme / (z) au polynôme
(x — c) f (c), le nombre total de changements de signes dans la suite
des coefficients augmente d’un nombre impair (la somme d’un
certain nombre de termes pairs et d’un terme impair donne, bien
entendu, un nombre impair!). Le lemme est démontré.
Pour démontrer maintenant le théorème de Descartes, notons
par a ly a 2, . . ., a k les zéros positifs du polynôme / (x). Ainsi, on a
f(z) = (z — a i)(x — a2) • - • (z —a ft)q>(x),
où qp{x) est un polynôme à coefficients réels sans zéros réels positifs.
Il en résulte que le premier et le dernier coefficient non nul de <p (x)
sont de même signe, c’est-à-dire dans la suite des coefficients du
polynôme qp (x) il y a un nombre pair de changements de signes.
Appliquant le lemme démontré ci-dessus successivement aux poly­
nômes
cp(z), (z —aOqpOr), (x — aA) (x — a 2) qp(x),
nous obtenons que le nombre de changements de signes dans la suite
ordonnée des coefficients augmente chaque fois d’un nombre impair,
de sorte que le nombre de changements de signes dans la suite des
coefficients du polynôme f (z) est supérieur à k d’un nombre pair.
Appliquons le théorème de Descartes et le théorème de Budan-Fourier au
polynôme
h (rc) —:c5-)-2x*—5x3+ ^ 2—7£—3,
considéré ci-dessus.
Le nombre de changements de signes dans la suite des coefficients est égal
à trois, de sorte que, d'après le théorème de Descartes, h (x) peut avoir soit un
zéro positif, soit trois. D'autre part, h (s) n'ayant pas de coefficients nuis et
vu que dans la suite des coefficients de h (x) il y a exactement deux conserva­
tions de signes, le polynôme h (x) peut avoir deux zéros négatifs ou bien n'a pas
du tout de zéros négatifs. Comparant ces résultats avec ceux obtenus précédem­
ment, au moyen du graphe, nous constatons que h (x) possède exactement deux
zéros négatifs.
Pour déterminer le nombre exact des zéros positifs appliquons le théorème
de Budan-Fourier dans l'intervalle (1, oo), car on a déjà montré au § 39 que
266 CALCUL DES ZÉROS D ’U N POLY NOM E [CH. IX

1 est une borne inférieure des zéros positifs du polynôme h (x ). Les dérivées suc-
cessiyes ont été également calculées au § 39. Trouvons leurs signes pour x = i
et x = oo :
Nombre de changements
h <x) A' <*> h" (x) h ' " (x) hv <*> de signes

x= l — -r f 4 i- 4 1

x oo — 4 f 4 4 + U

Il en résulte que la famille des dérivées perd un changement de signes lorsque x


varie entre 1 et oo, et, par conséquent, h (x) a exactement un zéro positif.

A propos de cet exemple remarquons que pour déterminer le


nombre des zéros réels d'un polynôme il faut, dans le cas général, com­
mencer par tracer le graphe de ce polynôme et utiliser ensuite les théorè­
mes de Descartes et de Budan-Fourîer ; ce n'est que dans les cas extrêmes
qu'il faut former la famille de Sturm du polynôme en question.
Le théorème de Descartes peut être précisé dans le cas particulier
où Ton sait dès le début que tous les zéros du polynôme sont réels,
comme, par exemple, dans le cas du polynôme caractéristique d’une
matrice symétrique. Notamment:
Soit un polynôme f (x) dont les zéros sont réels et le terme indépendant
de x est non nul ; alors le nombre kx des zéros positifs de ce polynôme
est é g a l au nombre st des changements de signes dans la suite des
coefficients tandis que le nombre k 2 des zéros négatifs est égal au nombre
s2 des changements de signes dans la suite des coefficients du polynôme
i (—*)•
En effet, d’après nos hypothèses on a
ki + k z ^ n , (7)
n étant le degré du polynôme, f(x), et, en vertu du théorème de
Descartes, les inégalités
k \ ^j, k2^ s 2 (8)
ont lieu. Démontrons que
Si + $2< n . (9)
Utilisons la récurrence sur n pour la démonstration de (9);
pour w= vu que a0=£ 0 et 0, il nTy a qu’un des polynômes
f(x)=-~aùx + au f ( — x ) = —a0z + au
dont la suite des coefficients possède un changement de signes,
c ’est-à-dire dans ce cas s± -f s2 — 1. Supposons que la formule (9)
§ 42] CALCUL APPROCHÉ DES ZÉROS 267

soit démontrée pour tout polynôme de degré strictement inférieur à n.


Soit
f (x) = Ü^Xn -f- On^iX1+ .♦ +<bi,
où — 1, an^= ^ 0 , posons
g(x) = an^ x l + . . .+ 0 * .
Alors
/ (x) = a0xn + g (x), / ( —x) = ( — 1)n a0xn + g ( —x).
Soient ^ et s'2 les nombres de changements de signes dans les suites
des coefficients respectivement du polynôme g (x) et du polynôme
g {—x) ; alors, d’après l ’hypothèse de récurrence (il est clair que
l >• 1), on a
S1H“52 ^ ï-
Si Z = n — 1, alors le premier changement de signes, c’est-à-dire
celui provenant des coefficients a0 et ax = an^i de / (x), peut avoir
lieu seulement pour l’un des polynômes / (x) et / (—x), de sorte que
l ’on a
S2^= s[-\-sf2-\- i 1
Si l ^ n — 2, les changements de signes provenant des coeffi­
cients a0 et an^i peuvent avoir lieu pour les deux polynômes
/ (x) et / (—x) ; néanmoins, dans ce cas on a également
Si -j- Sg S} -f- -f- 2 l ~\- 2 (n —2) 2 = n*
Comparant (7), (8) et (9), il vient:
&! = $!, ^2 = 521
ce qu’il fallait démontrer.

§ 42. Calcul approché des zéros


Les méthodes exposées aux paragraphes précédents permettent
de séparer les zéros réels d’un polynôme /(x) à coefficients réels, c’est-à-
dire de mettre en évidence pour tout zéro un intervalle qui ne con­
tient que ce zéro du polynôme. Si l ’intervalle est assez petit, on peut
prendre pour valeur approchée du zéro tout nombre appartenant
à cet intervalle. Ainsi, ayant établi par la méthode de Sturm (ou
par une méthode plus économe) que des nombres rationnels a et b
encadrent exactement un zéro du polynôme / (x), il reste le problème
de savoir de combien on doit resserrer l ’intervalle (a, 6) pour que
les extrémités a' et b' du nouvel intervalle soient des nombres
268 CALCUL DES ZERO S D ’U N POLY NÔM E [C H , IX

rationnels dont un nombre donné des premières décimales coïncide ;


ainsi, le zéro cherché sera calculé avec une précision donnée.
Il existe plusieurs méthodes permettant de calculer assez rapide­
ment et avec une précision donnée les valeurs approchées des zéros
d’un polynôme. Nous n ’en indiquerons que deux; ces méthodes
sont assez simples du point de vue théorique et, en même temps,
ont un caractère général; en outre, alternant ces deux méthodes
on obtient assez rapidement le résultat en vue. Il faut remarquer
que les méthodes qui seront exposées sont valables non seulement
pour les polynômes, mais aussi pour des classes plus générales de
fonctions continues.
Dans tout ce qui suit a est supposé être un zéro simple d ’un
polynôme / (x), car on peut toujours se débarrasser des zéros multi­
ples ; en outre, on suppose que le zéro a soit déjà séparé : a < a <C b ;
il en résulte, en particulier, que / (a) et f (b) sont de signes opposés.
Méthode d ’interpolation linéaire* On peut prendre comme va-
leur approchée du zéro a, par exemple, la moyenne arithmétique
^ i^ d e s nombres a et b encadrant a, c’est-à-dire le centre de l ’in­
tervalle dont les extrémités sont respectivement a et 6. Toutefois,
il est plus naturel de supposer que le zéro est situé plus près de l ’ex­
trémité où la valeur absolue du polynôme est plus petite. La méthode
d’interpolation linéaire consiste en ce qu’on choisit pour valeur
approchée du zéro a un nombre c tel qu’il divise l’intervalle (a, b)
en deux sous-intervalles dont les longueurs sont proportionnelles
aux valeurs absolues des nombres /(a) et / (fc), c’est-à-dire
c—* _ fia) .
b~c f(b)'

le signe moins dans le second membre est dû à ce fait que. f(a)


et f{b) sont de signes opposés. On en déduit
b f ( a ) ~ a f (b)
/<«)-/») -
Du point de vue géométrique, la méthode d’interpolation linéaire
signifie que l ’on remplace dans l ’intervalle (a, b) la courbe y —
— / (x) par la corde joignant les points (a, / (a)) et (6, f (b)) et que
l’on prend pour valeur approchée du Zéro a l’abscisse du point
d’intersection de cette corde avec l ’axe des abscisses (fig.'10).
Méthode de Newton* Le zéro a du polynôme / (x) étant simple,
on a f (a) =£ 0. Supposons, en outre, que /" (a) 0, car, dans le cas
contraire, nous aurions le même problème pour le polynôme /"(x)
qui est de degré inférieur à celui de / (x). Supposons encore que
l ’intervalle (a, 6) ne contienne pas de zéros de / (x) distincts de a.
§42] CALCUL APPROCHÉ DES ZÉROS 269

mais aussi aucun zéro des polynômes f (x) et /" (z) L Ainsi, il vient
du cours d’analyse que la courbe y = f (x) dans l ’intervalle (a, b)
croît ou décroît de façon monotone ; en outre, cette courbe est soit
convexe, soit concave dans tout, l’inter­
valle. Donc, la courbe y = f (x) peut se
comporter dans l ’intervalle (a, b) de
quatre manières différentes représentées
sur les figures 11-14.
Désignons par a0 l ’extrémité de l ’in­
tervalle (a} b) où les signes de f (x) et
de f" (x) coïncident. Les nombres f (a) et
f(b) ayant des signes contraires et f"(x)
conservant son signe pour a < x < b,
un tel nombre a0 peut être trouvé. Sur
les figures 11 et 14, on a : aQ = a, sur Fig. 10
les deux autres figures a0 — b. Menons
la tangente à la courbe y=f(x) au point d’abscisse a0, c’est-à-dire au
point (a0, / (a0)) ; soit d l ’abscisse du point d’intersection de la tangente

et de l’axe des abscisses. Les figures 11-14 montrent que le nombre d


peut être pris pour valeur approchée du zéro a. La méthode de
Newton est, donc, équivalente au procédé suivant: on remplace
dans l ’intervalle (a, b) la courbe y = f (x) par une tangente à cette
courbe passant par l ’un des points (a, f (a)) et (6, / (6)). La condition
imposée sur le choix du point est essentielle; en effet, la figure 15
montre que si cette condition n’est pas satisfaite, alors il peut arriver
que le point d’intersection de la tangente et de l’axe des abscisses
n’approche pas le zéro cherché.

1 Le resserrement de l ’intervalle qui nous conduit inévitablement à la


situation où ces conditions sont satisfaites peut être réalisé sans aucune peine,
car les méthodes exposées ci-dessus permettent de déterminer le nombre de zéros
des polynômes / ' (x) et f (x) dans tout intervalle.
270 CALCUL DES ZÉROS D'UN POLYNOME [CH. IX

Etablissons la formule qui donne le nombre d. On sait que


l’équation d’une tangente à la courbe y = f (x) en un point
(a0, f («„)) peut être mise sous la forme
y —f (ao) = /' («o) ( x — a0).
Remplaçant dans cette équation le point (x, y) par le point (d, 0),
point d’intersection de la tangente et de l ’axe des abscisses, il vient :
—f(ao) = f'(a0)(d — oo),
d’où l ’on a
d = a0 /(<»o) (2)
/'<«o) '
Traçant le segment joignant les points A et B sur les figures
11-14, le lecteur peut constater que la méthode d'interpolation linéaire

et celle de Newton donnent, dans tous les cas, deux valeurs approchées
du zéro a qui encadrent ce dernier. Ainsi, il est utile d'alterner

Fig. 15

ces deux méthodes, à condition, bien entendu, que le segment {a, b)


satisfasse aux conditions de la méthode de Newton. De cette manière
§ 421 CALCUL APPROCHÉ DES ZÉROS 271

nous resserrerons l’intervalle contenant le zéro a ; si les extrémités


c et d de cet intervalle ne donnent pas encore la précision désirée,
il faut alors appliquer encore une fois les deux méthodes indiquées
ci-dessus (fig. 16) à l’intervalle (c, d),
etc.; en outre, on peut démontrer
que ce processus itératif permet de
calculer la valeur approchée du
zéro a avec une précision arbitraire­
ment grande.
Appliquons ces deux méthodes au
polynôme
h (z) = z6 ~|- 2z4—5z3-|-8z2— 7x —3
considéré dans les paragraphes précédents.
On sait que ce polynôme a un zéro
simple compris entre les nombres i et
2 :1 < a 4 < 2. Il faut dire tout de suite
que cet intervalle est trop grand pour
que la méthode d*interpolation linéaire et celle de Newton, appliquées chacune
une fois, donnent un bon résultat. Appliquons-les quand même afin que nous
ayons au moins un exemple qui ne nécessite pas de calculs laborieux.
On a déjà vu au paragraphe précédent que les dérivées h* (z), hn (z), . . .
. , hY (z) ont des valeurs positives pour x = 1. Il en résulte, d ’après les résul­
tats du § 39, que la valeur x = 1 est une borne supérieure des zéros positifs
des polynômes hf (x) et hn (z). Donc, le segment (1, 2) ne contient pas de zéros
de ces dérivées et, par conséquent, la méthode de Newton peut être appliquée.
En outre, h" (z) est positif pour tout x appartenant à ce segment et, vu que
h (1) — —4, h ( 2) = 39,
on doit poser: a0 = 2. Etant donné que h ' {2) = 109, la formule (2) donne:
39 179
d — 2-
109 = 4™
109 =1.64
D’autre part, la formule (1) donne :

~ -4 -3 9 -- Ü - ! 09

et, par conséquent, le zéro ai est compris entre les limites


1,09 < a , <1,65.
Nous avons obtenu un resserrement de l’intervalle, contenant le zéro, qui
ne peut pas être considéré comme satisfaisant. Bien entendu, on pourrait appli­
quer de nouveau nos méthodes à l’intervalle obtenu. Toutefois, il est utile de
trouver dès le début deux nombres encadrant le zéro ai et tels que leur diffé­
rence soit, par exemple, inférieure à 0,1 ou même à 0,01, et appliquer ensuite
nos méthodes. Bien sûr, cela nécessitera des calculs laborieux, mais ils sont
inévitables lorsqu’on aborde des problèmes concrets où l ’on veut calculer les
zéros avec une bonne précision.
Revenons à notre polynôme h (z) et à son zéro aj. Le calcul des valeurs des
polynômes qui suit est donné par le procédé de Hôrner. Vu que
h (1,3) = —0,13987, h (1,31) =0,0662923851,
272 CALCUL DES ZÉROS D 'U N PO LY N Ô M E ECH. IX

on a
1,3 < a, <1,31,
c’est-à-dire nous avons calculé le zéro 04 avec une erreur inférieure à 0,01.
Appliquons maintenant à ce nouveau segment la méthode d’interpolation
linéaire :
t _ ^31. (—0,13987) —1,3 *0,0662923851 = 0,26940980063
—1,30678
0,13987—0,0662923851 0,2061623851
Appliquons à ce même intervalle la méthode de Newton, en posant
an =1,31. Vu que
h9 (1,31)=20,92822405,
on a
0,0662923851 27,3496811204
1,30683 . . .
20,92822405 20,92822405
Ainsi,
1,30678 < a t < 1,30684,
et, posant 04 = 1,30681, nous faisons une erreur inférieure à 0,00003.
Jusqu’ici nous n ’avons pas montré que les méthodes exposées
ci-dessus permettent de calculer un zéro avec une erreur arbitraire­
ment petite, c’est-à-dire nous n ’avons pas encore démontré la con­
vergence de ces méthodes. Démontrons-le au moins pour la méthode
de Newton.
Soit a un zéro simple d’un polynôme / (æ) dans un interval­
le (a, b) ; en outre, supposons que l ’intervalle (a, b) vérifie les conditions
de la méthode de Newton. En particulier, il en résulte l’existence
de deux nombres positifs A et B tels que l ’on ait pour tout x sur
le segment (a, 6) :
\f'{x)\>A, \f(x)\<B. (3)
Introduisons la notation

et supposons que
C (b-a)d. (4)
Pour satisfaire cette dernière inégalité il faudra, peut-être, resserrer
le segment (a, b) ; or, cela ne peut pas altérer les inégalités (3).
Soit a0 l’extrémité du segment (a, b) par laquelle il faut commencer
à appliquer la méthode de Newton. D’après la formule (2), nous
obtenons une suite de valeurs approchées, du zéro a, soit at1 a2> • • •
. . ahf . . .; tous les a* appartiennent au segment (a, b) et sont
liés entre eux par les égalités

Æfe —Gfc-1 / (a k - i ) fc = 1, 2, . . . (5)


f) ’
§ 42] CALCUL APPROCHÉ DES ZÉROS 273

Soit
a — ak Jr hhl k = 0, 1, 2, . . . (6)
Alors
0 = / (et) = / (a&) hkf (ûft) H— f* (ûft + Qhh),
où O < 0 < 1 . Vu que f'(ah) ^ 0 en vertu de la condition imposée
au segment (a, b), et compte tenu de (5) et de (6), il vient :
* 1 /'(«*+ e*o_*. i /<«*)
2 /'(**) ~ nh^ 1 '(a h) 7 ^ ) = “
On en déduit
f " (&h + Qhk) I ^ h * B — Chl k — 0 1 2
[^a+i I —hh 2 /' (ah) \< n k 2A ~ C t lh ' * - u f
Ainsi,
2h+1- i ,
| hk+i | < Ctiï < C3^ _ i < C7«_2 < . . . < C
ou encore, vu que | hQ\ = [a —a0| < b — a, on a
lA f t+ i K ^ M ^ ^ - a ) ] 2^ 1, ft = 0 , l , 2, . . . (7)
Il en* résulte, vu la condition (4), que la différence hh entre le zéro a
et sa valeur approchée ahy obtenue par Vapplication successive de la
méthode de Newton, tend vers zéro lorsque k tend vers l'infini, ce qu’il
fallait démontrer.
Notons que la formule (7) donne une estimation de l'erreur com­
mise pour la (k + l)ème itération de la méthode de Newton, ce qui
est essentiel si l’on applique uniquement cette méthode sans l ’alter­
ner avec celle d’interpolation linéaire.
Le lecteur trouvera dans les cours de calcul approché des procédés
de calcul plus rationnels, qui facilitent l ’application des méthodes
ci-dessus, ainsi que d’autres méthodes dont celle de Lobatchevski
(quelquefois, on l’appelle par erreur méthode de Graeffe). Cette
dernière méthode permet de calculer les valeurs approchées de tous
les zéros simultanément, y compris les zéros complexes; en outre,
elle n’exige pas, pour son application, la séparation des zéros;'
toutefois, cette méthode nécessite des calculs très laborieux. Elle
est basée sur la théorie des polynômes symétriques qui sera exposée
dans le chapitre XL
§ 43. Anneaux et champs numériques
Dans la plupart des chapitres précédents de notre cours, nous
nous sommes trouvés dans la situation où, pour exposer telle ou telle
théorie, nous nous placions soit dans le cas des nombres complexes,
soit seulement dans le cas des nombres réels; mais ensuite nous
étions obligés de noter que les résultats obtenus restaient vrais si
Ton se bornait aux nombres réels et, respectivement, qu’ils pouvaient
être généralisés au cas des nombres complexes. En outre, on aurait
pu remarquer que dans ces cas, les théories exposées étaient, en règle
générale, valables même si l ’on ne considérait que les nombres
rationnels. Il est temps de montrer au lecteur les raisons véritables
de ce parallélisme afin que nous puissions exposer ultérieurement
le matériel dans toute sa généralité, c’est-à-dire en utilisant le lan­
gage algébrique adapté à ce propos. A ce dessein, nous introduisons
d’abord la notion de champs ainsi qu’une notion encore plus générale,
mais qui joue un rôle auxiliaire dans notre cours, à savoir celle
d'anneau.
Il est clair que l’ensemble des nombres complexes, ceux des
nombres réels et des nombres rationnels, ainsi que l ’ensemble des
nombres entiers, jouissent d'une même propriété: dans chacun de ces
ensembles on peut non seulement additionner et multiplier les éléments,
mais aussi retrancher un élément d'un autre, la différence étant un
élément de l'ensemble considéré. Cette propriété fait distinguer ces
ensembles, par exemple, de l’ensemble des nombres entiers positifs
ou de celui des nombres réels positifs.
Tout ensemble numérique, complexe ou réel, qui contient la
somme, la différence et le produit de tout couple d’éléments, est
appelé anneau numérique. Ainsi, les ensembles des nombres entiers,
rationnels, réels et complexes forment chacun un anneau numérique.
D’autre part, aucun ensemble formé par des nombres positifs ne peut
être un anneau, car pour tout couple de nombres distincts a et b
de cet ensemble, soit la différence a — 6, soit la différence b — a
est négative. Aucun sous-ensemble de l’ensemble des nombres néga­
tifs ne saurait non plus être un anneau, ne serait-ce que parce que
le produit de deux nombres négatifs est un nombre positif.
§ 43] ANNEAUX ET CHAMPS NUMÉRIQUES 275

Les quatre exemples cités sont bien loin d ’épuiser tous les exemples
d’anneaux numériques. Nous allons donner encore quelques exem­
ples ; en outre, on laisse au lecteur le soin de vérifier que les ensem­
bles qu’on va considérer forment réellement des anneaux numé­
riques.
Les nombres pairs forment un anneau ; plus généralement,
pour tout entier positif rc, l ’ensemble des nombres entiers, positifs
et négatifs, divisibles par n, forme un anneau. Les nombres impairs
ne peuvent pas constituer un anneau, car la somme de deux nombres
impairs est un nombre pair.
Les nombres rationnels, dont les dénominateurs sont des puis­
sances de 2, forment un anneau (on suppose que la fraction qui
représente le nombre rationnel ne peut pas être simplifiée); en
particulier, les nombres entiers appartiennent à cet ensemble, car
on peut dire que les fractions qui les représentent ont pour dénomi­
nateur l’unité, c’est-à-dire 2 à la puissance zéro. On pourrait rempla­
cer, dans cet exemple, le nombre 2 par un nombre premier p . Plus
généralement, fixant un ensemble des nombres premiers (fini ou
infini) et considérant les nombres rationnels dont les dénominateurs
ne sont divisibles que par les nombres premiers appartenant à l’en­
semble fixé, nous obtenons un anneau. D’autre part, l ’ensemble
des nombres rationnels, dont les dénominateurs ne sont pas divisibles
par le carré de tout nombre premier, n’est pas un anneau, car la pro­
priété indiquée de ces nombres n ’est pas conservée après leur multi­
plication.
Passons aux exemples d’anneaux numériques dont les éléments
ne sont pas tous des nombres rationnels. L’ensemble des nombres
de la forme
a+ bV 2, (1)
où a et &sont rationnels, est un anneau ; cet anneau contient, comme
cas particulier, l’anneau des nombres rationnels (b = 0) et le nombre
Y 2 (fl = 0, & = 1)» En nous limitant aux coefficients a et b entiers
dans la formule (1), nous obtenons également un anneau. Bien
entendu, dans ces exemples on peut remplacer Y 2 par Y% ou bien
par Y 5, etc.
L’ensemble des nombres de la forme
«+ 6 ^ 2 (2)
à coefficients rationnels (ou entiers) a et b m’est pas un anneau, car
le produit du nombre y f 2 par lui-même ne peut pas être représenté
sous la forme (2), comme il est facile de vérifier L
1 En effet, soit
f l = a + bf2 , (2 ')
18*
276 CHAMPS ET POLYNOMES [CH. X

Toutefois, l’ensemble des nombres


a+ b ^ ï + c ^ l , (3)
avec a, b, c rationnels quelconques, est déjà un anneau; la même
chose est vraie si dans (3) a, b et c sont des entiers quelconques.
Considérons maintenant les nombres réels qui peuvent être
obtenus en appliquant plusieurs fois les opérations d’addition,
de multiplication et de soustraction au nombre n (bien connu du
lecteur) et aux nombres rationnels quelconques. Les nombres qui
s’en obtiennent peuvent être mis sous la forme
a0+ H- an^ n, (4)
avec a 0, ax, . . ., an rationnels et n entier, ti> 0. Notons qu’il
n’existe pas de nombres qui aient deux formes (4) distinctes, sinon,
retranchant l ’une de ces représentations de l’autre, nous obtiendrions
pour le nombre n une équation polynomiale à coefficients rationnels ;
or, utilisant les méthodes d’analyse on démontre que le nombre n
ne saurait pas satisfaire à une telle équation, c’est-à-dire que le
nombre jt est transcendant. Toutefois, on peut démontrer, sans
utiliser ce résultat, c’est-à-dire ne supposant pas l ’unicité de la
représentation (4), que les nombres (4) forment un anneau.
Les nombres que l ’on obtient des nombres rationnels et du nom­
bre n au moyen des opérations d ’addition, de multiplication, de
soustraction et de division, appliquées un certain nombre de fois,
forment également un anneau. Pour le démontrer il n’est pas besoin
de chercher une bonne écriture appropriée de ces nombres (bien qu’on
puisse la trouver), il suffit de remarquer que si les nombres a et p
sont obtenus du nombre n et des nombres rationnels au moyen des
opérations citées^ ci-dessus, il en est de même pour les nombres
a + p, a — (5, ap et y (avec p =£ 0).

avec a et b rationnels. Multipliant les deux membres par ÿ 2, il vient:


2=af2+bfZ>
Remplaçant lT4 par son expression (2') nous obtenons après quelques
simplifications évidentes Tégalité
(a+b*) f 2 = 2—ab. (2*)
Si a+fea =£ 0, alors
2 — ab .
f 2 - a+6* 5
or, cela est impossible, le second membre étant un nombre rationnel. Si, par
contre, a 4- 6* = 0, alors, selon (2"), on a également: 2 — ab = 0. Ces deux
égalités donnent: bz — —2, ce qui est impossible, car b est rationnel.
§ 43] ANNEAUX ET CHAMPS NUMÉRIQUES 277

Enfin, l ’ensemble des nombres complexes a + bi avec a et b


rationnels est un anneau ; le même résultat est vrai si nous prenons
a et &entiers.
Les exemples considérés ne sauraient pas donner une idée de la
grande diversité des anneaux numériques. Néanmoins, nous n ’allons
pas allonger la liste des exemples et ^passons à l’examen d ’un type
spécial mais très important d’anneaux numériques. On sait que la
division par un nombre non nul peut être réalisée dans les ensembles
des nombres rationnels, réels et complexes, tandis que dans l ’ensem­
ble des nombres entiers la division nous conduit à des éléments
n ’appartenant pas à cet ensemble. Jusqu’ici nous n’avions pas fait
attention à cette distinction; en réalité, elle est essentielle et nous
conduit à la définition suivante.
Un anneau numérique est dit champ numérique s’il contient le
quotient de tout couple de nombres qui lui appartiennent (bien
entendu, le diviseur est supposé non nul). Donc, on peut parler
des champs des nombres rationnels, réels et complexes, tandis que
l’anneau des nombres entiers n ’est pas un champ.
Certains anneaux considérés dans les exemples ci-dessus sont,
en réalité, des champs. D’abord, notons qu’il n ’existe pas de champs
numériques, sous-ensembles de l’ensemble des nombres rationnels
(l’ensemble formé par un élément nul n ’est pas considéré comme un
champ).
Une proposition encore plus générale est vraie:.
Tout champ numérique contient le champ des nombres rationnels.
En effet, soit un champ numérique que l ’on note par P. Si a est
un nombre non nul de P, alors P contient également le quotient de la
division de a par lui-même, c’est-à-dire le nombre un. Additionnant
le nombre un n fois, nous obtenons que les nombres entiers positifs
appartiennent à P. D’autre part, le champ P contient le zéro, de
sorte qu’il contient la'différence du zéro et de tout nombre entier
positif, c’est-à-dire les nombres entiers négatifs. Enfin, les quotients
de deux nombres entiers quelconques, c’est-à-dire les nombres
rationnels, sont également des éléments du champ P.
Le champ des nombres complexes contient une multitude de
sous-champs différents dont celui des nombres rationnels est le
plus petit. Ainsi, l ’anneau considéré ci-dessus formé par les nombres
de la forme
a + bV 2 (5)
avec a et b rationnels quelconques (et non seulement entiers) est un
champ. En effet, considérons le quotient de deux nombres de la
forme (5), soient a b V^2 et c d V ^ \ en outre, c + d 2 est
supposé différent de zéro. Par conséquent, le nombre c — d 2 est
278 CHAMPS ET POLYNÔMES [CH. X

également non nul, de sorte que


a + b V 2 _ (a + b Y 2) (c — d~|/2 ) _ ac —2bd bc —ad
~c + d ÿ 2 ” ( c - f d V 2) ( c - r f ] / 2 ) ~~ + c2 —2c?2'
Nous avons encore obtenu un nombre du type (5) avec des coeffi­
cients rationnels. Bien entendu, on peut remplacer dans cet exemple
le nombre Y 2 par une racine carrée de tout nombre rationnel, à con­
dition que cette racine carrée ne soit pas un élément du champ des
nombres rationnels. Ainsi, les nombres de la forme a + bi avec a et
b rationnels forment un champ.

§ 44. Anneau
Dans plusieurs branches des mathématiques, ainsi que dans les
applications des mathématiques en technique et aux sciences natu­
relles, on rencontre souvent des situations où les opérations algé­
briques sont appliquées non pas aux nombres, mais à des êtres de
nature toute différente. Un grand nombre d ’exemples de ce genre
se trouvent dans les chapitres précédents de ce livre ; il suffit de
rappeler la multiplication et l Taddition des matrices, l’addition
des vecteurs, les opérations sur les polynômes, ainsi que les opéra­
tions sur les applications linéaires. On donne ci-dessous la défini­
tion générale d ’une opération algébrique (qui est valable pour la
multiplication et l ’addition dans les anneaux numériques et pour
les opérations dans les exemples ci-dessus).
Soit un ensemble M qui se compose de nombres, ou bien d ’êtres
de nature géométrique, ou, plus généralement, d’êtres de nature
quelconque, appelés éléments de l ’ensemble M. Une opération algé­
brique est définie sur Vensemble M si à tout couple d’éléments a et b
de M on fait correspondre, d ’après une loi donnée, un élément c,
bien défini, de l’ensemble M . On peut appeler cette opération addi­
tion, alors l ’élément c est dit somme des éléments a et b et est noté :
c = a + b ; cette opération peut s ’appeler multiplication ; alors c
est dit produit des éléments a et b et est noté: c = ab; enfin, une
autre terminologie et d ’autres notations sont possibles pour intro­
duire cette opération sur l’ensemble M .
Sur chaque anneau numérique deux opérations indépendantes
sont définies — addition et multiplication. En ce qui concerne la
soustraction et la division, elles ne sauraient pas être considérées
comme des opérations indépendantes, car elles sont inverses, respec­
tivement, de l’addition et de la multiplication, à condition, évidem­
ment, que l’on admette la définition suivante de Vopération inverse.
Soit une opération algébrique définie sur l’ensemble M, par
exemple l’addition. On dit que cette opération possède une opération
inverse (ou encore qu’elle est inversible) dite soustraction si pour
§ 44] ANNEAU 279

tout couple d'éléments a et b il existe un élément unique d tel que


l'égalité suivante soit satisfaite: b + d — a. L'élément d, noté
d = a — fc, est dit différence des éléments a et b.
Il est clair que les deux opérations» l'addition et la multiplica­
tion» définies sur les champs, numériques» sont inversibles (il est
vrai que pour la multiplication on a une condition : le diviseur doit
être non nul). Dans les anneaux numériques qui ne sont pas des
champs (par exemple, l'anneau des nombres entiers) il n ’y a que
l'addition qui soit inversible.
D'autre part, deux opérations algébriques, l'addition et la mul­
tiplication, sont aussi définies sur l ’ensemble des polynômes d ’une
indéterminée x à coefficients dans un champ numérique P \ en outre,
l ’addition a pour opération inverse la soustraction.
On sait que l'addition et la multiplication, définies sur un anneau
numérique ou sur l ’ensemble des polynômes, jouissent des propriétés
suivantes (ici a, b, c sont des éléments quelconques de l'anneau
numérique donné ou de l’ensemble des polynômes considéré) :
I. L'addition est commutative: a + b = b + a.
IL L'addition est associative: a + {b + c) = (a + b) + c.
III. La multiplication est commutative: ab = ba.
IV. La multiplication est associative : a (bc) — (ab) c.
V. L’addition et la multiplication sont liées par la loi de
distributivité :
( a + & )c = a c + 6 c .
Nous sommes maintenant prêts à introduire la notion générale
d'anneau, qui est une des notions fondamentales de l ’algèbre.
Un ensemble R est appelé anneau si deux opérations indépendan­
tes, dites addition et multiplication, sont définies sur cet ensemble ;
ces opérations sont commutatives, associatives et liées l’une à l’autre
par la loi de distributivité; en outre, l’addition est inversible et a
pour opération inverse la soustraction.
Ainsi, les anneaux numériques et les anneaux des polynômes
d'une indéterminée x à coefficients dans un champ numérique donné
P (et même à coefficients dans un anneau numérique donné) sont
dès exemples concrets d’anneaux. Donnons encore un exemple
montrant toute la généralité de cette notion.
Le cours d ’analyse débute par l'introduction de la notion de
fonction d'une variable réelle x . Considérons l ’ensemble des fonctions
à valeurs réelles, définies pour toutes les valeurs réelles de la varia­
ble x ; définissons sur cet ensemble les opérations algébriques de la
manière suivante: la fonction, notée / (x) + g (x), est appelée somme
des fonctions f (x) et g (x) si pour tout x = x„ la valeur de cette
fonction est la somme des valeurs correspondantes des fonctions / (x)
et g (x), c’est-à-dire qu'elle est égale à la somme / (x0) + g (x0) ;
280 CHAMPS ET POLYNÔMES [CH. X

la fonction, notée / (x) g (x), est appelée produit des fonctions / (x)
et g (x) si pour tout x = x0 elle est égale au produit / (x0) -g (x0).
Il est clair que la somme et le produit existent pour tout couple de
fonctions de l’ensemble considéré. On vérifie sans peine que les
propriétés I-V sont satisfaites dans ce cas, car l ’addition et la mul­
tiplication des fonctions se réduisent aux opérations correspondantes-
sur leurs valeurs pour tout x fixé, c’est-à-dire aux opérations cor­
respondantes sur les nombres réels, pour lesquels les propriétés
I-V ont manifestement lieu. Enfin, définissant la différence de deux
fonctions / (x) et g (x) comme une fonction dont la valeur pour tout
x = x 0 est égale à la différence / (x0) — g (x0), nous sommes con­
duits à la définition de la soustraction, opération inverse de l ’addi­
tion. Ceci démontre que Vensemble des fonctions, définies pour tout
x réel, devient un anneau après Vintroduction sur cet ensemble des
opérations d'addition et de multiplication de la manière décrite ci-dessus.
On peut obtenir d’autres exemples d ’anneaux de fonctions, si
l’on conserve les définitions, données ci-dessus, des opérations sur
les fonctions et qu’on considère les fonctions définies, par exemple,
seulement pour x positifs, ou bien seulement pour x appartenant au
segment [0, 1]. Plus généralement, l ’ensemble des fonctions défi­
nies dans un domaine quelconque est un anneau. On peut obtenir
d ’autres exemples d ’anneaux, en ne considérant que les fonctions
définies* et continues dans un domaine, ces fonctions faisant l’objet
d’étude du cours d’analyse. On pourrait, d’autre part, considérer
les fonctions à valeurs complexes d ’une variable complexe. En
général, il existe de nombreux anneaux différents dont les éléments
sont des fonctions ou des nombres.
Passons maintenant à l ’étude des propriétés les plus simples
des anneaux, qui découlent directement de leur définition. Dans le
cas des nombres le lecteur s’est déjà familiarisé avec ces propriétés,
mais il sera peut-être surpris de constater qu’elles résultent unique­
ment des propriétés I-V et de l’existence de la soustraction bien
définie.
D’abord, quelques remarques sur la signification des conditions
I-V. Le rôle de la commutativité n ’a pas besoin d ’être expliqué.
La signification de Y associativité est la suivante: on définit les
opérations algébriques, somme et produit, seulement pour un
couple d’éléments. Essayant de définir, par exemple, le produit
de trois éléments a, 6, c, nous nous heurtons au problème suivant:
les produits a*u et v*c, avec bc = u et ab = v, peuvent, dans
le cas général, être différents, c’est-à-dire il peut arriver que
a (bc) =?£ (ab) c. La loi d’associativité exige que ces deux produits
soient égaux à tin même élément de l ’anneau ; il est naturel de consi­
dérer cet élément comme le produit abc, écrit sans parenthèses. En
plus, Y associativité permet de définir d'une façon unique le produit
§ 44] ANNEAU 281

(respectivement la somme) d'un nombre fini quelconque d'éléments


d'un anneau, c’est-à-dire elle permet de démontrer que le produit
de n éléments ne dépend pas de la manière dont on a mis, dès le dé­
but, les parenthèses.
Démontrons cette proposition par récurrence sur rc. Pour n = 3 elle est déjà
démontrée ; soit n > 3 et faisons l ’hypothèse de récurrence selon laquelle pour
tout nombre de facteurs inférieur à n notre proposition soit vraie. Soient n élé­
ments au <t2» « • », an ; supposons qu’on ait mis les parenthèses d ’une manièro-
quelconque indiquant l’ordre des multiplications que nous avons à effectuer.
Le dernier pas est la multiplication du produit des k premiers éléments a . •*
... (avec 1 <1 k n — 1) par le produit aft+1ûk+ 2 • • • a*. Ces produits
ayant des facteurs en nombre inférieur à n, ils sont bien définis, d’après l ’hypo­
thèse de récurrence ; alors il nous reste seulement à démontrer l’égalité
(a la 2 « • • ah) (ak+iak+2 - * • an) —
= ( a ^ . . . a t) (ai+la î+ 2 . . . a n)
pour tous les entiers /: et i (1 < fc, J < > ). 11 suffit, pour cela, de considérer
le cas 1= h + 1.
Or, posant dans ce cas
aia2 . . . ah —à, ah+2ah+3 . . . an = c,
nous obtenons, en vertu de l ’associativité, l ’égalité
à (^h+tc) — (bak+l) c.

Ceci démontre notre proposition.


En particulier, on peut parler du produit de n éléments égaux
à un même élément, c’est-à-dire on peut introduire la notion de
puissance wème d’un élément a, où n est un entier positif. Il est facile
de vérifier que dans chaque anneau les règles ordinaires sont vala­
bles pour les opérations sur les puissances. Soit a un élément d’un
anneau ; alors l’associativité de l ’addition conduit de la même
manière à la notion de multiples de l ’élément a : na, où n est un coef­
ficient entier positif.
La loi de distributivité, c’est-à-dire la règle qui consiste à ouvrir
les parenthèses, est l’unique restriction dans la définition des anneaux
qui établit le rapport entre l’addition et la multiplication;
c’est uniquement grâce à cette loi que l ’étude commune de ces deux
opérations est plus fructueuse que leur étude séparée. Dans T énoncé-
de la loi de distributivité la somme ne comprend que deux termes.
Toutefois, on démontre facilement que pour tout k l’égalité suivante
a lieu
(ay -f- 4- . . . -f- a^) b —atb -)- a^b + . . . + cthb
et on en déduit la règle générale de multiplication de deux sommes.
Quel que soit Vanneau, la loi de distributivité a également lieu pour
la différence. En effet, d ’après la définition de la différence, Télé-
282 CHAMPS ET POLYNÔMES [CH. X

ment a — b vérifie l'égalité


b + (a —•b) = a.
Multipliant les deux membres de cette égalité par c et appliquant
au premier membre la loi de distributivité, nous obtenons :
bc-\-(a — b)c = ae.
Donc, l ’élément (a — b)c est la différence des éléments ac et bc :
{a — b)c~ac — bc.
Des propriétés assez importantes des anneaux peuvent être
établies grâce à l’opération de soustraction. Si a est un élément d ’un
anneau /?, alors la différence a — a est un élément bien déterminé
de cet anneau. Son rôle est analogue à celui de l’élément nul dans
les anneaux numériques; cependant cet élément, comme on le voit
de sa définition, peut dépendre du choix de l’élément a, c’est pour­
quoi nous le notons par 0a.
Montrons qu’en réalité les éléments 0o coïncident pour tous les a.
En effet, soit b un élément de l ’anneau R ; ajoutant l ’élément 0a aux
deux membres de l ’égalité
a + (b — a) = b
et utilisant la relation 0a-\-a — a. il vient
b —0a -f- CL-{- (6 —(l) — €L-\-{b — —b.
Ainsi, Qa = b — b — 0fc.
Nous avons démontré que tout anneau R possédé un élément bien
défini, tel que la somme de cet élément et d'un élément quelconque a de R
est égale à Vélément a. Cet élément, noté 0, est appelé élément nul
de l ’anneau R ; il n’y a pas de danger sérieux de le confondre avec
le nombre zéro. Ainsi,
a + 0 = a pour tout a de R .
Ensuite, tout élément a d'un anneau possède un élément opposé
bien défini, noté —a, qui vérifie l'égalité
a + ( —a) = 0,
à savoir l ’élément opposé à a est défini par la formule: —a =
= 0 — a\ l ’unicité de l ’élément opposé découle de l’unicité de la
différence. Il est clair que — (—a) = a. Maintenant la différence
b — a de deux éléments d ’un anneau peut être récrite sous la
forme
fc—a —
En effet,
+ ( —<*)] + fl = &+[( —fl) + fl] = b + 0 = &.
§ 44] ANNEAU 283

Pour tout élément a d'un anneau et pour tout entier positif n on


a l'égalité
n( — a)= —(na).
En effet, groupant les termes il vient :
na + n ( —a) = n [a + ( —a)] = n ■0 = 0.
Maintenant nous avons la possibilité de définir les multiples
négatifs de tout élément a d'un anneau: pour n > 0 ce sont les
éléments égaux n (—a) et — {na), que nous désignerons par (—n) a.
Enfin, convenons de considérer comme multiple d'un élément a avec
le coefficient nul, soit 0-a, l ’élément nul de l ’anneau donné.
La définition de l ’élément nul est donnée au moyen de l’addition
et de son opération inverse, c’est-à-dire sans utiliser la multiplica­
tion. Or, dans le cas de la multiplication des nombres, le zéro jouit
d ’une propriété très importante. Il se révèle que cette même pro­
priété est propre à l ’élément nul de tout anneau, notamment dans
chaque anneau le produit de l'élément nul et d'un élément quelconque
de cet anneau est Vélément nul. La démonstration découle directement
de la loi de distributivité: soit a un élément d ’un anneau R; alors,
quel que soit l ’élément auxiliaire x de R, on a
a'0 — a(x —x) — ax —a x ~ 0.
Utilisant cette propriété de l ’élément nul on peut démontrer que
pour tout couple d'éléments a et b d'un anneau l'égalité suivante
est vraie :
{ — a) b= — ab.
En effet,
ab + ( —a) b = [a + ( — a)J b = 0 •b = 0.
Il s’ensuit que la règle (bien connue, quoique mystérieuse) de
multiplication des nombres négatifs : « moins multiplié par moins
donne plus », est une conséquence directe de la définition des an­
neaux ; autrement dit, pour tout couple d'éléments a et b d'un anneau
on a l'égalité
( —a) ( —b) — ab.
En effet,
(~~a)( — b)— — [a ( —6)] = — ( —ab) = ab.
Maintenant le lecteur n ’aura aucune peine à démontrer que les
règles ordinaires sont valables pour les opérations sur les multiples,
positifs et négatifs, de tout élément d’un anneau.
Ainsi, les opérations algébriques sur un anneau jouissent d’un
grand nombre de propriétés auxquelles nous sommes déjà habitués
dans le cas des opérations analogues sur les nombres. Toutefois, il
284 CHAMPS ET POLYNOMES [CH. X

ne faut pas croire que toute propriété de l’addition ou de la multi­


plication des nombres est conservée dans un anneau. Ainsi, la mul­
tiplication des nombres possède une propriété réciproque à celle
citée ci-dessus : si le produit de deux nombres est nul, alors Vun des
facteurs est nul. Or, cette propriété ne saurait pas être généralisée
au cas d’un anneau quelconque, car il existe des anneaux dans les­
quels il y a des couples d’éléments tels que leur produit est l’élé­
ment nul, tandis qu’aucun facteur ne l ’est, c’est-à-dire a 0, b
0, mais ab = 0 ; ces éléments sont dits diviseurs de zéro.
Bien entendu, il n ’existe pas d ’anneaux numériques ayant
des diviseurs de zéro. Les anneaux des polynômes à coefficients
numériques n ’en possèdent pas non plus. Remarquons d’abord que
l’élément nul dans un anneau de fonctions est la fonction identique­
ment nulle en x . Maintenant, soient deux fonctions / (x) et g (x),
définies pour toute valeur réelle de x par les égalités:
/(x)~0 pour x < 0 , f(x) = x pour x>0;
g(x) = x pour x < 0 , g (x) =5 0 pour x>0.
Les deux fonctions sont différentes de l ’élément nul de l ’anneau
considéré car elles ne sont pas identiquement nulles ; toutefois leur
produit est égal à l ’élément nul.
Ce n’est pas toutes les conditions I-V qui sont, dans une mesure égale,
nécessaires pour la définition d ’un anneau. Le développement des mathémati­
ques montre que les propriétés I et II de l ’addition et la loi de distributivité V
ont lieu dans tous les exemples, mais qu’il n’en est pas de même pour les condi­
tions III et IV de la multiplication qui sont trop gênantes et limitent le domaine
d ’application de la notion d ’anneau. Ainsi, l’ensemble des matrices carrées
d ’ordre n à éléments réels, muni des opérations d ’addition et de multiplication
des matrices, vérifie toutes les conditions de la définition d’un anneau, excepté
la loi de commutativité de la multiplication. On rencontre une multiplication
non commutative si souvent et dans des cas tellement importants que, actuelle­
ment, la notion d’anneau signifie, en règle générale, un anneau non commutatif
(plus précisément, un anneau n ’est pas forcément muni de la multiplication
commutative), tandis qu’on appelle anneaux commutatifs le type spécial d ’an-
neaux où la condition III est vérifiée.
Dernièrement, les anneaux à multiplication non associative ont suscité
un grand intérêt, de sorte que la théorie générale des anneaux se développe, à
présent, comme une théorie non associative des anneaux (c’est-à-dire la multi­
plication n’est plus forcément associative). Le plus simple exemple d’anneaux
de ce genre est l ’ensemble des vecteurs d’un espace euclidien à trois dimensions
muni de l ’addition ordinaire et de la multiplication vectorielle, connue du
lecteur du cours de géométrie analytique.

§ 45. Champ
De même que nous avons dégagé et appelé champs numériques
les anneaux numériques dans lesquels on peut effectuer la division
par les éléments non nuis, il est naturel d’introduire de cette manière
§ 45] CHAMP 285

la notion de champ dans le cas général. Notons d'abord que, en


vertu de la propriété de l’élément nui par rapport à la multiplica­
tion, il n'existe pas d'anneaux oh l'on puisse diviser par l'élément nul ;
en effet, diviser un élément a par l’élément nul, c’est trouver un
élément x tel que 0-x = a; or, cette égalité est impossible si a ^ 0,
le premier membre étant égal à l’élément nul.
Introduisons la définition suivante:
Un anneau P est appelé champ s’il contient d ’autres éléments que
l ’élément nul et si on peut diviser tout élément de P par l’élément
non nul, le résultat de la division étant bien défini, c’est-à-dire si
pour deux éléments a et b de P, où b est non nul, il existe dans P
un élément unique q tel que l ’égalité bq — a soit satisfaite. L’élé­
ment q est dit quotient de la division de a par b et il est noté q = ~ 1.
Bien entendu, les champs numériques sont des exemples de
champs. L’anneau des polynômes d ’une indéterminée x à coefficients
réels ou, plus généralement, à coefficients appartenant à un champ
numérique donné, n ’est pas un champ, car la division des polynômes
avec reste n ’est pas la même chose que la division exacte, imposée
dans la définition d’un champ. D’autre part, il est facile de voir
que Y ensemble des fractions rationnelles à coefficients réels (cf. § 25)
est un champ contenant l ’anneau des polynômes, tout comme le
champ des nombres rationnels contient l ’anneau des nombres entiers.
En partant des anneaux de fonctions on peut indiquer d ’autres
exemples de champs ; nous ne les donnerons pas ici et passerons à des
exemples de tout autre nature.
Les anneaux numériques, ainsi que tous les anneaux que nous
avons considérés jusqu’ici, contenaient une infinité d’éléments.
Mais il existe des anneaux, voire des champs, composés d’un nombre
fini d’éléments. Les plus simples exemples d 'anneaux et de champs
finis, utilisés par une branche spéciale des mathématiques, la théorie
des nombres, peuvent être construits de la manière suivante.
Soit un nombre entier positif n différent de l’unité. Deux nombres
entiers positifs a et &sont dits équivalents modulo rc,
a s 2 b(modra),
si la division de ces nombres par n donne le même reste ou, encore,
si leur différence est divisible par n . Alors l ’anneau des nombres
entiers est la réunion de n classes résiduelles modulo n disjointes:
C0, 1» (1)

1 L’unicité du quotient ainsi que celle de la différence, supposée ci-dessus


dans la définition d’un anneau, peuvent être aisément établies en partant d’autres
conditions de la définition d’un champ (respectivement d ’un anneau).
286 CHAMPS ET POLYNÔMES [CH. X.

où la classe Ck est l'ensemble des nombres entiers qui, divisés par rc,
donnent pour reste le nombre k, k = 0, 1, * . n — 1. Il s'avère
qu’on peut définir de façon naturelle l ’addition et la multiplication
des classes (1).
Pour cela choisissons deux classes quelconques C* et C t (pas
forcément distinctes) de l ’ensemble (1). Additionnant un nombre de
Ck et un nombre de Ch nous obtenons un nombre appartenant à
une classe bien déterminée, à savoir à la classe C ^ i si k + l < n,
ou bien à la classe Ck+i-n si k + l ;> n. Cela nous conduit à la
définition suivante de Vaddition des classes:
Ch + Ci = Ch+i si k + 1< rc,
Ck -h Ci = Ck+i-n si &+
D’autre part, en multipliant un nombre de la classe Ck par un nombre
de la classe Ctl nous obtenons un nombre qui appartient à une classe
bien déterminée, à savoir à la classe Cr, où r est le reste de la divi­
sion de kl par n. Nous adoptons, donc, la définition suivante pour la
multiplication des classes :
Ch-C( =^Cr avec kl = nq + r, 0< r< rc . (3)
L'ensemble (1) des classes de nombres entiers équivalents modulo n
muni des opérations (2) et (3) forme un anneau. En effet, les condi­
tions I-V de la définition d ’un anneau sont satisfaites, ce qu’on peut
vérifier directement ; mais il faut mentionner que ces conditions
découlent également des propriétés analogues de l ’anneau des nom­
bres entiers et du lien établi ci-dessus entre les opérations sur les
nombres entiers et celles sur les classes Ch• Il est clair que la classe
C0, composée des nombres entiers divisibles par n, joue le rôle de
l’élément nul. Une classe C* a pour opposée la classe k =
« 1, 2, . . n — 1, Par conséquent, on peut définir la soustraction
des classes de l’ensemble (1), c’est-à-dire cet ensemble vérifie toutes
les conditions de la définition d’un anneau. Convenons de désigner
cet anneau par Zn.
Si Ventier n n'est pas un nombre premier, Vanneau Zn possède
des diviseurs de zéro (on montrera plus tard que, pour cette raison,
Zn ne peut pas être un champ). En effet, si n = kl avec 1 < k < n,
1 < l < n, les classes non nulles Ch et Ch en vertu de la défini­
tion (3), donnent après leur multiplication la classe nulle C0 : CkC \^
= C„.
i%i Ventier n est un nombre premier, alors Vanneau Zn est un champ.
En effet, soient deux classes C* et Cm, où C* =£= C0, c’est-à-dire
1 ^ k ^ n — 1. Il faut montrer que la classe Cm peut être divisée
par la classe Ch, c’est-à-dire il faut trouver une classe Ct telle que
l’on ait: Ch-C( — Cm. Si Cm — C0, alors Ct = C„.
§ 45] CHAMP 287

Supposons que Cm C0 et considérons l’ensemble des entiers


k 7 2ky 3fc, . . . , (n — l ) k . (4>
Aucun de ces nombres n ’appartient à la classe C0, le produit de deux
entiers ne pouvant pas être divisible par un nombre premier si cha­
que facteur est inférieur au diviseur. Puis, deux nombres sk et tk,
s < t y de l'ensemble (4) appartiennent a des classes distinctes, car
leur différence
tk — sk — (t—s) k
ne peut pas être divisible par n, le nombre n étant premier. Ainsi,
toute classe non nulle contient exactement un élément de l’ensemble
(4). En particulier, la classe Cm contient le nombre Mc, où 1 ^ l ^
n — 1, ce qui signifie que Cr CA = Cmi c’est-à-dire la classe Ci
est le quotient cherché de la division de Cm par C*.
Ainsi, nous obtenons une infinité de champs finis différents:
le champ Zz (composé seulement de deux éléments), les champs
Z SJ Zfi, Z7, Z u. etC.
Passons à l ’étude de certaines propriétés des çhampsy qui découlent
de l’existence de la division. Elles sont analogues aux propriétés
correspondantes des anneaux qui résultent de l ’existence de la sous­
traction et peuvent être démontrées par les mêmes raisonnements,
de sorte que nous laissons au lecteur le soin de les vérifier.
Tout champ P possède un élément unique qui, multiplié par tout
élément a de P , donne Vélément a. Cet élément, noté 1 et égal à tous
les quotients ~ , avec a non nul, est dit élément unité (ou unité tout
court) du champ P. Ainsi, on a
a pour tout a de P,
Pour tout élément a non nul il existe dans un champ P un élément
inverse bien définie noté a”1, qui vérifie Végalité
a<a~l = 1 ;
notamment, = — . Il est clair que (a-1)"1~ a. A présent, le
quotient -j- peut être récrit sous la forme

Pour tout élément a non nul et pour tout entier positif n


l ’égalité
(a-1)n = (an)-1
a lieu. Désignant par a~n ces deux éléments égaux, nous sommes con­
duits à la définition des puissances d'exposants entiers négatifs d'un
288 CHAMPS ET POLYNÔMES £c h . X

élément non nul d’un champ; en outre, les règles ordinaires d ’opé­
rations sur les puissances sont valables. Enfin, posons pour tout
a : a0 = 1.
L’existence d’une unité n ’est pas une propriété caractéristique
des champs, l’anneau des nombres entiers, par exemple, en possédant
une également. D’autre part, l ’exemple fourni par l ’anneatf des nom­
bres pairs montre que ce n ’est pas tous les anneaux qui ont une
unité. Mais, tout anneau possédant une unité et contenant avec un élé­
ment a non nul son inverse a -1 est un champ. En effet, dans ce cas le
quotient , a ^ 0, est défini par la formule : — = ta " 1. L’unicité de
ce quotient se démontre facilement.
Remarquons que dans un champ il n'existe pas de diviseurs de zéro.
En effet, supposons le contraire: ab = 0, mais a^= 0. Multipliant
les deux membres de cette égalité par l ’élément dT1, nous obtenons
dans le premier membre: {a^a) b = 1 •■b = 6, et dans le second:
a~l -0 == 0, c’est-à-dire b = 0. Il en résulte que dans un champ toute
égalité peut être simplifiée en la divisant par le facteur commun non nul.
En effet, soit ac — bc avec c =£ 0; alors (a — b) c — 0, d ’où l’on
a a — b = 0 ou encore a = b.
On déduit aisément de la définition d’un quotient y (6 0) et
de la formule-^ — établie ci-dessus, que les règles ordinaires
d'opérations sur les fractions sont conservées dans un champ, notamment,

b
= a
si et seulement si ad = hc\
a t c a d ± bc
~b± ~d'^ b d ~ ’
a c ac . #
~b"d= J d '
—a a
~~b ’

Caractéristique d ’un champ* Ce n ’est pas toutes les propriétés


des champs numériques qui sont conservées dans un champ quelcon­
que. Ainsi, additionnant le nombre 1 un certain nombre de fois,
c’est-à-dire formant les multiples du nombre 1 avec les coefficients
entiers positifs, nous n ’obtenons jamais zéro; en outre, tous ces
multiples, qui constituent l ’ensemble des nombres entiers positifs,
sont des éléments distincts. Or, les multiples positifs de l ’unité
dans un champ fini ne peuvent pas être tous distincts, car il n’y
a qu’un nombre fini d’éléments dans le champ considéré. Si un
champ P est tel que tous les multiples de l ’unité sont des éléments
distincts de P, c’est-à-dire A:•1 ^ Z*1 pour k =£ Z, alors P est dit
§ 45] CHAMP 289

champ de caractéristique nulle ; tels sont, par exemple, tous les champs
numériques. Si, par contre, il existe deux entiers k et l tels que
k > l , mais k -1 = h 1 dans P, alors (k — Z)*l = 0 , c’est-à-dire
il existe dans P un multiple positif de l ’unité qui est égal à l’élé­
ment nul de P . Dans ce cas P est dit champ de caractéristique finie,
notamment, de caractéristique p si p est le premier coefficient entier
positif tel que p l = 0 dans P . Les champs finis sont des exemples
de champs de caractéristique finie ; il existe, d’ailleurs, des champs
infinis ayant la caractéristique finie.
Si un champ P est de caractéristique p, alors p est un nombre
premier.
En effet, supposant que p = st avec s < p, t <C p, nous serions
conduits à l ’égalité (s-1) (£-1) = p-1 = 0 , ou encore, vu que dans
un champ il n ’existe pas de diviseurs de zéro, on aurait soit l ’éga­
lité s-l = 0 , soit l’égalité t*i = 0, ce qui est en contradiction avec
la définition d’une caractéristique en tant que plus petit coefficient
entier positif, qui, multiplié par l ’unité, donne l’élément nul.
Si p est la caractéristique d'un champ P, alors pour tout élément
a de P on a l'égalité : pa = 0. Si la caractéristique d'un champ P est
nulle, alors pour tout élément a de P et pour tout entier n les inégalités
a 0 et n 0 entraînent : na 0.
En effet, dans le premier cas l ’élément pa, somme de p termes
égaux à a, peut être représenté, en mettant a en facteur, sous la
forme
pa = a (p• 1) = æ•0 = 0.
Dans le second cas, l ’égalité na — 0 ou, encore, a (rc*l) = 0 aurait
pour conséquence l’égalité n* 1 = 0, car a^= 0; la caractéristique
du champ P étant nulle, il en résulterait que n = 0.
Sous-champs, extensions. Supposons qu’un sous-ensemble P '
de l’ensemble des éléments d’un champ P soit, lui aussi, un champ
par rapport aux opérations définies dans le champ P, c’est-à-dire
que pour tout couple d’éléments a et b de P ', les éléments a + b,
ab, a — b et y (avec b ^ 0), qui appartiennent au champ P, soient,
en même temps, des éléments de P' (les conditions I-V étant satis­
faites dans P, elles sont également vraies pour P'). Alors, P ' est dit
sous-champ du champ P, tandis que P s’appelle extension du champ
P '. Bien entendu, l’élément nul et l ’unité du champ P appartiennent
également à P ' et sont, respectivement, l’élément nul et l ’unité
de P '. Ainsi, le champ des nombres rationnels est un sous-champ
du champ des nombres réels ; tout champ numérique est un sous-
champ des nombres complexes.
Soient P ' un sous-champ d ’un champ P et c un élément de P
qui n’appartient pas à P ' ; supposons que nous ayons trouvé un sous-
290 CHAMPS ET POLYNÔMES [CH. X

champ minimal P" de P contenant P' et c. Un tel sous-champ mini­


mal est défini de façon unique, car s'il existait encore un sous-champ
Pm ayant ces propriétés, alors l'intersection des sous-champs P'r
et P m (c’est-à-dire la partie commune de ces sous-champs) contien­
drait P' et l’élément c ; en outre, pour tout couple d’éléments de
l ’intersection, la somme, le produit, la différence et le quotient étant
des éléments de P” et de P“\ ils appartiendraient également à
l’intersection de P" et de P /"; autrement dit, cette intersection
serait, elle aussi, un sous-champ, ce qui contredit l’hypothèse que le
sous-champ P" est minimal. Nous dirons que le champ P" est obtenu
par adjonction de Vélément c au champ P* et nous utiliserons la nota­
tion P ” = P' (c).
Il est clair que le champ P f (c) contient, outre c et le champ P r.
tous les éléments qui s’en obtiennent au moyen des opérations d’addi­
tion, de multiplication, de soustraction et de division. Le champ
numérique composé des éléments de la forme a + b Ÿ 2 avec a et
b rationnels (ce champ a été considéré au § 43) donne un exemple
d ’extension du champ des nombres rationnels qui s’obtient en
adjoignant à ce dernier le nombre Y 2,

§ 46*. Isomorphisme des anneaux (des champs). Unicité du champ


des nombres complexes
Dans la théorie des anneaux la notion d’isomorphisme joue un
rôle très important. Notamment, deux anneaux Z et Z'sont dits
isomorphes s’il existe une application bijective entre les éléments
de Z et L' telle que pour tout couple d ’éléments a et b de L (dont
les images dans V sont respectivement a' et b’) l ’image de la somme
a + b et celle du produit ab sont respectivement a7 + br et a'b\
Supposons que les anneaux L et V soient isomorphes. Alors,
V isomorphisme fait correspondre à Vélément nul 0 de L Vélément nul
0' de L \ En effet, soit cf l’image de 0 dans L \ Soient a un élément
de Z et a9 son image dans Z'. Alors, à l ’élément a + 0 correspond
l’élément af + c' ; or, a + 0 = a, de sorte que a' + c' = a \ d ’où
c' = 0'. Ensuite Vélément — a a pour image Vélément —a\ En
effet, soit d' l ’image de —a. Alors, à l ’élément a + (—a) = 0 cor­
respond l ’élément a' + d \ c’est-à-dire af + d' = 0', d ’où on a:
d' = —a '. Il en résulte que la différence de deux éléments de L a pour
image par isomorphisme la différence des images de ces éléments. Des
raisonnements analogues montrent que si un anneau L possède une
unité, alors l ’image de l ’unité par isomorphisme est l’unité de
l’anneau L' de même que si un élément a de Z est inversible, soit
a '1 son inverse, alors l ’image de a '1, par isomorphisme entre Z et
Z', est l ’inverse de l ’élément a', image de a.
§ 46] ISOMORPHISME DES ANNEAUX (DES CHAMPS) 291

Il en résulte qu’un anneau isomorphe à un champ est lui-même


un champ. Il est aussi facile de voir que si un anneau n’a pas de
diviseurs de zéro, alors cette propriété est conservée par isomor­
phisme. Plus généralement, deux anneaux isomorphes peuvent avoir
des éléments de nature différente, mais ils sont identiques du point
de vue de leurs propriétés algébriques ; tout théorème vrai pour
un anneau l ’est également pour tout anneau isomorphe, à condition
que la démonstration de ce théorème n ’utilisé que les propriétés
des opérations algébriques sur l ’anneau et non les propriétés intrin­
sèques des éléments. Pour cette raison nous ne ferons pas de distinction
entre les anneaux et les champs isomorphes ; ils seront des réalisations
concrètes d’un même anneau ou d’un même champ.
Appliquons cette notion au problème de construction du champ
des nombres complexes. La méthode d ’introduction du champ des
nombres complexes- exposée au § 17, qui est basée sur l ’utilisation
des points d’un plan, n’est pas la seule possible. Au lieu des points
on aurait pu utiliser les mêmes formules (2) et (3) du § 17 pour défi­
nir l’addition et la multiplication des vecteurs. D’ailleurs, nous
aurions pu renoncer tout à fait au point de vue géométrique ; remar­
quant que les points et les vecteurs d ’un plan sont donnés par des
couples ordonnés de nombres réels (a, b), nouis aurions pu munir
l’ensemble de ces couples ordonnés de l ’addition et de la multipli­
cation conformément aux formules (2) et (3) du § 17.
En réalité, tous ces champs seraient identiques du point de vue
de leurs propriétés algébriques comme le démontre le théorème
suivant :
Toutes les extensions du champ des nombres réels D , qui s'obtiennent
par adjonction d'une racine de l'équation
*2+ l - 0 , (1)
au champ D sont isomorphes.
En effet, soit un champ P , extension du champ Z>, qui contient
un élément satisfaisant à l ’équation (1). Le choix de la ^notation
pour cet élément ne dépend que de nous, et nous utiliserons pour
cela la lettre i. Ainsi, nous avons l ’égalité: i2 + 1 = 0 (d’où i2 =
= —-1), les puissances et les sommes devant être interprétées du.
point de vue des opérations définies sur le champ P. Nous voulons
trouver le champ D (i) qui s’obtient par adjonction de l ’élément i
au champ D , c’est-à-dire nous nous proposons de trouver le sous-
champ minimal du champ P contenant le champ D et l ’élément i.
A ce dessein considérons les éléments a du champ P qui peuvent
être mis sous la forme
a = a + bi, (2)
avec a et b réels : ici le produit du nombre b et de l ’élément i, ainsi
que la somme du nombre a et de ce produit doivent être interprétés
292 CHAMPS ET POLYNÔMES [CH, X

du point de vue des opérations dans P . Aucun élément a du champ


P ne peut avoir deux écritures distinctes (2) ; en effet, si Ton avait

avec b^=bt il en découlerait que

c'est-à-dire le nombre i serait réel ; or, si b = b, alors on a a = a.


L'ensemble des éléments du champ P ayant la forme (2) contient, en
particulier, tous les nombres réels (b = 0) et l ’élément i (a = 0*
b = 1).’
Montrons que Y ensemble des éléments qui s'écrivent sous la for­
me (2) est un sous-champ du champ P ; ce sous-champ est le champ
cherché D (i). Soient deux éléments a = a + bi et p = c + di.
Alors, tenant compte de la commutativité et de l ’associativité de
l ’addition et de la loi de distributivité qui ont lieu dans le champ P,
nous obtenons:
oc -{- P = {a -|- bi) -f- (c -f- di) = {a -f- c) -f- (bi -f- di),
d ’où
a + p ~ (a + c) + (6 + f > (3)
c^est-à-dire cette somme appartient encore à l ’ensemble considéré.
Ensuite, on a
—p = ( —c) + ( —d )i,
car, d’après (3), nous avons dans ce cas l ’égalité: P + ( —P) = 0-f-
4-CM —0 ; ainsi,
a —p = a + ( —P) = (a —c) + (ù —d) i, (3')
c’est-à-dire la différence de deux éléments de l ’ensemble considéré
est encore un élément de cet ensemble. Utilisant de nouveau les
propriétés I-V qui sont satisfaites pour les opérations dans le champ
P (cf. § 44) et tenant compte de l ’égalité i2 = —1, il vient:
ccp= (a-\-bi) (c + di) = ac-\- adi + bci-\-bdi2>
bu, encore,
ap = (ac —bd) + (ad + bc) i ; (4)
ainsi, le produit de tout couple d ’éléments de la forme (2) est encore
un élément de la même forme. Enfin, supposons que p ^ 0 , c’est-à-
dire que soit c 0, soit d ^ 0. Alors, il en est de même pour c —
— di : c — di 0 ; on a :
(c + di) (c —di) = c2—(di)2= c2—dH2 = c2+ d2,
§ 46] ISOMORPHISME DES ANNEAUX (DES CHAMPS) 293

avec c2 + d2 0. Ainsi, en vertu de la proposition du paragraphe


précédent d ’après laquelle les règles ordinaires d ’opérations sur
les fractions sont conservées dans tout champ (et, en particulier, une
fraction conserve sa valeur lorsqu’on multiplie son numérateur et
son dénominateur par un même élément non nul), nous obtenons:
Ct (æ—|—bi) (c — d i) (fle -|—bd) -j—( b c —- a d ) i
T T ^ T + d î = (c + d f ) ( c — d i ) = c ï+ d ï “ “ ’

c’est-à-dire l ’élément
a _ a c - \ - b d , bc — a d .
~ f — c2 + C2+d2 1 )
est encore de la forme (2).
Montrons maintenant que le sous-champ obtenu D{i) du champ P est
isomorphe au champ des points du plan construit au § 17. Faisant
correspondre à tout élément a + bi du champ D (i) le point (a, b),
nous établissons, en vertu de l ’unicité de l ’écriture (2) montrée
ci-dessus, une application bijective entre les éléments du champ D (i)
et les points du plan. En outre, à un nombre réel a, en vertu de l’éga­
lité a — a +- Ot, correspond le point (a, 0), tandis que l ’élément
1 = 0 + l ' i a pour image le point (0, 1). D’autre part, comparant
les formules (3) et (4) du paragraphe présent avec les formules (2)
et (3) du § 17, nous voyons qu’à la somme et au produit de deux élé­
ments a et p du champ D (i) correspondent les points du plan qui sont
respectivement somme et produit des points images de a et de fi.
Deux champs isomorphes à un troisième étant aussi isomorphes,
la démonstration du théorème est achevée. En particulier, on voit
que le choix des formules (2) et (3) du § 17 pour la définition des
opérations sur les points n’était pas fortuit et ne peut pas être modifié.
Outre les définitions du champ des nombres complexes considérées ci-dessus,
il existe beaucoup d’autres méthodes d’introduction de ce champ. Voici l'une
d ’elles qui utilise l ’addition et la multiplication des matrices.
Considérons l ’anneau non commutatif des matrices d’ordre deux sur le
champ des nombres réels. Il est clair que les matrices scalaires

forment un sous-champ dans cet anneau, ce sous-champ étant isomorphe au


champ des nombres réels. Il s’avère que d a n s V a n n e a u des m a t r i c e s d'ordre d e u x
s u r le c h a m p des n o m b r e s ré els on p e u t t r o u v e r é g a l e m e n t u n s o u s - c h a m p i s o m o r p h e
a u c h a m p d es n o m b r e s c o m p l e x e s . En effet, faisons correspondre à un nombre
complexe a + b i la m a t r i c e

(-:.*)•
De cette façon, nous obtenons une application bijective du champ des nombres
complexes sur un sous-ensemble de l ’ensemble des matrices d’ordre deux ; il
294 CHAMPS ET POLYNÔMES [CH. X

découle des égalités:


I a~\-c ô + cî\
\ - ( b + d) a + cj) 9
ac —bd a d \ - bc \
—(ad-\-bc) • ac — bd. )
que cette application est un isomorphisme, les matrices dans les seconds membres
de ces égalités ayant pour images respectivement les nombres complexes
(fl -f- c) -f- (b -f- d) i = (fl -j~ bi) -f- ( c -f* di) et { a c — bd) -f- {ad -f- b c ) i =
— {a -h bi) (c + di). En particulier, le rôle de l'imité imaginaire * est tenu
par la matrice

Le résultat obtenu montre encore une possibilité d introduire le champ


des nombres complexes; d'ailleurs, cette méthode est aussi satisfaisante que
toutes les autres indiquées ci-dessus.

§ 47. Algèbre linéaire et algèbre des polynômes sur un champ


Dans les chapitres précédents consacrés à l’étude de Y algèbre li­
néaire, le champ des nombres réels jouait le rôle de champ de base.
Toutefois, on vérifie aisément que la plupart des résultats de ces
chapitres se généralisent sans aucunes modifications au cas d’ùn
champ de base quelconque.
Ainsi, la méthode de Gauss de résolution des systèmes d'équations
linéaires, la théorie des déterminants et les formules de Cramer, exposées
dans le chapitre / , sont vraies sur un champ de base P quelconque.
Il n’y a que la remarque sur les déterminants antisymétriques
donnée à la fin du § 4 qui fait supposer que la caractéristique du
champ doit être différente de deux. D’ailleurs, la démonstration
de la propriété 4 de ce même paragraphe n ’a plus de vigueur si la
caractéristique du champ P est deux, quoique la propriété elle-même
reste vraie.
Il est également utile de noter que la proposition relative à l’exis­
tence d’une infinité de solutions pour un système indéterminé
d ’équations linéaires, mentionnée plus d’une fois dans le chapitre I,
est vraie pour tout champ infini P , mais cesse de l’être si le champ P
est fini.
Ensuite, la théorie de la dépendance linéaire des vecteurs, celle du
rang d'une matrice et la théorie générale des systèmes d'équations linéai­
res, exposées dans le chapitre II , ainsi que Valgèbre des matrices du
chapitre I I I , se généralisent au cas d'un champ de base quelconque.
La théorie générale des formes quadratiques, exposée au § 26,
s'étend au cas d'un champ de base P de caractéristique différente de deux.
Il est facile de montrer que sans cette dernière restriction le
théorème fondamental du § 26 n ’est plus vrai.
$ 47] ALGÈBRE LINÉAIRE ET ALGÈBRE DES POLYNÔMES 295

En effet, soit P = Z 2, c'est-à-dire P est le champ composé de deux élé­


ments 0 et 1 ; en outre, 1 + 1 = 0, d’où on a —1 = 1 ; soit la forme quadratique
J = x&2 sur le champ P. S’il existe une transformation linéaire
xi + &121/2»
x2= ^21^1+ ^22^2?
réduisant / à la forme canonique, alors le coefficient ^11^22 + ^12^21» qui
précède dans Inégalité
/ = (&11I/1+ &12#2) (HlUi + &22Î/2) —
= b \ lb 2iy \ + (&U&22+ &12b2l) + ^12^22Î/i

le produit ï/£j/2, doit être nul. Or, ce coefficient est égal au déterminant de la
transformation linéaire en question, car dans ce cas b{2b21 = — bi2b2i aussi
bien pour bi2b2i = 1 que pour bi2b21 = 0. Donc, la transformation linéaire
en question est dégénérée.

La suite de l ’exposé du chapitre VI dépend essentiellement de ce


que l’on considère les formes quadratiques à coefficients réels ou
complexes.
Enfin, la théorie des espaces vectoriels et des applications linéaires
sur ces espaces, considérée dans le chapitre VII, reste valable pour un
champ de base P quelconque. Seulement, la nation de racine caracté­
ristique est liée à la théorie des polynômes sur un champ quelconque
dont il sera question plus tard. Notons que le théorème du § 33
sur le lien entre les racines caractéristiques et les valeurs propres
s’énonce à présent de façon suivante : ce ne sont que les racines carac­
téristiques d’une application linéaire qp appartenant au champ de
base P qui sont les valeurs propres de (p.
En ce qui concerne les espaces euclidiens (chapitre VIII) ils
sont très étroitement liés au champ dés nombres réels.
Certains résultats de l1algèbre des polynômes peuvent être étendus
au cas d’un champ de base P quelconque. Mais il faut d’abord don­
ner un sens précis à la notion de polynôme sur un champ.
Le problème consiste en ce qu’au § 20 il y a deux points de vue
sur la notion de polynôme : le point de vue formellement algébrique
et celui de la théorie des fonctions. Ils peuvent être généralisés, tous
les deux, au cas d’un champ de base quelconque. Néanmoins, ces
deux points de vue étant équivalents dans le cas de champs numéri­
ques (cf. § 24) et, plus généralement, dans le cas d ’un champ infini
(comme il est facile de le vérifier), ils ne le sont plus dans le cas des
champs finis.
Considérons, par exemple, le champ Z2, introduit au § 45, qui
est composé des deux éléments 0 et 1 ; en outre, 1 + 1 — 0. Les
polynômes x + 1 et x2, + 1 à coeff cients dans Z2 sont différents,
c’est-à-dire ils ne vérifient pas la condition algébrique d’égalité
296 CHAMPS ET POLYNÔMES [CH. X

de deux polynômes. Toutefois, ces deux polynômes prennent la meme


valeur 1 pour x = 0 et la même valeur 0 pour x = 1, c’est-à-dire
ces polynômes, en tant que « fonctions » de l ’« indéterminée » 2 du
champ Z2, doivent être considérés comme identiques. Le même
phénomène a lieu pour les polynômes x3 -J- x + 1 et 2x + 1 sur le
champ Z3, composé des trois éléments 0, 1, 2 ; on a dans Z3 : 1 + 2 =
= 0. On peut indiquer des exemples de ce genre pour tout champ
fini.
Ainsi, une théorie des polynômes sur un champ P quelconque ne
saurait être basée sur une définition des polynômes du point de
vue de la théorie des fonctions. DonG, il est nécessaire de rendre tout
à fait claire la définition formellement algébrique des polynômes.
A ce dessein, nous allons donner une construction de Vanneau des
polynômes sur un champ P qui, dès le début, n’utilise pas récriture
ordinaire des polynômes au moyen d ’une « indéterminée » x.
Considérons l ’ensemble des suites finies ordonnées des éléments
d’un champ P ayant la forme
(#0ï ^1» «• • ) 1» 1) , (1)

où n est un entier, rc ;> 0 ; en outre, si n > 0, on suppose que an 0.


Munissant l ’ensemble des suites (1) des opérations d’addition et de
multiplication conformément aux formules (3) et (4) du § 20, nous
le transformons en un anneau commutatif ; la démonstration des
propriétés correspondantes utilise les mêmes raisonnements que
ceux du § 20 dans le cas des polynômes ordinaires.
L ’ensemble des suites de la forme (a) (le cas n = 0) de l ’anneau
construit est un sous-champ isomorphe au champ P . Cela permet
d’identifier toute suite (a) à l ’élément a du champ P r c’est-à-dire
on peut poser
(a) = a, pour tout a de P. (2)

D’autre part, désignons la suite (0, 1) par la lettre x ,


£ ~ (0, 1).
Alors, la multiplication définie ci-dessus donne: xz = (0 ,0 ,1 ) et,
plus généralement,
xh = (0, 0, 1). (3)
'------v----- '
h fois

Utilisant maintenant l ’addition et la multiplication des suites


ordonnées, définies ci-dessus, ainsi que les égalités (2) et (3), nous
§ 47] A LG ÈBR E L IN É A IR E ET ALGÈBRE D ES POLYNÔM ES

obtenons :
(tfOî a \y a 2i • ■ • » a n~ 1 ) (hi) — («o) + (0? a l) + ( 0 , 0 , a 2) + . . .

. . . + (0, 0, . .., 0, «n-i) + (0» 0, . . . , 0, an) =


V " 1
n —î fois n fois

— + (0, l) + (^2) (^ï 0? !)+■•■


• • • ~f“ { a n - i ) (0 , 0 , « . «| 0 , 1) + ( O 'T i) ( 0 , 0 , . . . , 0 , 1) =
y— ^
Ti—l fois n lois

—:AqH” “h “b ■• • “f” Ati-i#” 1~\~•


Ainsi, toute suite ordonnée de la forme (1) peut être écrite sous
forme d'un polynôme de x à coefficients dans le champ P ; en outre, il
est clair que cette forme d'écriture est unique. Enfin, en s'appuyant
sur la commutativité de l'addition, déjà démontrée, on peut passer
à la forme d'écriture suivant les puissances décroissantes de x .
Ainsi, nous avons construit un anneau commutatif qu’il est
naturel d'appeler anneau des polynômes d'une indéterminée x sur un
champ P . On le note P [x ].
On a déjà montré que Vanneau P [x] contient le champ P . Ensuite,
tout comme dans le cas d'anneaux des polynômes sur des champs
numériques (cf. § 20), Vanneau P [x] possède un élément unité, il
n'a pas de diviseurs de zéro et n'est pas un champ.
Si un champ P est un sous-champ d'un champ P, alors Vanneau
P [x] est un sous-anneau de Vanneau P lx]. En effet, tout polynôme
à coefficients dans P peut être considéré comme un polynôme sur
le champ P ; la somme et le produit de polynômes ne dépendent
que de leurs coefficients, de sorte que la somme et le produit se
conservent lorsqu’on passe à un champ plus large.
Pour mieux comprendre la notion d’« anneau des polynômes sur
un champ P», considérons cette notion d'un autre point de vue.
Supposons que, le champ P soit un sous-anneau d ’un anneau com­
mutatif L . Un élément a de l'anneau L est dit algébrique sur le champ
P s’il existe une équation algébrique de degré ra, n ^ 1, à coeffi­
cients dans le champ P telle que l ’élément a vérifie cette équation ;
si, par contre, une telle équation n’existe pas, alors l'élément a
est dit transcendant sur le champ P. Il est clair que l'élément a: de
l’anneau P [x] est transcendant sur le champ P.
Le théorème suivant est vrai :
Si un élément a d'un anneau L est transcendant sur un champ P,
alors le sous-anneau Lf obtenu par adjonction de Vélément a au champ P
(c’est-à-dire le sous-anneau minimal de l ’anneau L, contenant le
298 CHAMPS ET POLYNÔMES [CH X

champ P et l'élément a) est isomorphe à Vanneau des polynô­


mes P [x\.
En effet, tout élément p de l'anneau L qui peut être mis sous la
forme
P = üqcC1+ ai<xn~l 4- . . . -f- an-i&“h üm n^O y (4)
à coefficients aût ax, . . ., an_x, an dans le champ P, est un élé­
ment du sous-anneau Z/. Un élément P ne peut pas avoir deux for­
mes (4) distinctes, car, en supposant le contraire et en retranchant
Tune des représentations (4) de l'autre, nous obtiendrions une équa­
tion algébrique sur le champ P satisfaite par l'élément a, ce qui
est contraire à ce que a est transcendant. Additionnant les éléments
de la forme (4) d’après les règles d’addition de l’anneau L, nous cons­
tatons que cela est équivalent à l ’addition des coefficients des mêmes
puissances de a ; or, c'est là la règle d'addition des polynômes. D'au­
tre part, multipliant les éléments de la forme (4) d’après les règles
de multiplication de l'anneau L, on peut, utilisant la loi de distri­
butivité, multiplier terme à terme puis grouper les termes sembla­
bles ; cela pous conduit évidemment à la règle bien connue de multi­
plication des polynômes. Gela démontre que les éléments de la forme
(4) forment un sous-anneau de l'anneau Z, qui contient le champ P
et l’élément a, c'est-à-dire qui coïncide avec Z/, et est isomorphe à
l ’anneau des polynômes P [x].
Nous voyons que le choix des opérations fait ci-dessus n’est pas
arbitraire; il est bien défini par le fait que l ’élément x de l'anneau
P [x] doit être transcendant sur le champ P.
Notons que la construction de l'anneau des polynômes P [x]
n'utilise pas la division des éléments du champ P, et ce n'est qu'une
fois, notamment en démontrant la proposition sur le degré du pro­
duit de polynômes, qu’on a utilisé l ’absence de diviseurs de zéro
dans le champ P. Par conséquent, on peut prendre un anneau commu­
tatif quelconque L et, répétant la construction ci-dessus, obtenir
Vanneau des polynômes L [x] sur Vanneau L \ si, de plus, Vanneau L
n ’a pas de diviseurs de zéro, alors le degré du produit de polynômes
est égal à la somme des degrés des facteurs, de sorte que Vanneau
des polynômes L [x] ne contient pas, non plus, de diviseurs de zéro.
Revenant aux polynômes à coefficients dans un champ P, remar­
quons que la théorie de la divisibilité des polynômes, exposée aux
§§ 20-22, s'étend, en substance, à ce cas. Notamment, l'algorithme
de division avec reste est valable dans Vanneau P \x\ ; en outre, aussi
bien le quotient que le reste appartiennent à l ’anneau P [x }.
Ensuite, la notion de diviseur a un sens dans Vanneau P [x] et ses
propriétés essentielles sont conservées. De plus, le fait que l ’algorithme
de division ne fait pas sortir du champ de base P permet d'affirmer
que la propriété d'un polynôme <p (x) d'être un diviseur de f (a;) ne dé-
§ 48] DÉCOMPOSITION DES POLYNOMES EN FACTEURS IRRÉDUCTIBLES 299

pend, pas de ce que nous considérons le champ P ou toute extension de P .


La définition et toutes les propriétés du plus grand commun diviseur,
y compris Valgorithme d'Euclide et le théorème démontré au %21 à
Vaide de cet algorithme, sont conservées dans Vanneau P [x], Remar­
quons que, en vertu de l'indépendance de l'algorithme de division
avec reste du choix d’un champ de base, on peut affirmer que le plus
grand commun diviseur de deux polynômes donnés ne dépend pas non
plus de ce que Von considère le champ P ou une extension quelconque P.
Enfin, pour les polynômes sur un champ P, la notion de zéro a un
sens et les propriétés essentielles des zéros sont conservées. La théorie
des zéros multiples est également valable; d’ailleurs nous y revien­
drons encore à la fin du paragraphe suivant.
Ces remarques nous permettront, dans l'étude ultérieure des
polynômes sur un champ P , de nous référer aux §§ 20-22.

§ 48. Décomposition des polynômes en facteurs irréductibles


En partant du théorème d’existence d’un zéro dans le champ des
nombres réels ou des nombres complexes du § 24 nous avons démon­
tré l’existence et l ’unicité de la décomposition d ’un polynôme en
facteurs irréductibles. Ces résultats sont des cas particuliers de
théorèmes plus généraux se rapportant aux polynômes sur un champ
P quelconque. Ce paragraphe est consacré au développement de cette
théorie qui est analogue à celle de la décomposition des nombres
entiers en facteurs premiers.
Définissons d'abord les polynômes dont le rôle dans l ’anneau
des polynômes est analogue à celui des nombres premiers dans l ’an­
neau des nombres entiers. Soulignons dès le début qu'il s'agit dans
cette définition des polynômes de degré supérieur ou égal à Vunité ;
ceci est analogue à ce que, en définissant les nombres premiers et
en décomposant les nombres entiers en facteurs premiers, les nom­
bres 1 et —1 ne sont pas considérés comme premiers.
Soit un polynôme f (x) de degré n, n > 1. à coefficients dans
un champ P. Vu la propriété V du § 21, tout polynôme de degré nul
est un diviseur de / (x). D'autre part, d’après Vi l, tous les polynômes
de la forme cf (x), c étant un élément non nul du champ P , sont des
diviseurs de f (x); en outre il n’y a pas d ’autres diviseurs de f (x)
de degré n. En ce qui concerne les diviseurs de / (x) de degrés supé'
rieurs à 0 mais inférieurs à n, ils peuvent exister ou ne pas exister
dans l ’anneau P [x\. Dans le premier cas, le polynôme / (x) est dit
réductible dans le champ P (ou réductible sur le champ P ), et dans
le second irréductible dans ce champ.
Rappelant la définition d’un diviseur, on peul dire qu’un polynô­
me / (:r) de degré n est réductible sur un champ P s'il peut être décomposé
sur ce champ (ou, encore, dans Vanneau P l^rj) en un produit de deux
300 CHAMPS ET POLYNOMES (CH. X

polynômes de degrés inférieurs à n :


f {x) = <p(x) t (a:), (1)
et que f (x) est irréductible sur un champ P si toute décomposition de
f (x) de la forme (1) contient un facteur de degré nul et un autre facteur
de degré n.
Il faut surtout attirer l'attention sur la circonstance que l’on
ne peut parler de la réductibilité ou de l’irréductibilité d’un poly­
nôme que par rapport à un champ donné P, car un polynôme irré­
ductible sur P peut être réductible sur une extension P. Ainsi, le
polynôme x2 — 2 à coefficients entiers est irréductible sur le champ
des nombres rationnels (il ne peut pas être décomposé en un produit
de deux polynômes de degré un à coefficients rationnels). Toutefois,
ce même polynôme est réductible sur le champ des nombres réels,
comme le prouve l'égalité
x2—2 = (x — ]/2) (x -f-1^2).
Le polynôme x2 + 1 est non seulement irréductible sur le champ des
nombres rationnels, mais aussi sur le champ des nombres réels;
néanmoins, il devient réductible sur le champ des nombres com­
plexes, car
x2+ 1 = {x —•i) {x + i).
Indiquons quelques propriétés fondamentales des polynômes
irréductibles, gardant présent à l ’esprit qu’il s’agit des polynômes
irréductibles sur un champ donné P.
a) Tout polynôme du premier degré est irréductible.
En effet, si l ’on pouvait décomposer un tel polynôme en un
produit de deux facteurs de degré inférieur à un, alors les facteurs
seraient de degré nul. Or, le produit de polynômes de degré nul
est encore un polynôme de degré nul et non du premier degré.
P) Si un polynôme p {x) est irréductible, alors il en est de même
pour tout polynôme cp (x), c étant un élément non nul de P.
Cette propriété découle des propriétés I et VII du § 21. Elle
permettra de nous borner, là où il le faut, à la considération des
polynômes irréductibles dont le coefficient du terme principal est
l ’unité.
7) Soient f (x) un polynôme quelconque et p (x) un polynôme irré­
ductible ; alors, f(x) est divisible par p (x), ou f (x) et p (x) sont pre­
miers entre eux.
Si (/ (x), p (x)) = d (x), alors d (x), en tant que diviseur d’un
polynôme irréductible p (x), est soit de degré nul, soit de la forme
cp (x), c =7^= 0. Dans le premier cas, / (x) et p (x) sont premiers entre
eux, et dans le second p (x) est un diviseur de / (x).
§ 48] DÉCOMPOSITION DES POLYNÔMES EN FACTEURS IRRÉDUCTIBLES 3Q1

à) Si le produit des polynômes f (x) et g (x) est divisible par un


polynôme irréductible p (x), alors au moins Vun des facteurs est divi­
sible par p {x).
En effet, si / (x) n ’est pas divisible par p (x), alors, d ’après
la propriété y), f (x) et p (x) sont premiers entre eux et, en vertu de
b) du § 21, le polynôme g (x) doit avoir p (x) pour diviseur.
La propriété ô) se généralise sans difficulté au cas d ’un nombre
fini quelconque de facteurs.
La démonstration des deux théorèmes suivants est le but princi­
pal de <*e paragraphe.
Tout polynôme f (x) de Vanneau P [x] de degré n, 1, peut être
décomposé en un produit de facteurs irréductibles.
En effet, si le polynôme / (x) est irréductible, alors le produit
en question se réduit à un facteur. Si, par contre, / (x) est réductible,
alors f (x) peut être décomposé en un produit de facteurs de degrés
inférieurs. Si parmi ces facteurs se trouvent des polynômes réducti­
bles, on peut encore les décomposer en facteurs, etc. Le processus
s’arrêtera au bout d ’un nombre fini de pas, car pour toute décompo­
sition de / (x) en facteurs, la somme des degrés des facteurs est égale
à n, de sorte que le nombre de facteurs dépendant de x peut être
au plus n .
La décomposition des nombres entiers en facteurs premiers est
bien définie, à condition qu’on se borne à la considération des nom­
bres entiers positifs. Dans l ’anneau de tous les nombres entiers cette
décomposition est unique au signe près: par exemple, —6 =
2-(—3) = (—2) *3, 10 = 2*5 = (—2)*(—5), etc. On retrouve
la même situation dans un anneau des polynômes. Soient une décompo­
sition d ’un polynôme f (x) en un produit de facteurs irréductibles
f {x)*= Pi(x)p2(x) . . . p„{x)
et des éléments cu c2, . , . , c s du champ P tels que leur produit
soit égal à l ’unité ; alors
f (x) =; [cipi (x)] - [c2p2 (x)] . . . [csps (x)]
est encore, d ’après f}), une décomposition de f (x) en un produit de
facteurs irréductibles. Il se révèle qu’il n’existe pas d’autres décom­
positions de f (x) :
Si un polynôme f (x) de Vanneau P [x] est décomposé de deux maniè­
res différentes en facteurs irréductibles
f (*) =/>! (z) p2(*) • • • ps (x) = ?1 (x) q2(x) . . . qt (æ), (2)
alors s —t et, les indices étant convenablement choisis, on a les
égalités
Çi ipd) ^ Cipi (x), î ~ 1 , 2, . . . , s, (3)
ci étant des éléments non nuis du champ P.
302 CHAMPS ET POLYNÔMES [CH. X

Ce théorème est .vrai pour les polynômes du premier degré, ces


derniers étant irréductibles. Nous en donnons une démonstration
par récurrence sur le degré du polynôme, c’ëst-à-dire nous démon­
trons ce théorème pour / (x), en supposant quTil soit vrai pour tout
polynôme de degré inférieur.
(x) étant un diviseur de / (x), on peut affirmer que, en vertu
de la propriété ô) et de Légalité (2), qi (x) est un diviseur d’au moins
dundes polynômes p t (x), soit de p 1 (x). Le polynôme p x (x) étant
irréductible et q^x) de degré non nul, il existe un élément cx tel que
qi {x) = clp i {x). (4)
Substituant cette expression de q1 (x) dans (2) et simplifiant
(on peut diviser par p 1 (x), car l ’anneau P [x] n ’a pas de diviseurs
de zéro), nous obtenons Légalité
Pz (z) Pz (z) • • • Ps (z) = (z)] q3(x) . . . qt (x).
Le degré de ce produit étant inférieur à celui de/(x), on a, d’après
l’hypothèse de récurrence, l’égalité: s — 1 = t — 1, d ’où s = ty
ainsi que les relations: c'2p 2(x) = c^ («z) (ou encore q2 (x) =
(^i ^2) P a (^))» ^îPi (^) Qi (*^)ï i == 3, . . ., s, C3, . » Cs
étant des éléments non nuis du champ P. Posant c^c2 = c2 et vu
(4), nous obtenons les égalités (3).
Le théorème que nous venons de démontrer peut s’énoncer de
manière plus compacte : tout polynôme se décompose en facteurs irré­
ductibles de façon unique à des facteurs de degré nul près.
D’ailleurs, on peut se borner à des décompositions de la forme
spéciale suivante (cette décomposition est déjà unique pour tout poly­
nôme): soit une décomposition quelconque d ’un polynôme / (x)
en facteurs irréductibles ; mettant en facteur le coefficient du terme
principal de chaque polynôme irréductible, nous obtenons la décom­
position
/ M = a0pi {x) pz {x) . . . p„ (z)„ (5)
où les polynômes irréductibles p t (x), i = 1, 2, . . s, ont l ’unité
pour coefficients des termes principaux. En effectuant les multipli­
cations du second membre de (5), il est facile de démontrer que le
facteur a0 n ’est autre que le coefficient du terme principal du poly­
nôme / (x).
Les facteurs irréductibles intervenant dans la décomposition (5)
ne sont pas forcément tous distincts. Si un polynôme irréductible
p (x) est répété k fois dans la décomposition (5), alors p{x)
est appelé facteur multiple de / (x), plus précisément, d"ordre de
multiplicité k . Par contre, si un facteur p (x) n ’est rencontré qu’une
fois dans la décomposition (5), alors p (x) est dit facteur simple (ou
d'ordre de multiplicité unité) de / (x).
§ 48] DÉCOMPOSITION DES POLYNÔMES EN FACTEURS IRRÉDUCTIBLES 303

Supposons que les facteurs P\{x), Pi{x), . . ., p* (x) dans la


décomposition (5) soient tous distincts et que tout facteur de f (x)
coïncide avec l’un de ces polynômes; supposons, en outre, quep t (x)
soit un facteur d’ordre de multiplicité k t du polynôme f (x), i —
= 1, 2, . . Z, alors la décomposition (5) peut être récrite sous
la forme :
/ (z) = «o/Ji1(x)p?(x) . . . pi1(x). (6)
C’est précisément cette écriture que nous utiliserons désormais sans
mentionner chaque fois que les puissances sont les ordres de multi­
plicité des facteurs correspondants ou, encore, que p t (a;) ^ pj (x)
pour i j.
Soient deux polynômes f (x) et g (x), décomposés chacun en facteurs
irréductibles ; le plus grand commun diviseur d (x) de f (x) et de g (x)
est égal au produit des facteurs intervenant simultanément dans la décom­
position de f (x) et de g (x) ; en outre, tout facteur commun doit être
élevé à une puissance égale à Vordre de multiplicité minimal de ce
facteur dans la décomposition de f (x) et de g (x).
En effet, le produit en question est un diviseur de f (x) et de g (x)
et. par conséquent, de d (x). Si ce produit était différent de d (x),
alors la décomposition de d (x) en facteurs irréductibles contiendrait
un facteur n ’intervenant pas dans la décomposition d ’un des polynô­
mes f (x) et g (z), ce qui est impossible, ou alors l ’un des facteurs
de d(x) serait de degré supérieur au degré de ce facteur dans la
décomposition de / (z) ou de g (x), ce qui est encore impossible.
Ce théorème est analogue à la règle d’après laquelle on cherche
le plus grand commun diviseur de nombres entiers. Toutefois, il
ne peut pas remplacer l ’algorithme d’Euclide dans le cas de polynô­
mes. En effet, puisque les nombres premiers plus petits qu’un nombre
entier positif donné forment un ensemble fini, la décomposition
d’un nombre entier en facteurs premiers s’obtient après un nombre
fini d’essais. Cela n’a pas lieu dans un anneau des polynômes sur
un champ de base infini et, dans le cas général, on ne peut pas don­
ner une méthode de décomposition d ’un polynôme en facteurs irré­
ductibles. De plus, dire si un polynôme / (z) est irréductible ou
réductible sur un champ donné P est déjà, dans le cas général, un
problème assez difficile. Ainsi, la description des polynômes irré­
ductibles sur le champ des nombres complexes ou des nombres réels
a été obtenue au § 24 comme conséquence du théorème très impor­
tant sur l’existence d’un zéro. En ce qui concerne le champ des nom­
bres rationnels, nous ne pourrons énoncer au § 56 que quelques résul­
tats de caractère très particulier à ce sujet.
Nous avons montré que dans Panneau des polynômes, tout comme dans
celui des nombres entiers, il existe une décomposition en facteurs « simples »
(irréductibles) et que, dans un certain sens, cette décomposition est unique.
304 CHAMPS ET POLYNOMES [CH. X

On se demande dans quelle mesure on peut étendre ces résultats à des classes
plus larges d’anneaux. Nous nous bornons ici à la considération des anneaux
commutatifs ayant un élément unité et ne contenant pas de diviseurs de zéro.
On appelle diviseur de Vunité tout élément a d’un anneau qui possède un
élément inverse a-1,
aar1 = 1.
Ce sont les nombres 1 et —1 dans l ’anneau des nombres entiers et les polynômes
non nuis de degré nul dans l ’anneau P [x] qui sont les éléments non nuis du
champ P. Un élément c, différent de zéro et qui ne soit pas un diviseur de l ’uni'
té, est appelé élément simple si dans toute décomposition de c en un produit de
deux facteurs, c — ab, au moins un des facteurs est diviseur de l ’unité. Les élé­
ments simples dans l ’anneau des nombres entiers sont les nombres premiers et
dans l ’anneau des polynômes les polynômes irréductibles.
Peut-on dans un anneau quelconque décomposer tout élément non nul et
qui ne soit pas un diviseur de l ’unité en un produit de facteurs simples ? Si la
réponse est affirmative, cette décomposition serait-elle unique? L’unicité
doit être interprétée de la manière suivante* Soient deux décompositions
d’un élément a en facteurs simples
a = PtPz ■■• Ph — ?i?2 • • • Ql ï
alors k = l t et, les indices étant convenablement choisis, on a
< 2 i " P i c iy i — 11 2 , . . . , k,
où Ci est un diviseur de l ’unité.
Il s’avère que dans le cas général la réponse aux questions posées est néga­
tive. Nous nous bornons à donner un exemple, notamment, indiquons un anneau
oà la décomposition en facteurs simples est possible mais n'est pas univoque.
Considérons les nombres complexes de la forme
ce = a + 6 (7)
avec a et b entiers. Ces nombres forment un anneau sans diviseurs de zéro
mais avec une unité ; en effet,
(a + b V ^ 3 ) (c + d V = 3 ) = (ac— 333) + (ba + ad) V ^ 3 . (8)
On appelle norme d’un nombre a = a J - i ~]/ — 3 le nombre entier positif
défini par la formule
(a) = a2-f-3&2*
D’après (8), la norme d'un produit est égale au produit des normes,
N(afl) = N(a)N$). (9)
En effet,
(ac — 3bd)* + 3 (&<?+ ad)2= a*c* -f 9 ^ 2 -|_ 3&2C2_|_
H- 3a*d* = (a2 + 3è2) (<?2+ 3d2).
Si un nombre a est diviseur de l ’unité dans l ’anneau considéré, c’est-à'
dire si le nombre a - i est encore de la forme (7), alors, d’après (9), on a
N (a)* N (ori) = N (acri) - N (1) = 1,
de sorte que N (a) = l, les nombres -N (a) et A^or1) étant entiers positifs.
Si a —a-\-b~]/ —3, alors l’égalité N(a) = i entraîne
tf(a) = a2+ 3&2= l ;
§ 48] DÉCOMPOSITION DES POLYNÔMES EN FACTEURS IRRÉDUCTIBLES 305

or, cela n’est, possible que lorsque b = 0, a — db 1. Ainsi, Vanneau considéré,


tout comme Vanneau des nombres entiers, n'a d'autres diviseurs de Vunité que les
nombres 1 et —1 et il ri y a que ces nombres qui aient pour norme V unité,
Bicm entendu, l ’égalité (9) qui exprime la norme d’un produit se généralise
au cas d’un nombre fini quelconque de facteurs. Il est facile d’en déduire que
tout nombre a. de Vanneau considéré peut être décomposé en un produit d'un nombre
fini de facteurs simples; nous laissons au lecteur le soin de le démontrer.
Mais on ne peut plus affirmer qu'une telle décomposition soit unique. Par
exemple, on a les égalités
4 = 2 . 2 = ( i - i - y ^ ) ( î —y .^ 3 ) .
L’anneau considéré n’ayant pas d’autres diviseurs de l ’unité que 1 et —1, le
nombre 1 + V - “3 (aussi bien que le nombre i — ~\/ —3) ne peut pas être égal
au -nombre 2 divisé ou multiplié par un diviseur de l ’unité. Il reste à montrer
que îes nombres 2, —3,1 — ~]/—3 sont simples dans l ’anneau considéré.
En effet, la norme de chacun de ces nombres est égale à 4. Soit a un de ces nom­
bres. Supposons que
a = Py
Alors, d’après (9), l ’un des trois cas suivants est possible:
1) iV(p) = 4t A(y) — 1;
2) iV(p) = l; JV(V) = 4;
3) iV(0) = A (y)- 2 .
On sait que dans le premier cas le nombre y est un diviseur de l ’unité et
que dans le second c’est le nombre p. En ce qui concerne le troisième cas, il ne
saurait se réaliser, car il n ’existe pas de nombres entiers a et b satisfaisant
à l ’égalité
a* + 3&2 = 2.
Facteurs multiples. Bien que nous n ’ayons pas de méthode de
décomposition d’un polynôme en facteurs irréductibles (on en a
déjà parlé ci-dessus), il existe des méthodes permettant de dire si un
polynôme donné possède des facteurs multiples et de ramener l ’étude
d ’un polynôme à facteurs multiples à celle d ’un polynôme à facteurs
simples. Toutefois, ces méthodes imposent certaines restrictions au
champ de base. Notamment, dans la suite de ce paragraphe nous
supposons que le champ P soit de caractéristique nulle. Sans cette
restriction les théorèmes sur les facteurs multiples que nous démon­
trerons ci-dessous ne sont plus valables; en même temps, le cas de
champs de caractéristique nulle est, du point de vue des applications,
le plus important, car il contient, en particulier, les champs numé­
riques.
Notons d’abord que la notion de dérivée, introduite au § 22 pour
les polynômes à coefficients complexes, ainsi que les propriétés
fondamentales des dérivées se généralisent au cas considéré1.
Démontrons maintenant le théorème suivant,
1 La proposition d’après laquelle la dérivée d’un polynôme de degré n
est un polynôme de degré n — 1 n’est plus vraie pour un champ de caracté­
ristique finie.
20-1212
306 CHAMPS ET POLYNÔMES [CH. X

Si p (x) est un facteur irréductible d'ordre de multiplicité k d'un po­


lynôme f (x)y /c > l, alors p{x) est un facteur d'ordre de multiplicité
k — 1 de la dérivée de f (x). En particulier y un facteur simple d'un
polynôme n'intervient pas dans la décomposition de sa dérivée en facteurs
irréductibles.
En effet, soit
f(x) = ph{x)g{x), (10)
où g(x) n’est plus divisible par p{x). Dérivant l'égalité (10),
il vient :
f (*) = pk (z) g' (x) + V - 1(z) p ’ (a) g (z) =
= P*"1 (*) [p (z) g’ (*) + W (x) g (z)l •
Le second terme entre crochets n ’est pas divisible par p {x) ; en
effet, g (x) n ’est pas divisible par p (x) en vertu de notre hypothèse,
p' (x) est de degré inférieur à celui de p (x), c’est-à-dire qu’il n ’est
pas divisible par p (x), et il en résulte notre proposition, compte
tenu de l’irréductibilité de p (x), de la propriété ô) de ce paragraphe
et de IX du § 21. D’autre part, le premier terme de la somme entre
crochets est divisible par p (x), de sorte que cette somme ne peut pas
être divisible par p (x), c’est-à-dire le facteur p (x) doit, en réalité,
intervenir dans l ’expression de f (x) avec l ’ordre de multiplicité
k - 1.
De notre théorème et de la méthode de calcul du plus grand com­
mun diviseur de deux polynômes indiquée ci-dessus, il résulte que
si la décomposition d’un polynôme / (x) en facteurs irréductibles
est de la forme
/ (x) = (x) P2 (x) . . . p ll (x),( 1 1 )
alors le plus grand commun diviseur du polynôme /(x) et de la
dérivée de /(x) admet la décomposition en facteurs irréductibles
suivante :
(/(x), /' (x)) = pi1_1 (x)pz3^ i (x) . .. p*'-1 (x) ; (12)
bien entendu, ici le facteur p f ^ ^ x ) doit être remplacé par l ’unité
lorsque k t = 1. En particulier, le polynôme f (x) ne possède pas de
facteurs multiples si et seulement si f (x) et sa dérivée /' (x) sont pre­
miers entre eux.
Ainsi, nous avons résolu le problème d ’existence des facteurs
multiples d ’un polynôme donné. De plus, vu que la dérivée d ’un
polynôme et le plus grand commun diviseur de deux polynômes ne
dépendent pas de ce que l’on considère un champ de base P ou toute
extension de ce champ P y nous obtenons, comme conséquence du
résultat que nous venons de démontrer, la proposition suivante.
§ 48] DÉCOMPOSITION DES POLYNÔMES EN FACTEURS IRRÉDUCTIBLES 3Q7

Si un polynôme f (x) à coefficients dans un champ P de caractéris­


tique nulle ne possède pas de facteurs multiples sur ce champ, alors
il en est de même pour toute extension P du champ P.
En particulier, / (x) étant irréductible sur un champ P et P étant
une extension de P , le polynôme / (x), bien qu’il puisse être réducti­
ble sur P , n ’est quand même pas divisible par le carré d’un polynôme
irréductible sur P.
Séparation des facteurs multiples* Soient un polynôme f (x)
admettant une décomposition de la forme (11) et le plus grand
commun diviseur dx (2) de / (x) et de sa dérivée ; alors (12) est la
décomposition de dx (x). Divisant (11) par (12) il vient
f (x)
Vi(*) = = «oPi (*) Pl(*) • . . Pl(*),

c’est-à-dire le quotient est un polynôme sans facteurs multiples ;


en outre, tout facteur irréductible de vx (x) est également un facteur
de / (z). Cela ramène le problème de calcul des facteurs irréductibles
d’un polynôme / (x) au même problème pour le polynôme vx (x)
qui est, en général, de degré inférieur à celui de / (x) et n ’a que des
facteurs simples. Si nous arrivons à résoudre ce problème pour vx (x),
il ne restera que le problème cle la détermination des ordres de mul­
tiplicité des facteurs irréductibles de / (z), ce qui peut être fait au
moyen de l’algorithme de division.
Appliquant une méthode plus compliquée, basée sur la considération d’un
certain nombre de polynômes sans facteurs multiples, nous pouvons non seule­
ment trouver les facteurs irréductibles de f (x), mais aussi les ordres de mul­
tiplicité de ces facteurs.
Soit (11) la décomposition de f (x) en facteurs irréductibles; supposons
que s, s^> 1, soit le plus grand ordre de multiplicité des facteurs de / (z). Notons
par Ft (æ) le produit des facteurs d ’ordre de multiplicité unité du polynôme
/ (a:), chaque facteur étant pris une fois, par F 2 (*). le produit des facteurs d ’ordre
de multiplicité deux, chaque facteur étant pris une fois, etc., enfin, par Fs (x)
le produit des facteurs d ’ordre de multiplicité 5, chaque facteur étant pris une
fois. Si le polynôme / (*) n’a pas de facteurs d’ordre de multiplicité j pour
un entier ;, nous posons alors: Fy (z) — 1. Alors f (x) est divisible par la puis­
sance kème de Fk (x), k = 1, 2, . . ., s, et la décomposition (11) prend la forme
/ (x) = a0Ft (x) F\ (x) Ff (x) . . . F\ (*)t

tandis que la décomposition (12) de d1 (x) = (f (x), f'{x)) peut être récrite
de façon suivante :
dj (z) = Fl (x) F\ {x) . . . Fss 1 (x).

Notant par dz (x) le plus grand commun diviseur du polynôme (x) et de


la dérivée d[ (x) et, plus généralement, par dh (z) le plus grand commun divi-
20*
308 CHAMPS ET POLYNÔMES [CH. X

seur des polynômes (x ) et dk_ 1 (x), nous obtenons de la même manière:


di (x) = F 3 (x) F\(x) .. . . F * - H x ) ,
d3 (x)^. Fi {x) Fl (x) . ■• K - 3 (x),

d»-i {x) = Fs {x)f


d3 (x) —1.
On en déduit
yl (*) - = H?i (*) Fi (x) Fj (x) . . . Fs (x),

(*) = = Fi (x) F3 (*) . .. Fa (.r),

V3(x) = ï $ ) = F3{x) F* {^ ’

vs (x) = d s- 1(x) = F9 (x),


ds (x)
et, par conséquent, on a finalement
*1 (*)
a0v2 (x) 9 (x) = ^2 o P» (*)=*«(*)•
”3 (*) ’
Ainsi, n’utilisant que des procédés qui ne supposent pas la connaissance des
facteurs irréductibles de / (x), notamment, n’utilisant que la dérivation, l ’algo­
rithme d ’Euclide et T algorithme de division, nous pouvons calculer les polynô­
mes Fi (x), F2 (x), . . Fs (x) qui n ’ont pas de facteurs multiples; en outre,
tout facteur irréductible du polynôme Fh (x), k = i t 2, * . s, est un facteur
d’ordre de multiplicité k de / (x).
Evidemment, la méthode exposée ci-dessus ne saurait pas être considérée
comme une méthode de décomposition d’un polynôme en facteurs irréductibles,
car dans le cas où s — 1, c’est-à-dire pour les polynômes sans facteurs multi­
ples, cette méthode ne donne que / (x) = Ft (x).

§ 49*. Théorème d'existence d’un zéro


Bien entendu, le théorème fondamental sur l’existence d’un zéro
de tout polynôme d’une indéterminée numérique sur le champ des
nombres complexes, démontré au § 23, ne peut pas être étendu au
cas d’un champ quelconque. Nous démontrerons dans cç paragraphe
un théorème qui, dans un certain sens, occupe la même place dans
la théorie générale des champs algébriques que le théorème fonda­
mental de l’algèbre des nombres complexes.
Soit un polynôme / (s) sur un champ P. Il est naturel de poser
le problème suivant : le polynôme / (x) n ’ayant pas de zéros dans
le champ P, existe-t-il une extension. P du champ P telle que / (z)
possède au moins un zéro dans P? Ici on peut supposer que le degré
§ 49] THÉORÈME D ’EXISTENCE D’UN ZÉRO 3Q9

du polynôme f (x) est supérieur à l’unité, car pour les polynômes


de degré nul le problème n ’a pas de sens et tout polynôme du premier
degré, soit ax-\-b, possède le zéro —— dans le champ P lui-même.
D’autre part, on peut, évidemment, se limiter au cas où f (x) est
irréductible: si f (x) est réductible sur le champ P , alors un zéro
de tout facteur irréductible est, en même temps, un zéro de f {x).
La solution du problème qui nous intéresse est donnée par le
théorème suivant sur Vexistence d'un zéro :
Pour tout polynôme f (x) irréductible sur un champ P il existe une
extension de P telle quelle contienne au moins un zéro de f (x). Tous
les champs minimaux contenant le champ P et un zéro du polynôme
sont isomorphes.
Démontrons d’abord la seconde partie du théorème.
Soit un polynôme irréductible sur un champ P
f = a&n + + . .. H- an- H- (1)
où n ^ 2, c’est-à-dire on suppose que / (x) n ’ait pas de zéros dans
le champ P . Supposons qu’il existe une extension P du champ P
contenant un zéro, soit a, de / (x) ; démontrons le lemme suivant,
nécessaire pour la suite et présentant un intérêt par lui-même :
Soit a un zéro dans P d'un polynôme f (z) irréductible sur P ;
supposons que a soit également un zéro d'un polynôme g (x) de Vanneau
P [x]. Alors f {x) est un diviseur de g (x).
En effet, considérés sur le champ P , les polynômes / {x) et g (x)
possèdent un diviseur commun x — a et, par conséquent, ne sont
pas premiers entre eux. La propriété des polynômes de ne pas être
premiers entre eux ne dépend pas du choix d’un champ, de sorte que
nous pouvons passer au champ P et appliquer la propriété y) du
paragraphe précédent.
Trouvons maintenant le sous-champ minimal P (a) du champ P,
contenant le champ P et l’élément a. P (a) contient, en tout cas,
les éléments de la forme
P = ô0+ 6ia + h * 2+ , . . . + (2)
où &0> •• &*-i sont des éléments du champ P . Il n’existe
pas d’éléments du champ P ayant deux écritures différentes (2) ;
en effet, si on a, en même temps,
P = c0-h c2oc2-)-••• H- Cn-iOc72"1,
et cu^=bh au moins pour un k, alors a est un zéro du polynôme
g(x) = (b0-~cQ) + (bi — c1)x + (b2— c2)x 2+ • - ■+(bn-i — cn-i)zn-1,
ce qui est en contradiction avec le lemme démontré ci-dessus, vu que
le degré de g (x) est inférieur à celui de / (æ).
310 CHAMPS BT POLYNÔMES [CH. X

L'ensemble des éléments du champ P de la forme (2) contient les


éléments du champ P (bx .= b2 = . . , = b^ = 0) et l'élément
oc (&i = 1, 60 = 6a = . . . = bn^ = 0). Montrons que les élé­
ments de la forme (2) constituent le sous-champ cherché P (a). En effet,
soient un élément p (écrit sous la forme (2)) et un élément y ,
y ~ c 0+ cta + c2a? + .. .+C n-1an“1;
les propriétés des opérations sur le champ P donnent
P do y = (bo dr ^o) (&t =b Ci) a + (bz ± c2) a 2+ • .. -J- (6n-i àz Ctï-i) ot71"1,
c'est-à-dire la somme et la différence de tout couple d'éléments de la
forme (2) sont encore des éléments de cette forme.
Multipliant p et y nous obtenons une expression contenant a n
et des puissances de a d’exposants supérieurs à n. Néanmoins, de la
formule (1) et de l’égalité / (a) = 0 il découle que a n et, par consé­
quent, a n+1, <xn+2, etc. peuvent être exprimés par des puissances
de a d'exposants inférieurs à n. La plus simple méthode de trouver
l’expression de Py est la suivante : posons
<p(x) = b0+ b^x + . . . fci-i#n l »
T|5 {X) = C0 + C XX + . . • + Cn-irf1-1 ,

de sorte que <p(a)~P, ÿ (a) = y. Multipliant les polynômes qp(x)


et ty(x) et divisant avec reste le produit par /(x), il vient
cp(x) = f (x) q(x) + r (x), (3)
avec
r (a;) —d0+ dxx + .. *+ g^-iX71-1.
Faisant x = a dans les deux membres de l ’égalité (3), nous obtenons
qp (a) xJ) (a) = / (a) g (a) + r (a),
ou encore, vu que /(a ) = 0,
P y = û?0 -j- d\CL -j- . . • -f- 1.

Ainsi, le produit de deux éléments de la forme (2) est encore un


élément de la forme (2).
Enfin, montrons que si un élément P est de la forme (2) et p =*£ 0,
alors l'élément p-1, qui existe dans le champ P , peut être également
mis sous la forme (2). Pour cela fixons dans l’anneau P [x] un
polynôme
( x ) = Ôq bîx ~h • • • “h bn„iXn L
Le degré de <p (x) étant inférieur à celui de / (x) et le polynôme
/ (x) étant irréductible sur le champ P, les polynômes qp (x) et / (x)
THÉORÈME D'EXISTENCE D ’UN ZÉRO 311

sont premiers entre eux, de sorte que, d’après les §.§ 21 et 47, il
existe dans l’anneau- P lx\ des polynômes u (x) et v (z) tels que
l ’on ait
<p(z)u{x) + f ( x ) v { x ) = i ;

en outre, on peut supposer que le degre de u(x) est inférieur à n:


U(x) — + Sn~ 1.
Il en résulte, vu l ’égalité /(a ) = 0, que
q>(a) u (cc) 1,
de sorte que, vu l ’égalité <p(a) = p, nous obtenons
P*"1= u (a) = s0 + S & + ... + s n„ xa7
1"1.
Ainsi, l ’ensemble des éléments de la forme (2) est un sous-champ
du champ P ; cet ensemble est le champ cherché P (a). Ensuite, on
a vu que pour trouver la somme et le produit de deux éléments
P et y de la forme (2), il suffit de connaître les coefficients dans leurs
expressions suivant les puissances de a ; on peut, donc, affirmer
que le résultat suivant est vrai: supposons que, outre P, il existe
une autre extension Pr du champ P, P ’ contenant aussi un zéro
a du polynôme / (x) ; soit P (a') un sous-champ minimal du champ
P ', contenant P et a ' , alors les champs P ( a ) et P (a') sont isomorphes ;
en outre, l’isomorphisme des champs P (a) et P (a ) s ’obtient en fai­
sant correspondre à tout élément de P (a) de la forme (2) l ’élément
de P ( a ' ) ayant les mêmes coefficients .
P' = b0+ bta' + b2a '2+ . . . + bn^ a 'n“l.
Ceci démontre la seconde partie du théorème.
Passons à la démonstration de la première partie du théorème;
en outre, ce qui a été exposé ci-dessus nous suggérera la voie de
démonstration. Nous avons un polynôme / (z) de degré n, n 2,
irréductible sur un champ P ; il s’agit de construire une extension
du champ P. contenant un zéro de / (x). A ce dessein représentons
l ’anneau des polynômes P [x] comme réunion de classes, disjointes
de polynômes, chaque classe se composant de polynômes ayant
le même reste de division par f (x). Autrement dit, deux polynômes
<f (x) et (x) appartiennent à une même classe si leur différence est
divisible par / (x).
Convenons de noter les classes obtenues par les lettres 4 , B, C,
etc., et définissons de façon naturelle la somme et le produit de
classes. Notamment, soient deux classes A et P, un polynôme
<Pj (æ) de la classe A et un polynôme ^ (s) de la classe B ; désignons
312 CHAMPS ET POLYNÔMES ICH. X

par Xi (*) la somme des polynômes <p2 (x) et (x),


Xi (^) — qpi
et par 61(0;) leur produit,

Choisissons maintenant dans la classe A un autre polynôme <p2 (æ)


et dans la classe B un polynôme ^ (z) ; désignons par %2 (x) et
62 (x) respectivement leur somme et leur produit :
X2 (Z) = <ï>2(^) + ^2 (*),
Q2(x) = q>2 (x)-ty2(x).
Les polynômes cpx (æ) et <p2 (a:) appartenant tous les deux à la classe
A , leur différence (x) —- (p2 (x) est divisible par / (z) ; la diffé­
rence (z) — (x) jouit de la même propriété. Il en résulte que
la différence
Xi (*) — x2(æ) = [<pi (*) + t i (*)] — [q>2 (* ) + ^ 2 (*)] =
= [q>i(*) — —^ (z )] (4)
est encore divisible par f(x). La même chose est vraie pour 61(2) —
—02(^)t car
0 1 (x) — e 2 (x) = <Pj ( ) ^
x (x) — <J>2 ( * ) ^ 2 ( z ) =
= <Pl (*) 1 1 (*) — <Pl (x) ^ 2 (*) + <Pi (æ) ^ 2 (x) — q>2 (x) ^ 2 0») =
= <Pi (x) Mi {x) — ife (*)] + [<Pi {x) — 92 (*)I (x). (5)
L'égalité (4) montre que les polynômes %i (z) et %2 (x) appartien­
nent à une même classe. Autrement dit, la somme d ’un polynôme
de la classe A et d ’un polynôme de la classe B appartient à une classe
bien définie C qui ne dépend pas du choix des polynômes qu’on fixe
pour « représenter » respectivement la classe A et la classe B ; appe­
lons la classe C somme des classes A et B :
C = A + B.
De même, vu l ’égalité (5), la classe D, contenant le produit d’un
polynôme de A et d’un polynôme de B, ne dépend pas du choix des
polynômes représentant les classes A et B ; nous appelons la classe
D produit des classes A et B :
D = AB.
Montrons que l ’ensemble des classes (dont la réunion donne
l ’anneau P [æ]), pourvu des opérations d’addition et de multiplica­
tion définies ci-dessus, devient un champ. En effet, Vassociativité
et la commutativité des deux opérations, ainsi que la distributivité,
§ 49] THÉORÈME D'EXISTENCE D’UN ZÉRO 313

découlent des propriétés correspondantes des opérations sur Tanneau


P [x], car les opérations sur les classes se ramènent aux mêmes opé­
rations sur les polynômes appartenant à ces classes. L ’élément nul
est manifestement la classe composée des polynômes divisibles par
le polynôme / (z). Cette classe, notée par le symbole 0, est appelée
classe nulle. La classe opposée à une classe A (la classe A étant com­
posée des polynômes divisibles avec le reste qp (z) par f{x)) est com­
posée des polynômes qui, divisés par / (x), donnent pour reste —qp (x).
Il en résulte l ’existence de l ’opération de soustraction bien définie
dans l ’ensemble des classes.
Afin de démontrer qu’il existe une division dans l ’ensemble des
classes, il faut montrer, d’une part, l’existence d ’une classe tenant
le rôle de l ’unité et, d’autre part, l’existence de la classe inverse
pour toute classe non nulle. Il est clair que le rôle de Yunité est
tenu par les polynômes qui, divisés par / (x), donnent l ’unité pour
reste; la classe de ces polynômes, appelée classe unité, est notée
par le symbole E .
Soit maintenant une classe non nulle A. Par conséquent, tout
polynôme qp (z), représentant de la classe A , divisé par / (z), donne
un reste non nul, de sorte que, vu l ’irréductibilité de / (x), les poly­
nômes qp (æ) et / (x) sont premiers entre eux. Il existe, donc, dans
l’anneau P [x] deux polynômes u (x) et v (z) satisfaisant à l ’égalité
y (x) u(x) + f (x) v (x) = i,
ou, encore, à l ’égalité
cp(;r) u (x) ~ 1 —/ (a) v (a;). (6)
Le second membre de (6), divisé par / (x), donne l ’unité pour
reste, c’est-à-dire il appartient à la classe unité £ . Notant par B
la classe contenant le polynôme u (z), l’égalité (6) prend la forme
AB = E,
d’où l ’on a B = A"1. Ceci démontre l’existence d’une classe inverse
pour toute classe non nulle, autrement dit, on a montré que les
classes forment un champ.
Désignons ce champ par P et montrons que P est une extension
du champ P. A tout élément a du champ P correspond une classe com­
posée de "polynômes qui, divisés par f (x), donnent a pour reste;
l ’élément a, en tant que polynôme de degré nul, appartient à cette
classe. Les classes de cette forme spéciale forment dans P un
sous-champ isomorphe au champ P . En effet, l ’application bijective
est claire; d’autre part, choisissant comme représentants des classes
considérées les éléments du champ P , la somme (le produit) d’élé­
ments de P correspond à la somme (au produit) de classes. Ainsi,
314 CHAMPS ET POLYNÔMES [ÔH. X

par la suite, nous aurons le droit de ne faire aucune distinction entre


les éléments du champ P et les classes correspondantes.
Enfin, désignons par X la classe composée de polynômes divisi­
bles par / (x) avec le reste x. Cette classe est un élément bien défini
du champ P ; nous voulons montrer que cet élément est zéro du poly­
nôme f (x). Soit
/ (x) = aoXn + aixn-1+ • • • + ix+ an.
Notons par A t la classe qui correspond (dans le sens indiqué ci-dessus)
à l ’élément at du champ P , i —0, 1, . . n; déterminons l ’élément
du champ P qui est de la forme
A0X n -\-A]Xn~l -j- . . . An-iX -f- An*(7)
Choisissant comme représentants des classes A\ les éléments a*,
i — 0, 1, . . ., n, et comme représentant de la classe X l ’élément x,
nous constatons, tenant compte de la définition des opérations
d ’addition et de multiplication de classes, que la classe (7) contient
le polynôme / (x). Or, le polynôme / (x) est divisible par lui-même,
de sorte que la classe (7) est la classe nulle. Ainsi, remplaçant dans (7)
les classes Ai par les éléments correspondants at du champ P , nous
obtenons dans le champ P l’égalité
aoXn-\-axX n~1+ . . . + + = 0,
c’est-à-dire la classe X est réellement un zéro du polynôme / (x).
Ceci achève la démonstration du théorème d’existence d’un
zéro. Notons que si P est le champ des nombres réels et f (x) = x2 + 1,
alors nous obtenons encore un moyen de construction du champ des
nombres complexes.
On peut déduire du théorème d’existence d’un zéro des conséquen­
ces analogues à celles du théorème fondamental de l ’algèbre des
nombres complexes du § 24. Faisons d’abord une remarque.
Tout facteur linéaire x — c d ’un polynôme / (x) étant irréducti­
ble, le polynôme x — c doit intervenir dans la décomposition bien
définie de / (x) en facteurs irréductibles.
Toutefois, le nombre de facteurs linéaires dans la décomposition
de / (x) en facteurs irréductibles ne peut être supérieur au degré
de / (x). Nous sommes, donc, conduits au résultat suivant:
Un polynôme f (x) de degré n ne peut pas avoir dans un champ P
plus de n zéros, meme si tout zéro est pris avec son ordre de multiplicité.
On appelle champ de décomposition d’un polynôme / (x) de degré n
sur un champ P une extension Q du champ P telle que / (x) ait exac­
tement n zéros dans le champ Q, tout zéro devant être pris avec
son ordre de multiplicité. Le polynôme / (x) sur le champ Q se décom-
§ 49] THÉORÈME D’EXISTENCE D ’UN ZÉRO 315

pose, donc, en un produit de facteurs linéaires; de plus, aucune


extension du champ Q ne peut faire apparaître de nouveaux zéros
de f (x).
I l existe pour tout polynôme f (x) de Vanneau P [x] sur un champ P
un champ de décomposition.
En effet, si un polynôme / (a;) de degré n, n^> 1, possède n zéros
dans le champ P , alors P est le champ de décomposition en question.
Si, par contre, f (x) ne peut pas être décomposé sur le champ P en
un produit de facteurs linéaires, alors fixant un des facteurs irré­
ductibles de f [x) de degré supérieur au premier, soit q> (x), nous
pouvons, en vertu du théorème d’existence d ’un zéro, trouver une
extension du champ P , soit P ', telle que P f contienne un zéro de
q> (x). Si le polynôme / (x) considéré sur le champ P r ne se décompose
pas toujours en un produit de facteurs linéaires, alors construisons
encore une extension du champ P ', qui contiendrait un zéro d’un
des facteurs irréductibles de degré supérieur au premier intervenant
dans la décomposition de / (x). Après un nombre fini de pas nous arri­
vons évidemment à un champ de décomposition de f (x).
Il est clair qu’un polynôme / (x) sur un champ P peut avoir une
multitude de champs de décomposition. On pourrait démontrer que
les champs minimaux contenant le champ P et n zéros du polynôme
/ (x) (n étant le degré de / (x)) sont tous isomorphes. Mais nous n ’uti­
lisons pas cette proposition et, pour cette raison, nous ne donnons
pas sa démonstration.
Zéros multiples. Nous avons démontré dans le paragraphe précé­
dent qu’un polynôme / (x) sur un champ P de caractéristique nulle
ne possédait pas de facteurs multiples si et seulement si / (x) et la
dérivée /' (x) étaient des polynômes premiers entre eux. Nous avons
également remarqué que l’absence de facteurs multiples pour un
polynôme / (x) sur un champ P garantissait l ’absence de facteurs
multiples de / (x) sur toute extension P de P. Appliquant ce résul­
ta t au cas d’un champ de décomposition P de f (x) et rappelant la
définition de zéros multiples, nous avons la proposition suivante:
Si un polynôme f (x) sur un champ P de caractéristique nulle ne
possède p is de zéros multiples dans un champ de décomposition donné,
alors f (x) et sa dérivée f (x) sont premiers entre eux. Réciproquement,
si } (x) et sa dérivée f (x) sont premiers entre eux, alors le polynôme
f (x) ne possède de zéros multiples dans aucun champ de décomposition.
Il en résulte, en particulier, qu’un polynôme f (x) irréductible sur
un champ P de caractéristique nulle ne peut avoir de zéros multiples
dans aucune extension du champ P. Dans le cas de champs de carac­
téristique finie cetté proposition cesse d’être vraie, circonstance
tenant un rôle important dans la théorie générale des champs algé­
briques.
316 CHAMPS ET POLYNÔMES [CH. X

Notons pour conclure que .les formules de Viète (cf. § 24) sont
conservées dans un champ quelconque ; en outre, les zéros du polynôme
appartiennent à un champ de décomposition de ce polynôme.

§ 50*. Champ des fractions rationnelles


La théorie des fractions rationnelles, exposée au § 25, se généralise
au cas d'un champ de base quelconque. Mais, en passant du champ des
nombres réels à un champ quelconque P , nous devons renoncer à
considérer l ’expression ^ ^ comme une fonction de la variable x,
car ce point de vue n ’est plus applicable même dans le cas des
polynômes. On se propose d’attribuer un sens à une telle expression
lorsque les coefficients appartiennent à un champ quelconque P.
Plus précisément, nous voulons construire un champ qui contiendrait
l ’anneau des polynômes P [x] et tel que les opérations d ’addition
et de multiplication, définies sur ce champ, coïncident dans le cas
des polynômes avec celles sur l ’anneau P [x] ; bref, l ’anneau P \x]
doit être un sous-anneau du champ en question. D’autre part, tout
élément du champ cherché doit se représenter comme quotient de
deux polynômes (le quotient devant être interprété du point de
vue de la division définie sur ce champ). Nous allons montrer que
pour tout P on peut construire un tel champ ; il est noté P (#) (l’in­
déterminée est encadrée par des parenthèses et non par des crochets!)
et dit champ des fractions rationnelles sur un champ P,
Supposons d’abord que l’anneau P [x] soit un sous-anneau d’un
champ Q. Soient / (x) et g (x) deux polynômes de P [x] ; en outre,
g (x) =7^ 0. Alors il existe dans le champ Q un élément, bien défini,
égal au quotient de la division de / (x) par g (x). Notant cet élément
par , comme il est admis de le faire dans le cas d’un champ,
nous pouvons écrire, utilisant la définition d’un quotient:

= (i)

le produit devant être interprété du point de vue de la multiplica­


tion dans le champ Q. Il peut arriver que deux quotients, soit
et , définissent un même élément du champ Q ; ceci a lieu
g (*) y (x) * v
si nous avons la condition ordinaire d’égalité de deux fractions:
f (p
On a ^ si et seulement si / (x) ijj (x) = 9 (x) g (x).
En effet, si -~ y = | = a, alors, d ’après (1), on a
/ <x) = g (x) a, cp(x) = i[) (x)a,
S 50) CHAMP DES FRACTIONS RATIONNELLES 317

d ’où
/ (x) i|>(x) = g (x) 1|>(x) a = g (x)<p (x).
Inversement, si / (x) ^ (x) —g (x) cp(x) = u (x) dans le* sens de la
multiplication dans P[x], alors passant au champ Q, on obtient
les égalités :
/ (*) = u [x) = <p(»)
*{*) Ÿ(*)
Ensuite, il est facile de voir que la somme et le produit de deux
éléments de Q, qui sont quotients de polynômes de P [x], sont encore
des quotients de polynômes de P [x] ; en outre, les règles ordinaires
d ’addition et de multiplication de fractions sont valables:
f ( x) , 9 (*) _ J (*) t (*)+f (*) (*)
( 2)
g (*) ^ (*) g (x) (*)
f(x) cp(a?) __ f (x)'y (z)
g(x) ' ÿ(x) g(x)-y(x) (3)
En effet, multipliant les deux membres des égalités (2) et (3)
par le produit g (x)^ (x) et appliquant (1) nous obtenons des égalités
vraies dans l ’anneau P [x]. A présent, les égalités (2) et (3) découlent
du fait que, vu l’absence de diviseurs du zéro dans Q, les deux mem­
bres de chaque égalité obtenue de cette manière peuvent être simpli­
fiés par un élément non nul g (x) (x) en conservant les égalités.
Ces préliminaires suggèrent une voie de construction du champ
P (x). Soient un champ P et l’anneau des polynômes P [x] sur le
champ P . Faisons correspondre à tout couple ordonné de polynômes
/ (x) et g (x) de P [x], avec g (x) =^= 0, un symbole appelé fraction
g Ve )
rationnelle de numérateur f (x) et de dénominateur g (x). Soulignons que
ce n’est qu’un symbole, car la division dans l’anneau P [x] est,
dans le cas général, impossible et l ’anneau P [x], pour le moment,
n ’appartient à aucun champ; quand bien même g (x) serait un divi­
seur de / (x), il ne faut pas encore confondre le polynôme, quotient
de la division de / (x) par g (x), et le symbole
Maintenant, deux fractions rationnelles <p(*) sont dites
et y{x)
g(x)
égales et on $prit :
f(x) <p (x)
(4)
g {*) ^|>(x)
si on a dans l’anneau P [x] l ’égalité / (x) (x) = g (x) qp (x). Il est
clair que toute fraction est égale à elle-même et que si une fraction
est égale à une autre, alors cette dernière est égale à la première.
Montrons la transitivité de cette notion d’égalité. Soient l ’égalité (4)
318 CHAMPS ET POLYNÔMES [CH. X

et Tégalité
CP(S) _ M(g) /cv
(s) y (x) ' '
Les égalités
/ (s) ^ (a:) = g (x) cp(s), cp (s) i; (s) = i|) (x) u (a;),
équivalentes à (4) et (5) dans l'anneau P [a:], entraînent:
/ (a:) v (x) ty(x) = g (x) (p (a;) v(x) = g(x)u (x) tp (x) ;
donc, simplifiant par l'élément non nul qu'est le polynôme ty(z)
(^(æ) est non nul en tant que dénominateur d’une des fractions),
il vieut
f(z)v{x) = g(z)u(z),
d'où, en vertu de la définition de l ’égalité des fractions, on a
f(x) _ u(x)
g (*) V (x) ’

ce qu'il fallait démontrer.


Réunissons maintenant en une classe toutes les fractions égales
à uneMnême fraction; en vertu de la transitivité de l ’égalité, les
fractions d’une même classe sont égales. Si une classe contient une
fraction qui n'appartient pas à une autre classe, alors ces deux clas­
ses n'ont pas d’éléments'communs, comme il s'ensuit de la transiti­
vité de l’égalité.
Ainsi, l'ensemble des fractions rationnelles, écrites au moyen
des polynômes de l'anneau P [x ], est une réunion de classes disjoin­
tes, chaque classe étant composée des fractions égales. A présent,
nous voulons définir les opérations algébriques sur Vensemble de ces
classes de manière qu'il devienne un champ. ‘Définissant les opéra­
tions sur les fractions rationnelles, nous devons vérifier chaque fois
qu'en remplaçant les termes (les facteurs) par des fractions égales,
la somme (le produit) se trouve remplacée par une fraction égale.
Cela nous autorisera à parler d’une somme et d’un produit, bien
définis, des classes de fractions égales.
Faisons d’abord une remarque qui, par la suite, sera utilisée
plus d ’une fois: multipliant le numérateur et le dénominateur d'une
fraction rationnelle par un même polynôme non nul ou les simplifiant
par un diviseur commun, nous obtenons une fraction rationnelle égale
à celle donnée initialement. En effet,
/ (*) / (g) h (g)
,g(x) g{z)h(z) ’
car on a dans l'anneau P [x] :
f{x)\g (x) h {x)) = g (x) lf (x) h (x)].
S 50] C H A M P D E S F R A C T IO N S R A T I O N N E L L E S 319

Définissons l 'addition des fractions rationnelles par la formule (2) ;


vu que g (a:) ^ 0 et i|> (x) ^ 0 , on a : g (x) (x) 0, de sorte que
le second membre dans (2) est, en effet, une fraction rationnelle.
Puis, soient
f te) _ /ote) 9 te) _ tpote)
g(x) ffote) ' 9 te) 9ote) ’
ou, encore,
f (x) g0(^) = g ( x ) U (*), 9 (z) i|Jo (*) = ^ {%) <Po(z) ; (6)
multipliant les deux membres de la premièreégalité (6) par
y ( x) y0( x ) et la seconde par g ( x ) g0( x ) et additionnant les égalités
obtenues» il vient :
[ f ( x ) yp(x) + g (x) y ( x) ] g 0 ( x) % { x ) =

= I /o ( z ) ^ 0 ( s ) + go ( z ) <Po ( * ) I g ( * ) ^ ( z ) ,
ce qui est équivalent à l ’égalité
/( s ) y (g)+g(g)q>(z) _ f Q(x) tpp (s) + go (*) <Po (x)
g {x) ofl (x) gQ(x) x|)0 {X)
Ainsi» soient deux classes de fractions égales; alors la somme de
toute fraction de la première classe et de toute fraction de la seconde
donne une même fraction, c’est-à-dire qu’elle appartient à une troi­
sième classe bien définie. Cette classe est la somme des classes données.
La commutativité de l ’addition ainsi définie résulte directement
de la formule (2), tandis que Y associativité se démontre de manière
suivante :
f / (*) » q>(*) 1 , u(x) _ f (x)y\}(x) + g(x) y (s) u(x) _
L g (*) ' y (X) J V(*) g ( X ) y (x) ^ V( X )
_ / (g) y (x) v{z) + g {x) y (x) u(x) + g (x) y {x) u (x) __
g {x) y (x) V (x)
__ f ( x) (p (x) v(x) + y]p (x ) u (x) _ / (x) r y (x) u (x) H
g(x)^~ q{x)v(x) g(x) L y(x) ^ v(x) J ’
Il découle aisément de la définition de l ’égalité de deux fractions
que les fractions de la forme — , c’est-à-dire les fractions à numé-
*(*)
rateur nul, sont toutes égales et forment une classe complète de
fractions égales. Appelons cette classe la classe nulle et montrons
qu’elle tient le rôle de l’élément nul par rapport à l ’addition définie
ci-dessus. En effet, soit une fraction yp(x)y (*) alors

_o__ , y [x) = o-y (s)+g(s) <p(g) __ g (*) y (*) _ y (s)


g (*) ^ y (*) g (*) y (*) gy (*) (*) y (*)
320 CHAMPS ET POLYNÔMES [CH. X

De l ’égalitë
/(*) ! -/(* ) = 0
g(x) g(x) g2(x) ’

dont le second membre appartient à la classe nulle, il s’ensuit que


la classe des fractions de la forme ^ est une classe opposée à celle
contenant les fractions égales à . On sait déjà qu’il en résulte
l ’existence de la soustraction bien définie.
Définissons la multiplication des fractions rationnelles par la
formule (3) ; en outre, vu que g (x) (x) 0, le second membredans
{3) est, réellement, une fraction rationnelle. Soient ensuite
/(*) _ /o(s) q>(*) <Po(g)
g{x) ëo(x) ’ ♦ (*) Ÿo(*) ’
c ’est-à-dire soient
/ (x) go (x) = g {x) /„ (X), <p(X) % (x) = Op(x) qp0(a:) ;
multipliant les deux dernières égalités, il vient
/ (x) go (x) <P{x) l ’o(x) = g (x) f0(æ) Ij) (x) <p0(x),
ce qui est équivalent à l ’égalité
/ (x ) y ( x ) _ fo(x)tp0 (x)
g (x )f(x j g o (*) 9o (* ) '’

Ainsi, par analogie avec la définition de la somme de classes donnée


ci-dessus, on peut parler du produit de classes de fractions égales.
La commutativité et l'associativité de cette multiplication résul­
tent immédiatement de (3), tandis que la loi de distributivité se dé­
montre de la manière suivante:
|~ / ( * ) | <P (*) 1 “ (*) _ / ( ^ ) t ( J ) + g ( i )<P(j:) “ (x)_
Lf ( i ) t 5 (i ) ?(*)!]>(*) *''»(*)
= [/ ( 4 *!>(*) + S (x) <P(J)] u (x) _ / (a) 1|) (x) u ( x ) 4- g (x) <p (x ) U (X)
g ( x) 9 (x) V ( x) g ( x) tj> (x) V ( x)
= _f (x) 9 (x) u (x) v (x) g (x) gp (x) u (x) v (x) _
— • g { x) H> (* ) f 2 ( x) ~
__ f { x ) u ( x ) <P (x) u (x) _ _ / (x) u (x) tp (x) u(x)
g (a;) v ( x ) "T" ij? (a:) u (a:) g (x) u ( x ) ' 'ij? (x) v (x)

/~(ï) , c’est-à-dire
Il est facile de voir que les fractions de la forme —
/ (*)
les fractions de numérateur égal au dénominateur, sont toutes égales
et forment une classe. Cette classe est appelée classe unité et tient
§ 50] CHAMP DES FRACTIONS RATIONNELLES 321

le rôle de l’élément unité pour la multiplication définie ci-dessus:


f (x) cp(s) _ /(g) y (g) = <p(g)
/ (*) " ^ (*) / (*) Ÿ(*) ÿ (*) \
Enfin, si une fraction n’appartient pas à la classe nulle,
c’est-à-dire f(x)^= 0, alors la fraction existe. Etant donné
l ’égalité
fis c ) S (s) _ / ( * ) g (*)
gis*)' f (*) g (*) / (*) 1
et vu que le second membre de cette égalité appartient à la classe
unité, la classe des fractions égales à y — est une classe inverse de
celle contenant les fractions égales à - — . Il en résulte l ’existence
6 g(x)
de la division bien définie.
Ainsi, Vensemble des classes de fractions rationnelles égales, à coef­
ficients dans un champ P , muni des opérations algébriques définies
ci-dessus, forme un champ commutatif. Il coïncide avec le champ cher­
ché P (x). D’ailleurs, il nous reste encore à démontrer que le champ
trouvé contient un sous-anneau isomorphe à l ’anneau P [x] et que
tout élément du champ est un quotient de deux éléments de ce sous-
anneau.
Faisant correspondre à tout polynôme f (#) de l ’anneau P [x ]
la classe des fractions rationnelles égales à (bien entendu, l ’en­
semble des fractions contient, en particulier, les fractions ayant
l’unité pour dénominateur), nous obtenons une application bijective
de l ’anneau P [z] sur une partie du champ construit. En effet,
l ’égalité
f(x) _ <p(z)
1 ~~ 1
aurait pour conséquence f (#) •1 = 1 •<p{x) ou, encore, / (x) =<p (x).
De plus, cette application est un isomorphisme, comme le montrent
les égalités:
/(*) | g(*). _ /(*)■!'+g(*H = / (g) + g(*)_
1 -1- 1 12 1’ 9
/(*) g(*) _ f(*)'g{*)
1* 1 1
f (»r)
Ainsi, les classes des fractions de la forme — ' forment un sous-
anneau du champ construit, qui est isomorphe à Vanneau P [x]. On
peut, donc, noter une fraction par f (x) tout court. Enfin, une
21—1212
322 CHAMPS ET POLYNÔMES [CH, X

classe des fractions égales à —-r-r avec g (x) 0 étant l’inverse de la


8 \aj)
classe des fractions égales à , il résulte de l ’égalité
/(*) 1 = /(*)
1 *g (*) g (*)
que les éléments du champ construit peuvent être considérés comme quo­
tients (dans le sens de la division définie sur ce champ) de deux poly­
nômes de Vanneau P lx].
Nous avons construit le champ des fractions rationnelles P (x)
sur un champ P quelconque. Utilisant la même méthode et rempla­
çant l’anneau des polynômes par l ’anneau des nombres entiers, on
peut construire le champ des nombres rationnels. Partant de ces
deux exemples et utilisant la même méthode, on pourrait démon­
trer le théorème suivant: tout anneau commutatif sans diviseurs
de zéro est un sous-anneau d ’un champ.
Chapitre X I POLYNOMES DE PLUSIEURS
INDÉTERMINÉES

§ 51* Anneau des polynômes de plusieurs indéterminées


Il arrive souvent qu’on doive considérer des polynômes dépen­
dant non pas d’une indéterminée, mais de deux, trois et, plus géné­
ralement, de plusieurs indéterminées. Ainsi, nous avons déjà étudié
dans les premiers chapitres du livre les formes linéaires et quadra­
tiques qui sont des exemples de tels polynômes. De façon générale,
on appelle polynôme de n indéterminées xly x 2, . . xn sur un champ
P et on le note f (xv x 2f . . ., xn) une somme finie de termes de la
forme x\*, x£2, . ♦ x*n, avec k t ^ 0, à coefficients dans le champ
P ; bien entendu, on suppose que la somme exprimant le polynôme
/ (xly z 2y . . xn) ne contienne pas de termes semblables et que
les termes précédés de coefficients nuis ne soient pas pris en considé­
ration. Deux polynômes de n indéterminées, f (xly x 2, . . ., xn)
et g (xly x 2y . . ., xn)y coïncident (ou sont identiques) si les termes
semblables dans leurs expressions ont les mêmes coefficients.
Soit un polynôme f.(xv x 2y . . ., xn) sur un champ P \ le degré
de f en Vindéterminée x iy i = 1, 2, . . ., n y est l ’exposant le plus
élevé de x x intervenant dans l’expression de /. Il peut arriver éven­
tuellement que ce degré soit 0; cela signifie que l’indéterminée x t
n ’intervient pas dans l’expression de /, quoiqu’on considère f comme
un polynôme de n indéterminées x ly x 2y * . «, xn.
D’autre part, appelant degré du terme
1 c
. . . xn
le nombre + k %+ . . . + kny c’est-à-dire la somme des exposants
des indéterminées, le degré d'un polynôme f (xly x 2y . . ., xn) (c’est-à-
dire le degré de f par rapport à l’ensemble des indéterminées)
est le degré le plus élevé de ses termes.
En particulier, tout comme dans le cas d’une indéterminée,
les polynômes de degré nul coïncident avec les éléments non nuis
du champ P et le polynôme nul est le seul polynôme de n indétermi­
nées dont le degré ne soit pas défini. Il est clair que généralement un
polynôme peut avoir plusieurs termes de degré le plus élevé et l’on
ne peut plus parler d’un terme principal d’un polynôme (du point
de vue du degré de ce polynôme).
324 POLYNÔMES DE PLUSIEURS INDÉTERMINÉES [GH. XI

On définit de la manière suivante les opérations d’addition et de


multiplication pour les polynômes de n indéterminées sur un champ
P . On appelle somme de deux polynômes f (xv x 2> . . xn) et
g (xXl x 21 . • •» z n) Ie polynôme à coefficients sommes des coeffi­
cients des termes semblables des polynômes / et g ; évidemment, si
un terme du polynôme / n’a pas de terme semblable dans l ’expres­
sion de g, alors on considère que ce terme est précédé du coefficient
nul dans l’expression de g; on admet la même convention pour tout
terme de g n’ayant pas de termes semblables dans l ’expression de /.
Le produit de deux « monômes » est défini par la formule
ax^lx ^ . . . x*n *bxlf x lg . . . xl* = (ab) . . . x^n+ln ;
ceci étant, on définit le produit de deux polynômes / (xl7 x 2y . » ., xn)
et g {xv x 2, . . XjÙ en multipliant terme à terme et en groupant
ensuite les termes semblables.
L'ensemble des polynômes de n indéterminées sur un champ Py
muni des opérations définies ci-dessus, devient un anneau commutatif ;
en outre, cet anneau ne possède pas de diviseurs de zéro. En effet, pour
n = 1 nos définitions coïncident avec celles données au § 20 dans
le cas des polynômes d’une indéterminée. Supposons que les polynô­
mes de n — 1 indéterminées à coefficients dans un champ P forment
un anneau sans diviseurs de zéro. Tout polynôme de n indéterminées
xly x 2J . . xn peut être représenté d ’une façon unique sous forme
de polynôme de l’indéterminée xn dont les coefficients sont des poly­
nômes de x v x 2, . . xn_x\ réciproquement, tout polynôme de
xn dont les coefficients sont des éléments de l’anneau des polynômes
de xx, z a, . . xn_x sur un champ P peut être considéré comme
un polynôme sur le champ P dépendant de l ’ensemble des indéter­
minées x v x 2> . . xn xn. On vérifie aisément que l’application
bijective établie entre les polynômes de n indéterminées et les poly­
nômes d’une indéterminée sur l’anneau des polynômes de n — 1
indéterminées est un isomorphisme par rapport aux opérations
d’addition e id e multiplication. A présent, notre proposition résulte
du fait que les polynômes d’une indéterminée sur l ’anneau des
polynômes de n — 1 indéterminées forment un anneau; en outre,
cet anneau, en tant qu’anneau des polynômes d’une indéterminée
sur un anneau sans diviseurs de zéro, ne contient pas non plus de divi­
seurs de zéro (cf. § 47).
Nous avons donc démontré l’existence d’un anneau des polynômes
de n indéterminées sur un champ P ; cet anneau est noté par le symbole
P [^ii ^2» • *
Les considérations qui suivent permettent de considérer un anneau
des polynômes de n indéterminées sous un autre angle. Supposons
que le champ P soit un sous-anneau d’un anneau commutatif L.
Choisissons dans L n éléments, soit a l7 a a, . . ., a n, et trouvons
§ 51] ANNEAU DES POLYNÔMES DE PLUSIEURS INDÉTERMINÉES 325

un sous-anneau minimal V de l’anneau L, contenant les éléments


choisis et le champ P, c’est-à-dire formons un sous-anneau qui
s’obtient par adjonction au champ P des éléments a 1? a 2, . . ., a n.
Le sous-anneau JJ se compose des éléments de l ’anneau L qui s’ex­
priment par les éléments a lt a 2, . . ., an et ceux du champ P au
moyen de l ’addition, dé la soustraction et de la multiplication.
Il est facile de voir que ce sont exactement ceux des éléments de
l’anneau L qui peuvent être représentés (au moyen des opérations
dans L) sous forme de polynômes de a 1? a 2, . . an à coefficients
dans P ; en outre, l ’addition et la multiplication de ces éléments,
en tant qu’éléments de L, se font d’après les règles d ’addition et
de multiplication des polynômes de n indéterminées indiquées
ci-dessus.
Evidemment, un élément donné p du sous-anneau L' peut avoir,
dans le cas général, plusieurs écritures sous forme d ’un polynôme
de cc1} a 2, * . . an à coefficients dans P . Si pour tout p de V une
telle écriture est unique, c’est-à-dire si des polynômes de a x, a 2, . . .
. . ., an distincts sont des éléments distincts de l ’anneau V (et, par
conséquent, de l ’anneau L), alors la famille des éléments a lT a 2, . . .
. . ., an est dite algébriquement indépendante sur le champ P \ dans
le cas contraire, cette famille est dite algébriquement dépendante L
On peut en déduire la conclusion suivante :
Soient un champ P , sous-anneau d'un anneau commutatif L , et
une famille des éléments aly a 2, . . ., an de L algébriquement indépen­
dante sur P; alors.le sous-anneau JJ (de Vanneau L), engendré par
adjonction au champ P des éléments a 1? a 2, . . a ni est isomorphe
à Vanneau des polynômes P [xly x 2, . . ., xn].
Parmi les autres propriétés de l'anneau des polynômes de n
indéterminées P [xv x2, . . . » xn] indiquons encore la propriété
suivante: on peut inclure l ’anneau P [xly x^y . . ., xn] dans le
champ des fractions rationnelles P (#lT x 2, . . ., xn) de n indétermi­
nées sur le champ P . Tout élément de ce champ peut être écrit sous
la forme y avec / et g éléments de l’anneau P [xv x2, . . ., xn] ;
en outre, y = -y si et seulement si /tj> —g<p. L’addition et la multipli­
cation de ces fractions s’effectuent d’après les règles qui sont vala­
bles pour les quotients dans tout champ, comme il l’a été indiqué
au §45. La démonstration de l’existence du champ P (xlTx 2, . . xn)
peut être faite de la même manière qu’au § 50 pour ri ~ 1.

1 Les notions correspondantes pour n ~ 1 ont été déjà introduites au


§ 47 : un élément a, algébriquement indépendant sur un champ P au sens de la
définition donnée ici, a été appelé au § 47 transcendant sur P (dans le cas de
dépendance algébrique, a a été appelé algébrique sur P).
326 POLYNÔMES DE PLUSIEURS INDÉTERMINÉES [GH, XI

La théorie de divisibilité des polynômes d’une indéterminée étudiée dans


les chapitres V et X peut être développée et généralisée pour les polynômes de n
indéterminées. Cependant, n’ayant pas pour hut une étude détaillée de l’anneau
des polynômes de plusieurs indéterminées, nous nous bornerons ici à la considé­
ration des problèmes concernant la décomposition d ’un polynôme en facteurs
irréductibles.
Introduisons d ’abord la notion suivante: un polynôme f (xu x2, . . xn)
dont tous les termes sont de même degré s est appelé polynôme homogène
ou, encore, forme de degré s . On a déjà étudié les formes linéaires et
quadratiques ; on peut aussi considérer les formes cubiques dont tous
les termes sont de degré 3 par rapport à l’ensemble des indéterminées, etc.
Tout polynôme de n indéterminées peut être représenté de façon unique sous
forme de somme dyun certain nombre de polynômes homogènes de degrés différents :
pour obtenir une telle représentation il suffit de grouper les termes de même
degré. Ainsi, le polynôme du quatrième degré / (xj, x2, x3) — 3x^1 —7xfx| +
-+• x 2 — 5xixzx3 + xf — 2x3 — 6 + xf est la somme de la forme du quatrième
degré xf — 7xjx§, de la forme cubique 3x^1 — 5x!x2x3 ~f~ xj*, de la forme linéai­
re x 2 — 2x 3 et de la forme —6 (forme de degré nul).
Démontrons maintenant le théorème :
Le degré du produit de deux polynômes non nuis de n indéterminées est égal
à la somme des degrés des polynômes.
Supposons d ’abord que nous ayons deux formes, soit <p (®4, x2, . . . » xrt)
de degré 5 et 9 (xt1 x2, . . ., xn) de degré t . Le produit d’un terme de la forme <p
et d ’un termede la forme 9 est, manifestement, de degré s + t , desorte que
le produit 99 est une somme de termes de degré s + t, car, groupant lestermes
semblables, on ne peut pas annuler tous les coefficients du produit, vu l’absence
de diviseurs de zéro dans l ’anneau P [xit x 2, . . ., xnb
Soient maintenant deux polynômes / (xt, x2, . . xn) de degré s et
g (x4, x2, . . . » x^) de degré t. Représentant f et g comme sommes de Formes de
degrés différents, on obtient:
/ (^li x21 ■• • ? %n) ^ 9 (^l* »%n)
g (Xj, x 2, . . . , Xn ) = 9 (Xj, x 2l . . . , x n ) “f- . . .

où 9 et 9 sont des formes de degrés respectivement a et f et les points de


suspension désignent des formes de degrés inférieurs respectivement à s
et à f. Alors
/* = <PŸ+ ... i
d’après ce qui vient d ’être démontré, la forme 99 est de degré s + t ; les degrés
des termes désignés par les points de suspension étant inférieurs à s + t, le
degré du produit fg est 5 + t. Le théorème est démontré.
Un polynôme 9 est un diviseur d’un polynôme / (ou / est divisible par 9)
s’il existe dans l ’anneau P [xit x2, . . . » xn ] un polynôme 9 tel que f = 9 9 .
Il est facile de voir que les propriétés de divisibilité I-IX du § 21 sont conservées
dans le cas général considéré. Un polynôme / de degré k, h >■ 1, est dit réductible
sur un champ P s’il se décompose en un produit de polynômes de l’anneau
P [x4, x2, . . xn ] de degrés inférieurs à k; dans le cas contraire / est dit
irréductible.
Tout polynôme de Vanneau P [x4, x2, . . ., x^] de degré non nul se décompo­
se en un produit de facteurs irréductibles. Cette décomposition est unique à des fac­
teurs de degré nul près.
Ce théorème généralise les résultats correspondants du § 48 concernant les
polynômes d'une indéterminée. Sa première partie se démontre en répétant
littéralement les raisonnements du § 48. La démonstration de la seconde partie
est plus difficile. Avant de passer à cette démonstration, notons que la seconde
§ 51] ANNEAU DES POLYNÔMES DE PLUSIEURS INDÉTERMINÉES 327

partie du théorème a pour conséquence la proposition suivante : si le produit de


deux polynômes f et g de Vanneau P [x 1, 2:2» ♦ • -, xn ] est divisible par un polynôme
irréductible p } alors, au moins un des facteurs f et g est divisible par p . En effet,
supposant le contraire, nous obtiendrions pour le produit fg deux décompositions
différentes en facteurs irréductibles, Tune ^contenant p et l ’autre ne le conte­
nant pas.
Raisonnons par récurrence sur le nombre d’indéterminées. Le théorème
étant vrai pour n — 1, supposons qu’il soit déjà démontré pour les polynômes
de n indéterminées. Nous voulons le démontrer pour tout polynôme y ae (n + 1)
indéterminées x , xiy x 2f . . x n. Ecrivons ce polynôme sous la forme <p (x) ;
les coefficients de q> (x) sont, donc, des polynômes de xiy x2, . . . » s*. Pour ces
polynômes, en vertu de l ’hypothèse de récurrence, le théorème est vrai, c’est-à-
dire chacun de ces polynômes se décompose de façon unique en un produit de
facteurs irréductibles. Appelons un polynôme cp (x) prim itif (plus précisément,
polynôme prim itif sur Vanneau P [xj, x2, » « «, x„J) si ses coefficients n ’ont pas
de facteurs irréductibles communs, c’est-à-dire si les coefficients de q) (x) for­
ment une famille de polynômes réciproquement premiers ; démontrons le lemme
de Gauss :
Le produit de deux polynômes primitifs est un polynôme prim itif .
En effet, soient deux polynômes primitifs à coefficients dans l’anneau
P [xiy x2, . . xn] :
/ (x) = a0x**+ + . . . -fa,-**-* + . . . + ah7
g (x) = bcx* -{- b\xl~I -|- , . , -|- bjxl~3 -f-. .. bi
et soit
/ (x) g (x) = c0x*+l + qxfc+l-l + .. «+ ci + + . . . + ch+l.
Si ce produit n ’est pas primitif, alors les coefficients c0y ciy . . ., ch+i possè­
dent au moins un facteur irréductible commun, soit p — p (xiy x 2, . . .,
Les coefficients du polynôme primitif / (s) n ’étant pas tous divisibles par p,
soit àt le premier de ces coefficients qui n’ait pas p pour facteur; de même,
désignons par bj le premier des coefficients du polynôme g (x) qui ne soit pas
divisible par p. Multipliant terme à terme f (x) et g (x) et groupant les termes
semblables contenant zh+Mi+b, nous obtenons:
— + • •• + ®i+i&M+ aU2pj-2~\" • • •
Le premier membre de cette égalité est divisible par le polynôme irréductible p .
fl en est de même pour tous les termes du second membre, excepté le premier ;
en effet, vu les conditions imposées sur le choix des indices i et /, les coefficients
Û7_2, . . . et bj_i} bj_2, , . . sont divisibles par p. Il en résulte que
le produit atbj l ’est également, de sorte que, comme il l’a été montré
ci-dessus, au moins un des facteurs a*, bj est divisible par p, ce qui n’est
pas vrai. Ceci achève la démonstration du lemme de Gauss sous l’hypo­
thèse de récurrence que notre théorème soit vrai pour les polynômes de n
indéterminées.
On sait que l ’anneau P [xu x2, . . ., xn\ appartient au champ des fractions
rationnelles P (xlt x2t . . x n) que nous noterons par
Q — P (x i, £2» x n)•
Considérons l ’anneau des polynômes Q [x]. Si un polynôme <p (x) appartient à
cet anneau, alors ses coefficients sont des quotients de polynômes de l’anneau
P l*i 1 x h • . *^1. Mettant en facteur le dénominateur commun de ces quo­
tients, puis les facteurs communs des numérateurs, on peut représenter <p (x)
sous la forme
<p(*)=-£-/(*)•
328 POLYNÔMES DE PLUSIEURS INDÉTERMINÉES [CH. XI

Ici a et b sont des polynômes de l’anneau P [xlt x2, •. * xn ] et f (z) est un


polynôme de x ,à coefficients dans P [xu x2, . . x^]; de plus, / (z) est un
polynôme primitif, car ses coefficients n ’ont pas de facteurs communs.
De cette manière on fait correspondre a tout polynôme <p (x ) de l ’anneau
Q [x] un polynôme primitif / (a). Pour tout <p (x) le polynôme correspondant f (z)
est bien défini à un facteur non nul dans le champ P près. En effet, soit

< p W = j / W = j f ( I ).

où g (a:) est encore un polynôme primitif. Alors


adf (z) = bcg (x).
Ainsi, ad et bc sont obtenus en mettant en facteur les diviseurs communs des
coefficients d’un même polynôme sur l ’anneau P [xj, x2, . . . » xn]. Le théorème
d ’unicité de la décomposition en facteurs irréductibles étant supposé vrai pour
les polynômes de n indéterminées (hypothèse de récurrence), il en résulte que
ad et bc doivent coïncider à un facteur de degré nul près. Par conséquent, les
polynômes primitifs / (z) et g (x) coïncident au même facteur de degré nul près.
A u produit de deux polynômes de Vanneau Q [x] on peut associer le produit dé
deux polynômes primitifs correspondants. En effet, soient

<P(*) = -£-/(*). '(>(* )= - j' ? (*),


où / (a;) et g(x) sont primitifs ; alors
\ ■
ac
<P(*) (x ) f (*) s (x).

Or orna démontré ci-dessus que le produit f (s) g {x) est un polynôme primitif.
Notons ensuite que si un polynôme <p {x) de Vanneau Q [x] est irréductible
sur le champ Q , alors le polynôme prim itif correspondant f (x}, en tant que polynôme
de x, x iy x2, « • •, x n, Vest aussi; la réciproque est aussi vraie. En effet, supposons
que le polynôme / soit réductible, / = / 4/ 2; alors les deux facteurs U et / 2 doi­
vent dépendre de x, car, dans le cas contraire, / ne serait pas primitif. Il en
découle la décomposition du polynôme <p (x) sur le champ Q :

<P(* )= -yf(x)= ( t * 1) f*‘


Inversement, si le polynôme cp (x) est réductible sur Q} <p (x) = (x) <p2 (x)t
alors les polynômes primitifs correspondants f\ (x) et / 2 (x) dépendent tous les
deux de x ; or on a démontré ci-dessus que leur produit est égal à / (x) (à un fac­
teur du champ P près).
Soit maintenant un polynôme primitif / ; décomposons / en facteurs irréduc­
tibles: / = / j ./2 • • • /a- Non seulement chacun de ces facteurs dépend de x,
mais il est. aussi un polynôme primitif, car, dans le cas contraire, f ne serait
pas primitif. Cette décomposition d'un polynôme prim itif est bien définie à des
facteurs, éléments non nuis de P, près. En effet, vu le lemme précédent, on peut
considérer cette décomposition comme la décomposition de / (x) en facteurs
irréductibles sur le champ Q; or, pour les polynômes d’une indéterminée sur
pn champ quelconque l’unicité de la décomposition en facteurs irréductibles
a été déjà démontrée; cette unicité a lieu à un facteur de Q près; cependant,
dans notre cas, vu que les facteurs fi sont primitifs, l ’unicité de la décomposition
en facteurs irréductibles a lieu à des facteurs, éléments non nuis de P, près.
Ces lemmes étant établis en partant de l’hypothèse de récurrence sur le
nombre d’indéterminées, la démonstration du théorème énoncé ci-dessus se fait
§ 51] ANNEAU DES POLYNÔMES DE PLUSIEURS INDÉTERMINÉES 329

sans aucune difficulté. En effet, tout polynôme irréductible de Panneau


P [xt\ xlt x 2, » » », xn] est soit un polynôme irréductible de Panneau
P [Xi, x%y , . a^}, soit un polynôme primitif irréductible. Il en résulte que
quelle que soit la décomposition d’un polynôme q) (a:, «4, x 2y . . ., a^) en
facteurs irréductibles, on peut, en groupant convenablement les facteurs, met­
tre <p sous la forme
q>(x, x^f £2, »*«» xn) — a (^1* ®2» xn) f (x > xu x%> xn)i
où a ne dépend pas de x et / est un polynôme primitif. Or, on sait que cette
représentation de <p est unique à des facteurs, éléments de P , près. D’autre part,
l ’unicité de la décomposition en facteurs irréductibles étant vraie pour le poly­
nôme a de n indéterminées en vertu de l ’hypothèse de récurrence et pour le poly­
nôme primitif / d’après le lemme précédent, le théorème énoncé est également
!démontré dans le cas des polynômes de n -f- 1 indéterminées.
Des lemmes'démontrés ci-dessus il découle un autre corollaire intéressant:
si un polynôme <p (a;) à coefficients dans P [xu x 2, . . x n] est réductible sur le
champ Q = P (a:*, x 2l • . ., xn)y alors q) (a:) peut être décomposé en facteurs dépen­
dant de x et ayant pour coefficients des polynômes de Vanneau P [xi3 x 2% . . ., xn].
En effet, soit f (x) le polynôme primitif correspondant à un polynôme q> (a:),
c’est-à-dire q) (æ) = af (a;) ; alors, on sait qu’une décomposition de cp (a:) entraîne*
celle de / (x) ; mais cette dernière conduit à la décomposition de q> (z) sur l’anneau
P xn 1*
Différemment dti cas des polynômes d ’une indéterminée qui peuvent être
décomposés en facteurs linéaires sur une extension convenablement choisie
d’un champ de base donné (cf. § 49), il existe pour tout champ P des polynômes
de degré quelconque de plusieurs indéterminées (égales ou supérieures à deux)
tels qu'ils soient a b s o l u m e n t i r r é d u c t i b l e s , c’est-à-dire des poly­
nômes tels qu’ils restent irréductibles Quelle que soit l’extension du champ*
de base P.
Tel est, par exemple, le polynôme
/(*, y) = <P(*) + y*
où (p (a:) est un polynôme quelconque d’une indéterminée sur un champ P.
En effet, s’il existait une extension de P , soit P, telle que la décomposition*
/(*» jO—*(*» y ) k ( x * y)
ait lieu, alors, écrivant g et h suivant les puissances de y, nous aurions, par
exemple, que
g (x f y) = a0 (x)y + a1(x)t h (x, y ) ~ b 0 (x),
c’est-à-dire que h ne dépend pas de y, puis, vu l ’égalité a0 (x) b0 (x) = 1, que-
b0 (x) est de degré nul, c/est-à-dire que b ne dépend pas de x non plus.
Ordre lexicogràphique des termes d’un polynôme. Il y a deux
façons naturelles d’ordonner les termes des polynômes d’une indé­
terminée, à savoir suivant les puissances décroissantes et suivant les
puissances croissantes de l ’indéterminée. Il n’en est pas ainsi pour
les polynômes de plusieurs indéterminées ; par exemple, soit un
polynôme du cinquième degré de trois indéterminées:
f (xit x2, X3) = XiX\xl + x\x3+ x*x\ -f x[x2x\,
on peut aussi l’écrire sous la forme
/(*!» #2 . £3) = X{X3+ x\x2X%+ Xtxlxl + X\X\,
330 POLYNÔMES DE PLUSIEURS INDÉTERMINÉES [GH. X t

et il n'y a pas de raisons de préférer l ’une de ces écritures à l ’autre.


Néanmoins, il existe une façon bien définie d’ordonner les termes
d’un polynôme de plusieurs indéterminées, quoiqu’elle dépende du
choix de l ’énumération des indéterminées; pour les polynômes d’une
indéterminée elle donne l ’écriture suivant les puissances décrois­
santes de l ’indéterminée. Cette façon d’ordonner les termes, dite
lexicographique, est suggérée par la méthode usuelle d’ordonner
les mots dans un dictionnaire (dans un « lexique ») : les lettres étant
ordonnées suivant l ’ordre alphabétique, on définit la place des
mots dans un dictionnaire par leur première lettre ; deux mots ayant
les mêmes premières lettres, on définit leurs places respectives par
les lettres qui suivent immédiatement les premières lettres, etc.
Soient un polynôme f (xx, x 21 : . xn) de l ’anneau
P [xv x 2> . . xn] et deux termes différents de /:
(1)

zll X2 Xn ' (2)


précédés de coefficients, éléments non' nuis du champ P. Les ter­
mes (1) et (2) étant distincts, au moins Tune des différences des
exposants des indéterminées
lil 1 = 1 ,2 ,
est non nulle. Le terme (1) est dit supérieur au terme (2) (et le ter­
me (2) est dit inférieur à (1)) si la première des différences non nul-
les est positive, c’est-à-dire s’il existe un indice i> 1 ^ i ^ w, tel que
—^21 • • • î i» mais fci
Autrement dit, le terme (1) est supérieur au terme (2) si l ’exposant
de xx dans (1) est supérieur à l ’exposant de xx dans (2) ou si, les
exposants de xx étant les mêmes, l ’exposant de x 2 dans (1) est plus
grand que l ’exposant de x 2 dans (2), etc. Il est facile de voir que,
le terme (1) étant supérieur au terme (2), cela ne signifie nulle­
ment que le degré du terme (1) par rapport à l ’ensemble des indéter­
minées soit s upérieur à celui du terme (2) ; en effet, des deux termes
^ 2^3, x t3%xl
le premier est supérieur bien qu’il soit de degré inférieur.
Il est clair que pour tout couple de termes distincts d’un poly­
nôme f (x) l ’un est supérieur à l ’autre. Il est également facile de
vérifier que si le terme (1) est supérieur au terme (2) et le terme (2)
au terme
xmixm2 t ■pltlfl (3)
c’est-à-dire s’il existe un indice /', 1 < /< [ « , tel que
| —772>2j - • • j i/—
i ” TÎXj—
j j mais Ij ^ Jthji
§ 51] ANNEAU DES POLYNÔMES DE PLUSIEURS INDETERMINEES 331

alors le terme (1) est supérieur au terme (3), et cela indépendamment


du fait que i soit plus grand, égal ou plus petit que Ainsi, ordon­
nant les termes d’un polynôme suivant l ’ordre de décroissance défi­
ni ci-dessus, nous obtenons un ordre bien défini des termes du poly­
nôme / (xly x 2, « « «, xn) dit ordre lexicographique.
Ainsi, le polynôme
f( x i, x2y a3, X4) — zl-\-3xlxlxz — xlxlxl + 5ztxzxl + 2xz+ xlxi — 4
est écrit suivant l ’ordre lexicographique.
Un polynôme f (xly x 2, . . xn) étant écrit suivant l ’ordre
lexicographique, un de ses termes occupe la première place, c’est-à-
dire il est supérieur à tous les autres termes. Nous l ’appelons le
plus haut terme du polynôme ; dans l ’exemple précédent le terme x\
était le plus haut. Nous allons démontrer un lemme sur les plus
hauts termes ; ce lemme sera utilisé dans le paragraphe suivant.
Le plus haut terme du produit de deux polynômes de n indétermi­
nées est égal au produit des plus hauts termes des facteurs,
En effet, soient deux facteurs f (xly x2, . . xn) et g lxly x 2, . • m3în) *
Soient
a x ^ x ^ . . . x^1, (4)
a'xfix?* . . . xfnn, (5)
respectivement le plus haut terme et un autre terme quelconque
du polynôme f{x u x2l . .., xn) ; alors il existe un indice
tel que
foi = Si 1 « - « > foi-i = $ i- i» foi
D’autre part, soient
bx\ixl* . . . sJ», (6)
b'x^x** . . . x** (7)
respectivement le plus haut terme et un autre terme quelconque
du polynôme g (x it x2> .. xn) ; alors il existe un indice /, 1 < / < n ,
tel que
^1 ” 1 ■• • » lj- i= U-i» h ^
Multipliant les termes (4) et (6), ainsi que les termes (5) et (7),
on obtient :
( 8)
(9)
Or, il est facile de voir que le terme (8) est supérieur au terme (9);
si, par exemple, i < j , alors
foi “h h —si “F ^ ♦ • • • 1foi-1+ h- 1 ^ sî-1 + i mais foi + l\ > Si -f- tf,
car k t > su lt ^ t t. On vérifie de la même manière que le terme (8)
est supérieur au produit des termes (4) et (7) et à celui des termes (5>
332 POLYNOMES DE PLUSIEURS INDÉTERMINÉES [CH. XI

et (6). Ainsi, le terme (8), produit des plus hauts termes des polynô­
mes / et g, est supérieur à tout autre qui s’obtienne par la multi-
plication terme à terme des polynômes / et g; par conséquent, le
terme (8) ne peut pas disparaître lorsque nous groupons les termes
semblables, autrement dit, il est le plus haut terme du produit fg.

§ 52. Polynômes symétriques


Parmi les polynômes de plusieurs indéterminées se font distin­
guer ceux qui sont invariants par rapport aux permutations des
indéterminées. Les indéterminées interviennent, donc, de façon
symétrique dans l ’expression de ces polynômes, c’est pourquoi ils
sont dits polynômes symétriques (ou encore fonctions symétriques).
Voici les plus simples exemples de tels polynômes : somme des
indéterminées xt + x 2 . . + xn, somme des carrés des indé­
terminées x\ + x\ + . . . + £*, produit des indéterminées x 1x 2 . . .
. . . xn, etc. Vu que toute permutation de n éléments est un produit
d ’un nombre fini de transpositions (cf. § 3), il suffit, pour démon­
trer la symétrie d’un polynôme, de vérifier qu’il est invariant par
rapport à toute transposition des indéterminées.
Par la suite nous considérerons les polynômes symétriques de n
indéterminées à coefficients dans un champ P. Il est facile de voir
que la somme, la différence et le produit de deux polynômes symétriques
sont des polynômes symétriques, c’est-à-dire les polynômes symétriques
forment un sous-anneau de l ’anneau P lxly x 2, , . xn] des poly­
nômes de n indéterminées sur un champ P, dit anneau des polynômes
symétriques de n indéterminées sur un champ P. Les éléments de P
(c’est-à-dire les polynômes de degré nul et le polynôme nul) appar­
tiennent manifestement à cet anneau, car ils sont invariants par
rapport à toute permutation des indéterminées. Tout autre polynôme
symétrique contient obligatoirement les n indéterminées et Son
degré en chaque indéterminée est le même ; en effet, si un terme du
polynôme symétrique f (xl7 x 2l ♦ • «, xn) contient l’indéterminée
Xi à la puissance k , alors la transposition des indéterminées x x et xj
dans ce terme donne encore un terme de /, qui contient Xj à la même
puissance k .
Les polynômes symétriques de n indéterminées
Ül = #1 + #2 + • ■• ^
<J? = #1^2 + #1^3 + . . . + X n - iX n ,
“ X 1 X2 X 3 + XiXçPi + . . . + Xn_ 2 Xn-iXn , ^

&n-i = Xf Xz * . • Xn. t + X t X 2 . . . Xn- 2 %n-\~ • . X 2 X$ - . Xn ,


On — X f à . . . Xn
§ 52] POLYNÔMES SYMÉTRIQUES 333

sont dits polynômes symétriques élémentaires. Ces polynômes (leur


symétrie est évidente) jouent un grand rôle dans la théorie des poly­
nômes symétriques. Ils sont suggérés par les formules de Viète
(cf, § 24), de sorte que les coefficients de tout polynôme d'une indé­
terminée, dont le coefficient du terme principal est Vunité, sont les
fonctions symétriques élémentaires (au signe près) de ses zéros. La rela­
tion entre les polynômes symétriques élémentaires et les formules de
Viète est très importante pour les applications des polynômes symé­
triques à la théorie dès polynômes d’une indéterminée; d’ailleurs,
ce sont justement ces applications qui nous incitent à l ’étude des
polynômes symétriques.
Les polynômes symétriques de n indéterminées xv £2, . . xn
sur un champ P formant un anneau, les propositions suivantes sont
évidentes : un polynôme symétrique élémentaire élevé à une puis­
sance entière positive ainsi que le produit de telles puissances,
précédé d’un coefficient de P, sont les polynômes symétriques;
il en est de même pour la somme finie de tels produits. Autrement
dit, tout polynôme des polynômes symétriques élémentaires av cr2, ■• *
. . ., on à coefficients dans P est symétrique, en tant que polynôme
des indéterminées xlf x 2f . . xn. Ainsi, pour n — 3, soit le polynô­
me o±o2 + 2a3. Remplaçant a^, o 2 et cr3 par leurs expressions, il
vient :
0 i0 2 + 2o3 = x\x%+ x\xz + x.fx\ + x\xz + xxx\ + x2xl + 5XiX2xs ;
le second membre est manifestement un polynôme symétrique de
*i, x z, x3.
La réciproque de ce résultat est le théorème fondamental de la
théorie des polynômes symétriques :
Tout polynôme symétrique de n indéterminées xx> £2, . . xn
sur un champ P est un polynôme des polynômes symétriques élémen
taires o,, <x2, . . on à coefficients dans P .
En effet, soit un polynôme symétrique
f { x u £2» • ■ Xn)
et supposons que son plus haut terme, suivant l’ordre lexicographi-
que, soit
Oo£jl£^ .. . x*n. (2)

Les exposants des indéterminées dans le terme (2) doivent satisfaire


aux inégalités
ftj> &2> . . . ^ hn» (3)
En effet, soit < ftf+j pour un certain indice i. Le polynôme
f (xv £2, . . ., xn) étant symétrique, le terme qui s’obtient de (2)
334 PO LY N Ô M ES DE P L U S IE U R S IN D É T E R M IN É E S [C H . XI

par la transposition des indéterminées x t et.Xi + 19 soit


. . . Xj*+»a£|.1 . . . a£n, (4)
doit également intervenir dans l ’expression de /. Cela nous conduit
à une contradiction, car le terme (4) est, du point de vue de l ’ordre
lexicographique, supérieur au terme (2), les exposants des zlt . . .
. . Xt „x étant les mêmes dans les deux termes et l ’exposant de x t
dans (4) étant plus grand que celui dans (2).
Formons maintenant le produit des polynômes symétriques
élémentaires :
qjj = (5)
(vu les inégalités (3), les exposants dans (5) sont non négatifs).
C’est un polynôme symétrique des indéterminées x±, z 2, . . xnr
dont le plus haut terme est (2). En effet, les plus hauts termes des
polynômes av o2» • • •» on sont respectivement xv xxx 2, xxx 2x z, . . .
• . xxx 2 . . . xn ; or* il a été montré dans le paragraphe précédent
que le plus haut terme du produit est le produit des plus hauts termes
des facteurs, de sorte que le plus haut terme de <px est
(xiX2)h*-H . . . (xlXz .. . xn_1)*n-1“ kn X
X (Xlxz . . . S h ^ O o O s W . . . Xnn.
Il en résulte que, retranchant <pL de /, le plus haut terme en
disparaît, c’est-à-dire le plus haut terme du polynôme symétrique
/ — qpi = /i est inférieur au terme (2), qui est le plus haut terme
de /. Appliquant ce même procédé au polynôme fv dont les coeffi­
cients sont encore des éléments du champ P, nous sommes conduits
à l ’égalité
fi = V2+ / 2»
où q>2 est le produit de puissances de polynômes symétriques élé­
mentaires muni d’un certain coefficient, élément de P , et f 2 est
un polynôme symétrique dont le plus haut terme est inférieur à
celui de f v II en découle l ’égalité
/=<Pi + <P2+ /2-
Continuant ce processus, nous trouverons un entier positif $
tel que f 8 = 0, ce qui nous conduira à l ’expression de / sous la forme
d’un polynôme de a lf c 2î • - on à coefficients dans P:
s
f fai» • • • J %n) — S 9* — 9 fai» * • • » O»)*
i=l
i 52] POLYNOMES SYMETRIQUES 335

En effet, supposant ce processus infini1, nous obtiendrions une


suite infinie de polynômes symétriques
f 1» fzy ••m /si (^)
le plus haut terme du polynôme f 8 étant inférieur à celui de /*_*,
$ = 2, 3, et, par conséquent, inférieur au terme (2). Or, le
monôme
bxlix\'* . ** xl* (7)
étant le plus haut terme du polynôme f6f la symétrie de f 8 entraîne
les inégalités analogues à (3) :
ln* (8)
D’autre part, le terme (2) étant supérieur au terme (7), on a
kt>h. (9)
Il est facile de voir qu'il n ’existe qu’un nombre fini de façons
dont on peut choisir les suites des entiers non négatifs l1? ia, . . ln
vérifiant les inégalités (8) et (9). En effet, renonçant même à l’iné­
galité (8) et supposant seulement des entiers non négatifs l h i =■
= 1, 2, » • «, n, bornés par l ’entier kv le nombre de façons dont
li peuvent être choisis est au plus (fcj + l)n. Il en résulte que la
suite des polynômes (6), dont les plus hauts termes forment une
suite décroissante au sens lexicographique, ne peut pas être infinie.
La démonstration du théorème est terminée.
La relation entre les polynômes symétriques élémentaires et les
formules de Viète signalée ci-dessus permet de déduire du théorème
fondamental sur les polynômes symétriques une conséquence impor­
tante :
Soit un polynôme f (x) d'une indéterminée sur un champ P ayant
l'unité pour coefficients du terme principal. Alors tout polynôme symé­
trique (à coefficients dans P) des z é r o s de f (x), qui appartiennent à un
champ de décomposition du polynôme f (x) sur le champ P, est un poly­
nôme (à coefficients dans P) des c o e f f i c i e n t s du polynôme f (x) et,
par conséquent, un élément du champ P .
La démonstration du théorème fondamental donne aussi une méthode pra­
tique de calcul de l’expression des polynômes symétriques par les polynômes
symétriques élémentaires. Introduisons d’abord une notation: soit un produit
de puissances des indéterminées xit xz, . . xn (dont quelques-unes peuvent

1 II faut prendre en considération que le polynôme contient, en général,


des termes n’intervenant pas dans f s_ u de sorte que le passage de à f8 —
—f s - i — 9 s provoque non seulement la disparition de certains termes de
/s_lt mais aussi l’apparition de nouveaux termes, et cela pour tout s, s =,
= 1, 2f . . -
336 POLYNÔMES DE PLUSIEURS INDÉTERMINÉES [CH. XI

être d'exposant nul)


«5**5*... *£n-î (io)
alors on note par
S («*»*»» ...* * » ) (11)
la somme des termes qui s’obtiennent de (10) par toutes les permutations des
indéterminées. Il est clair que cette somme est un polynôme symétrique homogè­
ne et que tout polynôme symétrique de n indéterminées contenant le terme (10)
contient, en même temps, tous les autres termes du polynôme (11). Par exemple,
S (x t) = o4, S — 02» S {x\) est la somme des carrés des indétermi­
nées, etc.
Exemple. Exprimer le polynôme symétrique/ = S (x\x2) de n indéterminées
en fonction des polynômes symétriques élémentaires.
Ici le plus haut terme est x\x2, de sorte que <p4 = g\~ xg2 — Oi<52, c’est-à-dire
—(x t + + • • «+ *n) (x l^2 + Xtx3 + . . . -{-Xn-iXn) =
= S (*1*2) + (xixZx3)>
d ’où on a
h= / — <Pi = —3*S (xtx2x3) = —3o3.
Ainsi, / = + fi = CTjcrz 3o3.
Dans les cas plus compliqués il est logique de déterminer d'abord les termes
qui peuvent intervenir dans l ’expression au polynôme donné par les polynômes
élémentaires et de trouver ensuite leurs coefficients par la méthode des coeffi­
cients indéterminés.
Exemples. 1. Trouver l’expression du polynôme symétrique / = S {x\v%)
en fonction des polynômes élémentaires.
On sait (cf. la démonstration du théorème fondamental) que les termes du
polynôme cherché <p (ot , a 2î . . on) sont déterminés par les plus hauts termes
des polynômes symétriques /lT f2, . . . ; en outre, ces plus hauts termes sont
inférieurs au plus haut terme du polynôme /, soit le terme x\x\. Trouvons tous
les produits de la forme x[l xl* ... vérifiant les conditions : 1) ils sont inférieurs
au terme 2) ils peuvent être les plus hauts termes de certains polynômes
symétriques, c’est-à-dire qu’ils satisfont aux inégalités l2 ... J*,
3) ils sont de degré 4 par rapport à l ’ensemble des indéterminées (car on sait
que tous les polynômes f u / 2l . . . sont du même degré que le polynôme homo­
gène /). N’écrivant que les combinaisons correspondantes des exposants et indi­
quant à côté les produits des puissances de Oj définis par ces combinaisons, nous
obtenons le tableau suivant:
22000 . . . a\~2o\~Q—
21100 . .. aî”1a j 'la^ ° = a1a3,
11Î 10 . . . = a4.
Ainsi, le polynôme / est de la forme
/= A01O3
Le coefficient de a 2 est l ’unité, ce terme étant défini par le plus haut terme du
polynôme / et, par conséquent, ayant le même coefficient (on le sait déjà de la
démonstration du théorème fondamental). Trouvons les coefficients A et B.
§ 52] POLYNOMES SYMÉTRIQUES 337

Posons xi = x2 = x 3■— 1, x4 = . » . = xn — 0. Il est facile de voir que


la valeur correspondante du polynôme / est 3, tandis que les valeurs des polynô­
mes alt a 2, <*3 et o4 sont respectivement 3, 3, 1 et 0. Par conséquent,
3 = 9 + A -3 .1 + 5 -0 ,
d ’où A = ~ 2 . Faisant maintenant xA= x2 = x3 = x4 = 1, x5 = . . . = xrt —
= 0, les valeurs correspondantes des polynômes /, oiy a2, a 3 et o4 deviennent
respectivement 6, 4, 6, 4, 1. Ainsi,
6 = 36—2 .4 .4 + 5 .1 ,
d ’où 5 = 2. Par conséquent, l ’expression cherchée de / est,
/ —0| —20|03 + 2CF4.
2. Trouver la somme dés cubes des zéros du polynôme
/ (£) = 24-|_a;3-|-2;r2+ : r + 1.
Afin de résoudre ce problème trouvons l ’expression du polynôme symétrique
S (x?) en fonction des polynômes symétriques élémentaires. Appliquant la
même méthode que dans l ’exemple précédent, nous obtenons le tableau:
3000 ... of,
2100 . . . 0^ 2,
1110 . . . o3,
de sorte que
S (xJ) = af + + ^ 3.
Posant d’abord xi = x2= 1, *3 = . . . = xn = 0, puis = x2= x3= 1,
x f. = . . . = xn = 0, nous obtenons  = —3, 5 = 3, c’est-à-dire
S (z\) = o j—30^2 + 3a3. (12)
Afin de calculer la somme des cubes des zéros du polynôme donné / (x),
il faut, vu les formules de Viète, remplacer dans l ’expression trouvée ci-dessus
<Ji par le coefficient de x3 avec le signe contraire, soit par —1, ensuite, remplacer
<j2 par le coefficient de x2, c’est-à-dire par 2, et, enfin, remplacer o3 par le coef­
ficient de x avec le signe contraire, soit par —1. Ainsi, la somme en question est
( —l )3—3*( — 1)-2 + 3-( — 1) = 2 .
Le polynôme f (x) ayant pour zéros les nombres complexes i, —t} V3
2
1 1/3
et — — i y - , le lecteur peut vérifier ce résultat directement. De même, il
est clair que la formule (12) ne dépend pas dé / (x) et permet de calculer la somme
des cubes des zéros pour tout polynôme.
La méthode qui permet d’exprimer un polynôme symétrique f
en fonction des polynômes symétriques élémentaires, donnée dans
la démonstration du théorème fondamental, conduit à un polynôme
de a lt cr2, .. . an bien défini. Il se révèle que toute méthode conduit
inévitablement à la même expression de / par 0+ cr2, • - ^,1- On a
le théorème d'unicité suivant :
Tout polynôme symétrique s'exprime de façon unique sous forme de
polynôme des polynômes symétriques élémentaires.
2 2 -1 2 1 2
338 POLYNÔMES DE PLUSIEURS INDÉTERMINÉES [CH, XI

Démontrons ce théorème. Soient deux expressions en fonction de


Qu or2, • • •» O* d’un polynôme symétrique sur un champ P:
f fat, x2, *•., Xn) = <Pfai, <x2» . . . , an) = i|) fai, <x2» • *» ;
alors la différence
X fa i» ^2* • • ■» Oit) =-<P f a i» <*2» • » * » 0 * ) “ ^ f a i» <*2» • * • » O n )

est un polynôme non nul de ax, cr2, . . an (c’est-à-dire % possède


des coefficients non nuis); d ’autre part, ce même polynôme avec
<Tlf a 2, » . on remplacés par xly x 2, . . xn (d’après les formules
(1)) devient l’élément nul de l ’anneau P [xly x2, . . ., æn]. Ainsi,
il reste à démontrer que pour tout polynôme non nul %(aly a 2, . . ., on)
(c’est-à-dire %possède au moins un coefficient non nul), le polynôme
g (xly x 2f . . r^), qui s ’obtient de % en substituant à a 1? <t2» . « .
. . on leurs expressions (1) en fonction des x l9 x 2y ■- xn :
Xfat, c2, . . . , On) = g fai, X*t . - . » *n)i (13)
est également non nul.
Soit aaîfa*8 • * . un des termes du polynôme x» a ¥= 0 ;
alors, remplaçant a lt a 2» - . on par leurs expressions (1), nous
obtenons un polynôme de xly x 2y . . xn dont le plus haut terme
(suivant l ’ordre lexicographique) est, comme on sait déjà de la
démonstration du théorème fondamental, le monôme :
u#?1faixz)k* *• • fai^2 •. • xn)hn = axli x l£ . . . xl£ y
avec
/l = fcl *• • "f“
k2 + km

ln = kn.
Il en résulte que
ki —l\ ■ lj+i, kn — 1 = 1, 2, . *., 71 1,
c’est-à-dire on peut calculer les exposants kly k 2y . . ., kn du terme
initial du polynôme % en fonction des exposants ll9 Z2, . . ln.
Ainsi, les termes distincts du polynôme x» en tant que polynômes de
xly x2, . . ., x n9 ont les plus hauts termes distincts.
Considérons maintenant les termes du polynôme %; calculons
pour chaque terme de x» représenté sous forme de polynôme de
xv x 2y . . xn, son plus haut terme et fixons, parmi ces derniers,
le plus haut terme dans le sens de l ’ordre lexicographique. D’après
la remarque faite ci-dessus, ce terme n ’a pas de semblables parmi
les plus hauts termes des autres monômes de x exprimés en fonction
des xv x2, . . ., xn et, étant supérieur au plus h a u tterme de chaque
§ 53] REMARQUES COMPLÉMENTAIRES SUR LES POLYNÔMES 839

monôme de x> il est supérieur à tout autre terme exprimé en xl7


x 2, . . ., xn au moyen des formules (1). Ainsi, nous avons trouvé
un terme qui, à la suite du passage de %(<t1ÿ cf2, . . a n) à
g (Xjl, z 2, ... xn), n ’apparaît (avec un coefficient non nul) qu’une
fois et, pour cette raison, ne peut pas disparaître- Il en résulte
l ’existence de coefficients non nuis dans l ’expression du polypôme
g (xv x 2, . . », xn), de sorte que g n ’est pas l ’élément nul de l ’anneau
P [xl7 z 2, . . xn], ce qu’il fallait démontrer.
Le théorème que nous venons de démontrer peut être encore
énoncé de la manière suivante :
Les polynômes symétriques élémentaires olf a 2, . . an, en tant
qu'éléments de Vanneau des polynômes P [xv x 2> . . -, xn]7 forment
une famille algébriquement indépendante sur le champ P .

§ 53*. Remarques complémentaires sur les polynômes symétriques


Remarques sur le théorème fondamental. La démonstration du
théorème fondamental sur les polynômes symétriques, donnée
au paragraphe précédent, permet de compléter l’énoncé de ce théo^
rème par certains détails essentiels dont nous aurons besoin par
la suite. D’abord, les coefficients du polynôme <p (o1? o2, - . crn),
exprimant un polynôme symétrique donné f (xl7 x 2, . . ., xn)
en fonction des polynômes symétriques élémentaires, non seulement
appartiennent au champ P, mais s'expriment par les coefficients du
polynôme f au moyen des opérations d'addition et de soustraction,
c'est-à-dire qu'ils appartiennent à Vanneau L , engendré dans le champ
P par les coefficients du polynôme f .
En effet, les coefficients du polynôme <pt exprimé en fonction des
indéterminées xv x 2, - - -, xn (cf. formule (5) du paragraphe précé­
dent) sont des multiples de coefficients entiers de a0, coefficient du
plus haut terme de /, et, par conséquent, appartiennent à l’anneau L.
Supposons que les coefficients des polynômes q>v <p2, . . <p/y
exprimés en fonction des xlf x 2, . . ., z nJ soient des éléments de L.
Alors, les Coefficients du polynôme /i = / — q>i cp2 —. . .
. . .. — <p* le sont aussi, de sorte que L contient les coefficients du
polynôme (p*+1, en tant que polynôme de xl7 x 2, . > x
D’autre part, le degré du polynôme <p (0^, cr2, . . -, <xn) par rap­
port à Vensemble des indéterminées a x, a 2, - . an est égal à celui
du polynôme f (xl7 x 2, . . xn) en chaque indéterminée xi. En effet,
le terme (2) du paragraphe précédent étant le plus haut tërme du
polynôme /, l ’entier kx est le degré de / en z v de sorte que, vu la
symétrie de /, kx est le degré de f en chaque indéterminée x t- Or, le
degré de <px, par rapport à l ’ensemble des indéterminées al7 a 2, . . .
. . ., on, est, d’après (5) du paragraphe précédent, l’entier
(&i —*^2) b (^2 —^3) + • • • b (foi-1—kn) “4*kn ~ k\.
22*
340 POLYNÔMES DE PLUSIEURS INDÉTERMINÉES [CH. XI

Ensuite, le plus haut terme du polynôme f 1 étant inférieur à celui


du polynôme /, le degré de f x en x t ne dépasse pas le degré de / en
chaque z*. Or, le polynôme <p2 tient le, même rôle pour f t que <pj
pour /, de sorte que le degré de <p2 par rapport à l'ensemble des indé­
terminées a est égal au degré de f x en chaque x iy c'est-à-dire ce degré
ne dépasse pas kx, etc. Ainsi, le degré de <p (alf a 2, . . an) ne
dépasse pas kv Vu qu'aucun <p* avec i > 1 ne peut contenir les
indéterminées a lT a 2, . . an élevées aux mêmes puissances que
dans <pj, le degré de q> (crlT <r2, . . 0n) est exactement kv Cela
démontre notre proposition.
Enfin, soit aoîl aJ* . . . a ÿ un des termes du polynôme
q>(cri, cr2, . . ., an). L’entier
^i4* 2l2 *• • -\~nln
est dit poids de ce terme, c'est-à-dire le poids d'un terme est la somme
des exposants multipliés par les indices des indéterminées corres­
pondantes. Autrement dit, le poids d'un terme est son degré par
rapport à l'ensemble des indéterminées xlt x2, . . ., xn, ce qui
découle du théorème sur le degré du produit des polynômes (§ 51).
La proposition suivante est vraie :
Si un polynôme symétrique homogène f (xly x 2, . . ., xn) est de
degré s par rapport à Vensemble des indéterminées, alors tous les termes
de son expression <p (ôj, cr2, . . on) par o ont un même poids égal à s.
En effet, si le terme (2) du paragraphe précédent est le plus
haut terme d'un polynôme homogène /, alors
s = -f- k24~ • • • 4“fci*
Or, le poids du terme <pt est, d’après (5) du paragraphe précédent,
l’entier
Ve\ —k2) + 2 (k2—^3) -J- • - «4~ (n — 1) (A^~i —A^) -J- nkn —
= Atj -f- Ar2+ Ar3-f- . . . + kn,
c’est-à-dire encore s. Ensuite, le polynôme / x = / — <plt en tant
que différence de deux polynômes homogènes de degré s, est encore
un polynôme homogène de degré s, de sorte que le terme qp2 du poly­
nôme cp est de poids s, etc.
Fractions rationnelles symétriques. Le théorème fondamental sur
les polynômes symétriques peut être généralisé aux fractions ration­
nelles. Une fraction rationnelle y de n indéterminées x1%x 2f . . xn
est dite symétrique si elle est invariante par rapport à toute permuta­
tion des indéterminées. Il est facile de montrer que cette définition
ne dépend pas du choix du a représentant » de la fraction rationnelle,
soit — ou —. En effet, soient <0 une permutation des indéterminées
ë ëo ^
et (p un polynôme des indéterminées xly x 2, . . M Convenons de
fi 53] REMARQUES COMPLÉMENTAIRES SUR LES POLYNÔMES 341

noter par <pw le polynôme qui s'obtient de <p après que les indétermi­
nées subissent la permutation «. D’après notre hypothèse, on a
uour toute co :
JL = ÜL
g g» ’
ou encore fga = gj<ù- D'autre part, de l'égalité
f _ fo
g go
s'ensuit fg0= g/0, d’où = Multipliant les deux membres
de la dernière égalité par /, nous obtenons :

d’où, simplifiant par le facteur commun / w, on a fg<


Q =gf <
jf1 ou encore

* et ’
Le théorème suivant est vrai :
Toute fraction rationnelle symétrique.des indéterminées xly x 2, . . .
. . xn à coefficients dans un champ P peut être représentée sous la
forme d'une fraction rationnelle des polynômes symétriques élémentaires
oly cr2, . . on à coefficients dans P .
En effet, soit une fraction rationnelle symétrique
/(*!, *2» •••> *n)
g (*f» *2» • . Tn)
Supposant qu’elle soit simple, on pourrait démontrer que / et g
sont des polynômes symétriques. Cependant, la méthode suivante
est plus simple. Supposons que le polynôme g ne soit pas symétrique
et multiplions le numérateur et le dénominateur de la fraction par
le produit des (n ! — 1) polynômes qui s’obtiennent de g par toutes
les permutations des indéterminées, excepté la permutation identi­
que. Ceci étant, il est facile de vérifier que le dénominateur est
déjà un polynôme symétrique. La fraction étant symétrique, il en
résulte que son numérateur l ’est aussi ; il suffit maintenant, afin de
démontrer le théorème, d’exprimer le numérateur et le dénominateur
de la fraction obtenue par les polynômes symétriques élémentaires.
Sommes des puissances. On rencontre souvent dans les applica­
tions des polynômes symétriques de la forme
sh = #i #2 “h . -. + k ~ 1, 2, . . . ,
c’est-à-dire la somme des puissances &èmes des indéterminées x
x 2y . « •, xn. Ces polynômes, appelés sommes des puissances, doivent
s’exprimer, d’après le théorème fondamental, par les polynômes
342 POLYNOMES DE PLUSIEURS INDÉTERMINÉES [GH. XI

symétriques élémentaires. Cependant, le calcul de ces expressions


pour k grand est assez difficile ; c’est pourquoi la relation que nous
allons établir entre les polynômes sv s2, . . . et les polynômes alt
cr2, . . on représente un grand intérêt.
D’abord, sx = ox. Ensuite, soit k ^ n ; alors, il est facile de
vérifier que
S (zi 1^ ) 1j
Sk~2&2 = & (#î 1x2) + £ (xx 2x2.X3),
........................ -j.- }(1)
s k - i O i = S ( X i l + 1 x 2 . . . x * ) + £ ( x i *z 2 . . . x izi+ i)i 2 < i < / c — 2,

= S (x\x2 • .. Xk-i) + kok*


Formant la somme alternée de ces égalités (c’est-à-dire la somme
des égalités (1) munies successivement des signes plus et moins)
et faisant passer le second membre dans le premier, nous obtenons
la formule suivante :

Sh —Sk-fii + sh-2o2 — ï)k^ s xOk~i + ( — 1)hkok = 0


( 2)
(/c<rc).
Pour k > n , les égalités (1) prennent la forme
SA -iO i = sh + S (xhr 1x 2) ,
2^2 = S { x X *X2 ) + S (xi ^ X 2X s ) ,

S k-iO i = S ( 0:1 z + 1 x 2 . . . X i ) + S ( x ki %x 2 ... X iX U i ), 2 < i — 1,

Sh-nPn $ (X \ ^ X2 . . . Xn ),
d ’où la formule
Sk — S k - t f i + $ * _ 2<T2 — — 1 ) n 8 * -n O n = 0 (& >»). (3)
Les formules (2) et (3) sont appelées formules de Newton, Elles
établissent une relation entre les sommes des puissances et les poly­
nômes symétriques élémentaires et permettent de trouver successi­
vement les expressions des slf s2, s31 . . . en fonction des ax> a 2, . . .
. . ., crn. Ainsi, on sait que sx = ox, ce qui découle également de la
formule (2). Pour k = 2 ^ n, on a, d ’après .(2), s2 — sxax + 2a2 =
= 0, d ’où
_________ s2 =
1 Cf. la form u le (11) du paragraphe p récéd en t.
S 53] REMARQUES COMPLÉMENTAIRES SUR LES POLYNOMES 343

Puis, pour ft = 3<:rc, on a: s3— $2a i + 5i02“ 3a3—0, d’où, utilisant


les expressions de et de s2 déjà trouvées, on obtient :
$3 = <^ —3^02+3(73,
résultat connu du paragraphe précédent (cf. (12)). Pour k = 3,
n = 2, on a, d ’après (3), s3 — + sxo2 = 0, d ’où ss = g[ —
— 3GxG^ Utilisant les formules de Newton on peut établir la formule
générale exprimant sh en fonction des cr1? a 2, . . on. D’ailleurs,
cette formule est assez encombrante et nous ne la donnerons pas.
Si le champ de base est de caractéristique nulle, de sorte que
l ’on peut diviser par tout nombre naturel n 1, alors la formule (2)
donne un moyen d’exprimer successivement les polynômes symétri­
ques élémentaires av a 2> . . . » on par les n premières sommes des
puissances, soit sv s2, . . sn. Ainsi, o1 — sly de sorte que
1 1
^2 ~ "2“(^i^l ^2) = (5i ^2) »

<^3= 4 S2° i + Si°*)= i (*î ■


~ 3s& + 2s*)'
etc. De ce résultat et du théorème fondamental découle la proposition
suivante :
Tout polynôme symétrique de n indéterminées xv x2, . .. xn
sur un chainp P de caractéristique nulle peut être représenté)sous la
forme d'un polynôme des sx, s2, . . sn à coefficients dans le ùfaamp P .
Polynômes symétriques par rapport à deux groupes d'indéter­
minées. Dans le paragraphe suivant, ainsi qu’au § 58, on utilisera
une généralisation de la notion de polynôme symétrique. Soient
deux groupes d’indéterminées xly x2, . . xn et yly i/2, . . ., y T;
en outre, on suppose que les indéterminées
xu x z , . . . , x n, yu y2, . . . . yr (4)
soient algébriquement indépendantes sur un champ P . Un polynôme
/ (xv x 2, . . ., xn, yv y 2 , • • •, y r) sur un champ P est dit symétrique
par rapport à deux groupes d'indéterminées si / est invariant par rap­
port à toute permutation des indéterminées xly x 2y . . ., xn et à
toute permutation des indéterminées yl7 ÿ2, . . y r\ Conservant
les notations al7 a 2, . . on pour les polynômes symétriques élé­
mentaires en xXl x 2, . . ., xa et introduisant les notations t 1?
t 2, . . ., t r pour les polynômes symétriques élémentaires en yly
y 2 * . . y ri le théorème fondamental se généralise de la manière
suivante.

1 Dans un champ de caractéristique p Y expression ~ n’a pas de sens pour


<i # 0, car on a dans ce champ pour tout x : px — 0.
344 POLYNÔMES DE PLUSIEURS INDÉTERMINÉES [CH. XI

Tout polynôme f (x*, x2, . . xny yv y2, • . .» yr) sur un champ


P y symétrique par rapport à deux groupes d'indéterminées xl7 x2, . . .
. . xn et j/i, y2, - - yTy peut être représenté sous la forme d'un
polynôme {à coefficients dans P) des polynômes symétriques élémentaires
(Tl» 0 2 > ■ • •»' ^ T l , ^ 2» • ■ T-r •
f {xu X2, . . MXny yU ife* ; • -, Jfr) =
= Cp((Tj> 02» ^2* • • • » ^ r)*
En effet, on peut considérer le polynôme / en tant que polynôme
Y(y 1, y2» . . -, yr) à coefficients, polynômes de xv x3, . . ., 2:*.
/ étant invariant par rapport aux permutations des indéterminées
^1, • • .» les coefficients du polynôme / sont des polynômes
symétriques en x^ x 2, . . ., xn, de sorte que les coefficients de / peu­
vent être représentés, d’après le théorème fondamental, sous forme
de polynômes (à coefficients dans P) de ax, 02, '• • •» on. D’autre
part, le polynôme / (yx, y2, . . ., yr), considéré sur le champ
P (x1, x2, . . ., x„), est symétrique en yly y 2, . . yr, de sorte
que / peut être représenté sous la forme d’un polynôme de t 1? t 2, . . .
. * xr, soit q> (%, t 2, . . Tr). Les coefficients du polynôme <p
s ’expriment par ceux du polynôme / au moyen de l ’addition et de la
soustraction (ceci a été montré au début de ce paragraphe), par consé­
quent, ils sont également des polynômes de crlT o2, . . an. Ceci
conduit manifestement à l ’expression cherchée de / en fonction des
0 i» 0 2 ? • ■ h» ^ 2 ’ * ■ •»
Exemple. Le polynôme
/ (* 1» ^2» *3» ï/i» i/2) = *1*2*3“^'*l*2£/l “~ x fX2U2
*1*3? i — *1*3?2 — *2*31/1 — *2*3?2 + *1 J/i? 2 +
+ * 2 ? J ? 2 + * 3 l/l? 2
est symétriqae par rapport aux indéterminées x it x2, x& et yu y2, mais il ne Test
pas par rapport à Tensemble des cinq indéterminées; en effet, on peut faire
apparaître ceci en transposant les indéterminées x x et yx. Trouvons l’expression
de / en fonction des o1: o2, 03, 1?!, t 2 :
/ — x i%2 x z — (x i x 2 ~ h * 1 * 3 ^ 2 * 3 ) y1 —
—(xxx2+ xxxz + x2xs) y 2 + (xx + x 2+ x9) yxy2 =
— ° 3 — a 2Î/l — a 2l/2 + ^ ll/lî/2 = ^3 — CT2*1 + <*1T2*
Bien entendu, le théorème que nous venons de démontrer peut
être généralisé au cas de trois et, généralement, de plusieurs groupes
d’indéterminées.
Le théorème d'unicité de là représentation par les polynômes
symétriques élémentaires est également vrai pour les polynômes
symétriques par rapport à deux groupes d ’indéterminées. Autrement
dit, le théorème suivant est vrai.
s 54 RÉSULTANT. ÉLIMINATION D ’UNE INDÉTERMINÉE. DISCRIMINANT 345

La famille
Ul? ^2» • • •7 &ny ^2» • • • »
des polynômes symétriques élémentaires dépendant respectivement d'un
groupe d'indéterminées x 2i . , xn et d'un autre groupe d'indé­
terminées yv y 2, . . ., yr est une famille algébriquement indépendante
sur un champ P .
En effet, supposons qu’il existe un polynôme sur un champ P
Cp(<7j, U2, *• • » ^1> *^2i • • •1 ^r)»
égal à zéro, quoiqu’il possède des coefficients non nuis. Ce polynôme
peut être considéré comme un polynôme ^ ( t 1? t 2, . . . » xr) à coef­
ficients, polynômes de av a 2, . . an. Donc, on peut dire que
est un polynôme de t x, t 2, . . Tr sur le champ des fractions ration­
nelles
Q = P {Xh X2f . . . | Xn).
La famille yv y 2, . . y r reste algébriquement indépendante sur
le champ Q: en effet, s’il existait une dépendance algébrique des
U y r à coefficients dans Ç, ceci entraînerait, après mul­
tiplication par le dénominateur commun, une dépendance algébrique
de la famille (4), ce qui serait en contradiction avec notre hypothèse.
En s ’appuyant sur le théorème d ’unicité démontré au paragraphe
précédent, on voit que la famille t 1t t 2, . . ., xr doit être aussi
algébriquement indépendante sur le champ Q, de sorte que les coef­
ficients du polynôme sont tous nuis. Or, ces coefficients sont des
polynômes de a 2, . . on ; par conséquent, utilisant de nouveau
le théorème d ’unicité pour un groupe d’indéterminées (cette fois-
ci par rapport aux indéterminées xl7 x2, . . ., xn) nous constatons
que les coefficients de ces derniers polynômes sont tous nuis. Ceci
démontre que, contrairement à notre hypothèse, les coefficients du
polynôme <p sont tous nuis.
§ 54*. Résultant. Elimination d’une indéterminée. Discriminant
Soit un polynôme f ( x lyx 2,. . xn) de l’anneau P [xv x 2, . . xn\\
une suite de n éléments a lt a a, . . . , an du champ P ou d ’une exten­
sion P est dite solution du polynôme / si les valeurs des indéterminées
x t = a t, x 2 = a2l . . . , xn = an
annulent le polynôme / :
/(<*!, a 2, . an) = 0.
Tout polynôme f de degré non nul possède des solutions. En effet,
supposons que l ’indéterminée xt intervienne dans l ’expression de /
et choisissons a 2, . . ocn dans le champ P de manière que le degré
du polynôme / (xa, a 2, . . a n) soit strictement positif; utilisant,
346 POLYNÔMES DE PLUSIEURS INDÉTERMINÉES [GH. XI

ensuite, le théorème d’existence d ’un zéro (cf. § 49), on peut trouver


une extension P du champ P telle que le polynôme / (xv a 2, • • •» <*n)
d ’une indéterminée xx ait un zéro ax dans P . En même temps, nous
constatons que la propriété d’avoir au plus n zéros, établie pour les
polynômes de degré n d’une indéterminée, n ’est plus valable pour
les polynômes de plusieurs indéterminées.
Soient plusieurs polynômes de n indéterminées ; ôn peut poser
le problème qui consiste à trouver les solutions communes à ces
polynômes; autrement dit, on peut poser le problème de calcul
des solutions du système d’équations ayant les polynômes donnés
pour premiers membres et zéro pour seconds. Un cas particulier,
celui des systèmes d ’équations linéaires, a déjà été étudié en détail
dans le chapitre IL Cependant, dans le cas particulier opposé, où
l’on considère une équation d’une inconnue de degré quelconque,
nous ne savons rien sur les racines, sauf qu’elles existent dans une
•certaine extension du champ de base. Le calcul et l ’étude des solu­
tions d ’un système d’équations non linéaires à plusieurs inconnues
est, évidemment, un problème encore plus difficile qui sort du cadre
de notre cours et fait partie d’une branche spéciale des mathémati­
ques, la géométrie algébrique. Nous nous bornerons ici à considérer
deux équations de degrés quelconques à deux inconnues et montrerons
que ce cas peut être ramené à celui d'une équation polynomiale
ù une inconnue.
Occupons-nous d’abord du problème d’existence des zéros com­
muns aux deux polynômes dépendant d ’une indéterminée. Soient
deux polynômes
/ (x) = <hXn + dlXn~l + . • • + (Ln-iX + djJ
g(x) = b0x9+ biz &-l ~{r . . . + bs_ix + b 8 j

sur un champ P> de plus a0 =7^ 0, b0 ^ 0.


Des résultats du chapitre précédent il découle aisément que les
polynômes f (x) et g (x) ont des zéros communs dans une extension du
champ P si et seulement si ils ne sont pas premiers entre eux. Ainsi, le
problème d ’existence des zéros communs à deux polynômes peut
être résolu au moyen de l ’algorithme d’Euclide.
Nous allons indiquer une autre méthode permettant de résoudre
ce problème. Soit P une extension du champ P telle que f(x) ait exac­
tement n zéros a x, a 2, * • et que g (x) possède exactement s
zéros pA, p2, . . ., ps ; on peut prendre pour P un champ de décompo­
sition du produit / (x) g (x). L’élément

Ru, g)=aiboi—n1j=ln («j—pj) ( 2)


§ 54] RESULTANT. ÉLIMINATION D'UNE INDÉTERMINÉE. DISCRIMINANT 347

du champ P est dit résultant des deux polynômes f(x) et g(x).


Il est clair que f(x) et g(x) ont un zéro commun dans P si et
seulement si R (/, g) = 0. Vu que
g {x) = b0 Q (x — fa)
j=i
et, par conséquent,
g
g(<x()= b (t n (« i—
i= i
on constate que le résultant R (/, g) peut être mis sous la forme

Æ(/. ?) = «$ j ] ? (“ «)■ (3)


Les polynômes f(x) et g{x) interviennent dans la définition du
résultant de façon non symétrique. En effet,

R (g, 1 ) = b?a* ÎI n <P; - «i) = ( ■- *)"“* (/. *)• (4)


j= l i= i

R (g, /)i en accord avec (3), peut être mis sous la forme

* (* ,/) = & ? n /(P.)- (5)


i= i
L’expression (2) du résultant suppose la connaissance des zéros
des polynômes / (x) et g (x) et, pour cette raison, est pratiquement
inutile pour la résolution du problème d’existence des zéros com­
muns à ces polynômes. Il s’avère toutefois que le résultant R (/, g)
peut être représenté sous la forme d'un polynôme des coefficients a0,
«n • • -1 «n et b0, feu • • .1 bs def {x) et g (x).
La possibilité d’une telle représentation découle aisément des résultats
du paragraphe précédent.
En effet, la formule (2) montre que le résultant R (/, g) est un polynôme
symétrique par rapport à deux groupes d’indéterminées, a it a 2* . • ■> a* et
Pi* 02i a. ■ Pe- Par conséquent, en vertu des résultats du paragraphe précédent,
il feu t être représenté sous la forme d ’un polynôme des polynômes symétriques
élémentaires correspondant à ces deux groupes d ’indéterminées, ou encore, vu
les formules de Viète, sous la forme d’un polynôme des quotients ^ , t= 1,2, . . .
ûo
. . n, et b■J£- , ; = 1, 2, . .
s ; le facteur ag&J, inclus dans la formule (2),
fait disparaître le dénominateur dans l’expression du résultant. Cependant il
serait difficile de donner l’expression du résultant en fonction des coefficients
à l’aide des méthodes exposées dans les paragraphes précédents ; nous allons
utiliser un autre procédé.
L’expression du résultant des polynômes (1) que nous allons
trouver sera valable pour tout couple de polynômes. Plus ï récisé-
348 POLYNÔMES DE PLUSIEURS INDÉTERMINÉES [CH. XI

ment, nous considérons la suite des zéros des polynômes (1)


0&2» • • *J &7ly Pli P27 • • *J P« ( 6>

comme un ensemble de n-\-s indéterminées indépendantes, c'est-à-dire


un ensemble de rc + s éléments algébriquement indépendants sur le
champ P au sens du § 51.
Nous trouverons une expression du résultant qui, considérée
comme un polynôme des indéterminées (6) (les coefficients étant
remplacés par les zéros d’après les formules de Viète), coïncide avec
le second membre de l ’égalité (2), considéré, lui aussi, comme un
polynôme des indéterminées (6).
Nous montrerons que le résultant R (/, g) des polynômes (1) est
égal au déterminant d'ordre n + s:
Uq flj ■. . Æft
Û0 U\ . .. an
Üq .. .
D= (7)
&o bi . . . bs
b0 bi . . . bs
b0 ^ . . .
l ’égalité de R (/, g) et du déterminant (7) étant identique par rap­
port à l ’ensemble des indéterminées (6) (dans (7) les éléments non
écrits sont des zéros). La structure de ce déterminant est assez sim­
ple; notons seulement que sa diagonale principale contient l ’élé­
ment a0 répété s fois et l’élément b8 répété n fois.
Afin de démontrer, notre proposition nous calculerons de deux
manières différentes le produit a\b% DM, où M est le déterminant
auxiliaire d’ordre n + s:
P ^ - 1 . •. p?+4_1 a"+*-1 a"+s- ‘ .. . a"+s- 4
a n+s-2 a«+s- 2 . .
p ?+ -2 . .. p?+!" 2 . a% +s- 2

pî PS .. p^ a* • “ n

Pi P 2 .. P, ai a2 •. an 1

1 1 .. 1 1 1 . 1 1

M est un déterminant de Vandermonde et, d’après le § 6, il est


égal au produit des différences des éléments de son avant-dernière
ligne, les différences étant formées de la manière suivante : on re­
tranche de chaque élément successivement les éléments qui le suivent.
§ 54] RÉSULTANT. ÉLIMINATION D ’UNE INDÉTERMINÉE, DISCRIMINANT 349

Ainsi,

n (Pi-M-n n<h-«i)- n («<-«;>.


J= 1 t = i

de sorte que, vu (4), on a


a$«DM = D R { g j y II < P,-P,). Il (e n - a ,) . (8)

D’autre part, calculons le produit D M utilisant le théorème sur


le déterminant du produit de deux matrices. Multipliant les matri­
ces, nous obtenons, vu que a 2, . . a n et p1? p2, . . $s sont
respectivement les zéros de / (x) et de g (x), la formule
DM ~
pr/(pi) p r m ) .. .p r m ) o 0 0
pr/(Po p r m > .. .p r m ) o 0 0
h t® i) p2/(p2) •• . p./( p.) 0 0 o
/(Pô /(p2) .. . /(P.) 0 0 0
0 0 0 (“i) a -T 'g (“2) • • - K ^ g ( a n)
0 0 0 «2) • •• < “2£ (a™)
0 0 . 0 a zg ( a 2) •• • &ng (an)
0 0 . 0 g (<*■î) g («2) •• • g (&n)
Appliquant le théorème de Laplace, puis mettant en facteur les
diviseurs communs des éléments d’une même colonne et calculant
les déterminants correspondants (qui sont des déterminants de Van-
dermonde), nous obtenons l ’égalité:

a $ * D M = a* X U f (Pi)' Il (Pi ~ P/) ' 0 S (a 0 ’ Il («i ~ a i)


j=l l<i<i^a i=i
ou encore, utilisant (3) et (5), la formule
a‘b?DM = R(f, g ) R ( g j y n (p i-p ,)v n («< -«;)• (9)

Nous obtenons que les seconds membres des égalités (8) et (9),
en tant que polynômes des indéterminées (6), coïncident. Les deux
membres de l ’égalité obtenue peuvent être simplifiés en divisant
par les facteurs communs non identiquement nuis. Le facteur com­
mun R (gr f) n ’est pas nul : d ’après notre hypothèse, a0 =^=0, b0 ^ 0,
et il suffit de donner aux indéterminées (6) des valeurs distinctes
deux à deux (dans le champ de base ou dans une extension de ce
350 POLYNÔMES DE PLUSIEURS INDÉTERMINÉES [CH. XI

champ) pour obtenir, d'après la formule (4), une valeur non nulle
du polynôme R (g, /). On démontre de la même manière que le$
deux autres facteurs communs sont aussi non nuis. Divisant par les
facteurs communs nous sommes conduits à l ’égalité
S (/, g ) — D, (10)
ce qu’il fallait démontrer.
Renonçons à présent à la condition que les coefficients des termes
principaux des polynômes (1) doivent être non nuis 12. Donc, la seule
chose qu’on puisse dire sur les degrés véritables des polynômes (1),
c’est qu’ils ne dépassent pas respectivement n et s, degrés « for­
mels » de / (a) et de g (x). L’expression (2) du résultant n ’a plus
de sens, car les polynômes considérés peuvent avoir respectivement
moins de n et moins de s zéros. D’autre part, le déterminant (7)
a toujours un sens et, vu que pour a0 0, bQ 0 il coïncide avec
le résultant, nous pouvons, dans le cas considéré, continuer à l'appe­
ler résultant des polynômes / (x), g (x) et à le noter R (/, g).
Toutefois, maintenant, on ne peut plus affirmer que l ’existence
des zéros communs aux polynômes (1) soit équivalente au fait que
leur résultant s ’annule. En effet, si a0 = 0 et b0 — 0, alors
R (/, g) = 0 indépendamment de l ’existence des zéros communs
aux polynômes f et g . Néanmoins, il se révèle que ce cas est le seul
où le résultant nul ne garantisse pas l ’existence des zéros communs
aux polynômes donnés a. Notamment, le théorème suivant est vrai :
Soient deux polynômes (1) à coefficients des termes principaux quel­
conques; alors leur résultant (7) s'annule si et seulement si les polynômes
(1) possèdent un zéro commun ou bien si les coefficients des termes princi­
paux de ces polynômes s'annulent simultanément.
Démonstration. Le cas où a0 ^ 0, b0 # 0 a déjà été considéré
et le cas où a0 = b0 = 0 est prévu par l’énoncé du théorème. Il
reste donc à considérer le cas où l ’un des coefficients des termes prin­
cipaux des polynômes (1), soit a0> est non nul, tandis que l ’autre
coefficient b0 est nul.
Si bt = 0 pour tout i, i = 0, 1, . . ., s, alors R (J, g ) = 0, car
le déterminant (7) a des lignes nulles. Mais alors le polynôme g (x)
est identiquement nul et, par conséquent, a des zéros communs avec
/ (x). Supposons que
&o= bt = . . . = ù*-! —0, mais bh ^ 0, avec ;
1 Nous renonçons à l ’hypothèse sur le coefficient du terme principal, que
nous avons jusqu’ici toujours imposée, ayant en vue les applications ultérieures :
nous allons étudier les systèmes de polynômes de deux indéterminées en les con­
sidérant comme polynômes d ’une indéterminée à coefficients, polynômes de
l ’autre. Par conséquent, le coefficient du terme principal peut s’annuler pour
certaines valeurs de la seconde indéterminée.
2 Bien entendu, le déterminant (7) est nul lorsque = bs = 0. Mais dans
ce cas les polynômes (1) ont un zéro commun, à savoir 0.
§ 54J RÉSULTANT. ÉLIMINATION D'UN E INDÉTERMINÉE. DISCRIMINANT 351

soit
g (x) = -f- 1+ • • • + bs^ x + bs;
remplaçant dans le déterminant (7) les éléments &0, bu , . . , 6 ^
par das zéros et appliquant le théorème de Laplace, il vient :
R ( f , g ) = a>R(f, g). (Il)
Or, les coefficients des termes principaux des polynômes f (x) et
g (x) étant non nuis, Tégalité R (/, g) = 0 est, en vertu du résultat
obtenu ci-dessus, nécessaire et suffisante pour que f et g aient un
zéro commun. D’autre part, les égalités R (/, g) = 0 et R (/, g) = 0
étant, d’après (11), équivalentes et les polynômes g et g ayant mani­
festement les mêmes zéros, nous aboutissons au résultat cherché:
dans le cas considéré l ’égalité R (/, g) = 0 est équivalente à l ’exis­
tence des zéros communs aux polynômes f (x) et g (x). Le théorème
est démontré.

ou encore, développant le déterminant par rapport aux éléments de la pre­


mière et de la troisième ligne, la formule
R (/> g) — (a0b2—a2bo)2 — —aibo) (alb2 —a2bl)' ( 12)

Ainsi, pour les polynômes


/(*) = *2—6S+ 2, g(a?)=s2-|_a: + 5,
la formule (12) donne: Æ(/, £)=233, de sorte que ces polynômes n’ont pas
de zéros communs. Mais pour les polynômes
f(x ) — x 2—4j:—5, g{x) — x *—7x+10,
#(/» £ ) —0 ; par conséquent, ces polynômes ont un zéro commun, à savoir
le nombre 5.
Elimination d ’une inconnue dans un système de deux équations
à deux inconnues. Soient deux polynômes f et g à coefficients dans
un champ P dépendant de deux indéterminées x et g. Ecrivons ces
polynômes suivant les puissances décroissantes de x:
352 POLYNÔMES DE PLUSIEURS INDÉTERMINÉES [CH. XI

les coefficients sont des polynômes de l ’anneau P [y], Soit R x (/, g)


le résultant des polynômes / et g, considérés comme des polynômes
de x; d’après (7), R x (/, g) est un polynôme de y à coefficients dans
le champ P :
Rx(f, g) = F(y). (14)
Supposons que le système des polynômes (13) possède une solu­
tion commune, x = oc, y = {J, dans une extension du champ P .
Substituant dans (13) p à y, nous obtenons deux polynômes / {x, p)
et g {xy p) de l ’indéterminée x . Ces polynômes ont un zéro commun a,
de sorte que leur résultant, qui, d ’après (14), coïncide avec F (p),
doit s ’annuler; autrement dit, p doit être un zéro du résultant
R x (f> g)* Inversement, si le résultant R x (/, g) des polynômes (13)
a un zéro p, alors le résultant des polynômes f (x, P) et g (x, P)
s’annule, c’est-à-dire soit les polynômes f (x, P), g {x, p) ont un zéro
commun, soit les coefficients de leurs termes principaux sont nuis,
M P) = MP) = 0-
Ceci ramène le problème de calcul des solutions communes du
système des polynômes (13) au problème de calcul des zéros du
polynôme (14) dépendant d ’une indéterminée y, ou encore, suivant
la terminologie admise, Vindéterminée x est éliminée, par ce procédé,
du système des polynômes (13).
Le théorème suivant permet de faire une conclusion sur le degré du poly­
nôme qui s’obtient par rélim ination de l ’une des indéterminées dans un système
de deux polynômes de deux indéterminées:
Soient deux polynômes f (x , y) et g (x , y) respectivement de degrés n et s par
rapport à Vensemble des indéterminées x, y . Alors. le degré du polynôme Rx (/, g)
en y nyest pas supérieur à ns, à condition, bien entendu, que Rx (/, g) ne soit pas
identiquement nul .
D’abord le résultant /?.(/, g) de deux polynômes d ’une indéterminée, dont
les coefficients des termes principaux sont l ’unité, est, d’après (2), un polynôme
homogène de degré ns par rapport à ai, a 2t . . a^, pt, p2, - . Soit
al1<lâ2 ••• «JW*»*
ün terme de l ’expression du résultant par les coefficients au az, an,
bu b2l . . b8 ; l ’entier
ki-\-2k2-\- • • « -{-21%“l” • •• $1s
est dit poids de ce terme. Il résulte de la remarque ci-dessus que chaque terme
dans Vexpression de R (/, g) par les coefficients a le même poids ns . Ce résultat est
encore vrai dans le cas général, à condition qu’on appelle poids d’un terme
l'entier
0*4* 1 “f* • • «~\~nhn -f-.O* Iq-f-1 -f-. . . -\-sls. (15)
En effet, remplaçant dans le déterminant (7) les éléments a0 et b0 par l ’unité,
nous sommés ramenés au cas déjà considéré, mais les exposants de ces facteurs
interviennent dans (15) avec le coefficient 0.
§ 54] RÉSULTANT. ÉLIMINATION D'UNE INDÉTERMINÉE. DISCRIMINANT 353

Ecrivons les polynômes f et g sous la forme :


/ (*, y) — h (y) xn+ at (y) x n + . . . + «n (y )*
g (x , y) = ô0 (y) X* -f bi {y) x*~l + . . . + bs (y).
Le degré de f (x, y) par rapport à l ’ensemble des indéterminées x, y étant n,
le degré du coefficient ar (y), r — 0, 1, . . n, n ’est pas supérieur à son indi­
ce r; il en est de même pour br (y). Il en résulte que le degré de chaque terme du
résultant Rx (/, g) n ’est pas supérieur au poids de ce terme, c’est-à-dire au nom­
bre ns, ce qu’i 1 fallait démontrer.
Exemples.
1. Trouver les solutions communes du système des polynômes
/ (*, y) = x2y + tey + 2y -h 3,
g (x , y) — 2xy — 2x + 2y + 3.
Eliminons l ’indéterminée x ; pour cela récrivons le système sous la forme
/(*, y) = y -^+ (3 y )-* + (2 y + 3), \
*(*, y) = (2y~~2)x + (2 y + S ) ; J ™
alors
y 3y 2y + 3
**(/, *) = 2y —2 2y -j- 3 0 = 2y* + i i y + i2. ■
0 2y —2 2ÿ-f*3
Les zéros du résultant sont les nombres pi = —4, P2 = — • Ces valeurs de
l ’indéterminée y n’annulent pas les coefficients des termes principaux des poly­
nômes (16) ; par conséquent, chacune de ces valeurs accouplée a une valeur
correspondante de x fournit une solution du système des polynômes donnés.
Les polynômes
f(x , —4) = —4x2—12s —5,
g (xT —4 ) = —lOx—5

ont un zéro commun a%= — ^ • Les polynômes


JJ
2 xt

ont un zéro commun a 2 = 0. Aussi, le système donné possède deux solutions:


1 3
«i = — ^ 1 Pi = 4 et ttj-O i P2— "j" *

2. Eliminer Tune des indéterminées dans le système des polynômes


/ (x , y) —2x*y —xy a + x+ 5,
g (x, y) = x2y2+ 2xy2 —5y + l.
Les polynômes étant de deuxième degré en y et le premier polynôme du
troisième degré en x, il est logique d’éliminer y. Récrivons le système sous
23-1 2 1 2
354 POLYNÔMES DE PLUSIEURS INDÉTERMINÉES [GH* XI

la forme
/(*, = * H 2+ ( ^ 3)*y+(*+5),
g(*, y) = {&+2x)y*Sy+l (47)
et calculons son résultant en appliquant la formule (12) :
B y ( / , * ) « [ ( - * ) • 1 - H 5 ) (x2 + 2 x ) ] 2 ~
—[(—a:) ( —5) —2x3 (xa+ 2x)] (2x3.l - (x + 5) ( _ 5)] =
= 4x»+ 8x? + 1 lx«+ 84x®+ 161x4 + 154x»+96x2 _ I25x.
L'un des zéros du résultant est 0. Or, cette valeur de l'indéterminée x annule
les deux coefficients des termes principaux des polynômes (17); en outre, il
est facile de vérifier que les polynômes / (0, y) et g (0, y) n'ont pas de zéro»
communs. Nous n'avons pas le moyen de calculer les autres zéros du résultant.
On peut seulement affirmer que si nous pouvions les calculer (par exemple, dans
un champ de décomposition de B y (/, g)), aucun de ces zéros n*annulerait simul­
tanément les deux coefficients des termes principaux des polynômes (17), de
sorte que chacun des zéros du résultant (/, g) accouplé à une valeur (ou des
valeurs) correspondante de y forme une solution du système des polynômes don­
nés.
Il existe des méthodes permettant d’éliminer successivement
les indéterminées dans les systèmes composés d ’un nombre quelcon­
que de polynômes dépendant d ’un nombre quelconque d ’indétermi­
nées. Ces méthodes trop laborieuses ne sauraient faire partie de
notre cours.
Discriminant* Par analogie avec le problème qui nous a conduits
à la notion de résultant, on peut parler des conditions d’existence
des zéros multiples d’un polynôme / (x) de degré n appartenant à
l ’anneau P [ z ] . Soit
/(a?) = a0xn + a1ain"1+ .. . + a n„ix + an, Oo¥*0,
et soient a lT a 2> • • •> a n les zéros de ce polynôme dans une extension
du champ P . Il est clair que,da/w c e tte s u i t e y i l y a d e s zé ro s m u l t i p l e s
s i e t s e u le m e n t s i le p r o d u i t

A = (a 2 — (Xj) (<x3 — <*i). • .(« n — CCi) X


X (a 3 — a 2)(a 4 — a 2) . . . (a* —a 2) x

X (a„ — ctn-i) — n. (««• — <*j)


n £ i> & i
e s t é g a l à z é r o o u en c o re s i le p r o d u i t

D= 1] («!-«,■)%

dit d is c r im in a n t du polynôme / ( x) , s 'a n n u le .


I 54] R ÉSU L TA N T . EL IM IN A TIO N D ’UNE IN D É T E R M IN É E . D ISC R IM IN A N T3 5 5

Contrairement au produit A qui change de signe pour une trans­


position des zéros, le discriminant D est symétrique par rapport
aux a l9 a 2, . . . » a n et, par conséquent, peut être exprimé en fonc­
tion des coefficients de / (x). Pour trouver cette expression (sou s
V h y p o th è s e q u e le c h a m p d e b a se P e s t d e c a r a c té r is tiq u e n u lle ) on peut
se servir de la relation entre le discriminant d’un polynôme / (x)
et le résultant du polynôme / (x) et de sa dérivée. Il est naturel de
s’attendre à ce qu’une telle relation existe, car on sait du § 49 qu’un
polynôme / (x) possède des zéros multiples si et seulement si il a des
zéros communs avec sa dérivée /' (x) ; par conséquent, D = 0 si et
seulement si R (/, /') =* 0 .
D ’après la formule (3) de ce paragraphe on a

r a yn ^ r 1 n n « i).
i= 1
Dérivant l ’égalité
n
/ ( * ) = « o n f a — «Oi
A=1
nous obtenons :

f (*)—®0 E> i l
ft=i
(*—<*/).

Substituant a < à x, tous les termes, excepté le iôme, s ’annulent,


de sorte que
f (a 0 — ao n (ai — « ,),
fri
d’où l ’on a

i= l p f= l

Pour tout couple d ’indices i et /, i > /, ce produit possède deux


facteurs: a t — a } et a } — a {. Leur produit est (—l)-(aj — a , ) 2;
vu qu’il existe w ^ couples d ’indices i, j vérifiant lés inégalités
n >• i >• j 1 , on obtient
« (rt-O n (n -l)
* (/,/') = ( - ! ) 2 ao2" - 1 II (a ,- a ,)« = ( - l ) 2 a fi.
Exemple* Calculons le discriminant du trinôme du second degré
f{z)= ax*+ bx-\-c.
23*
356 POLYNOMES DE PLUSIEURS INDETERMINEES tCH. XI

Vu qu® /' (z) —2az-{- 6. on a


a b c
*</, 2a b 0 ( —b2 + 4ac).
0 2a b
Dans notre cas »(»—1) i et l'on a
2
Z>= — (/, /')== 6«—4ac.
Cette expression coïncide avec celle qu'il est admis d'appeler en algèbre
élémentaire discriminant d’un trinôme du second degré.
Une autre méthode de calcul du discriminant consiste en ceci.
Formons le déterminant de Vandermonde par rapport aux zéros
«ii . otn. D ’après le § 6 .
1 1 .. . 1
«1 ®2 •• . On
«ï a | .. . Œft = n
i>i^l
(«Î — a,) = A,

a» a " -‘ .. • « r *
-1

de sorte que le discriminant est égal au carré de ce déterminant mul­


tiplié par <zjn~2. Multipliant ce déterminant par son transposé et
appliquant le théorème sur le déterminant du produit de deux matri­
ces, nous obtenons :
n Si s2 . . . Sn- i
Si S2 % .. . $n
Si S3 *4 • • v ( 18)

$n-i Sn S/H-l - * • %i-2


où Sfc est la somme des puissances A^mes des zéros a x, <ç2> • • •» a n*
définie dans le paragraphe précédent.
Exemple, Calculons le discriminant du polynôme du troisième degré
/-(*)«* -[-aaÆ+ètf+c. D’après (18), on a
3 St S2
D= *1 *2 *3 •
«2 «3 *4
On sait du paragraphe précédent que
*i=c i = —a,
—2a2=<i2—26,
3 0 i0 2 + 3 ct3 = — a2 + 3 fl6 — 3 c.

Utilisant la formule de Newton et vu que o4= 0 , on trouve


*4 —a*—4of02+ 4 0 ^ 3 + 2<s\= a*—4o26+ 4ac -f 2b2.
$ 55] SECONDE DÉMONSTRATION DU THÉORÈME FONDAMENTAL 357

H en résulte
D= 3 *2*4 ~f 2*i *2*3 — *i — *î*4 — 3*§ = a2 ô2—4b9—4a3c -|- 18a&c — 27 c2. (19)
En particulier, pour a = 0, c’est-à-dire pour un polynôme du troisième
degré non complet, on retrouve la formule
D = —4&3— 27c2,
ce qui est en accord avec le résultat du § 38.

§ 55*. Seconde démonstration du théorème fondamental de l'algèbre


des nombres complexes
La démonstration du théorème fondamental donnée au § 23
n'était pas algébrique. Nous voulons en donner une autre qui utilise
essentiellement l'outil algébrique, notamment, le théorème fonda­
mental sur les polynômes symétriques (§ 52), ainsi que le théorème
d’existence d ’un champ de décomposition pour tout polynôme (§ 49) ;
en outre, la partie non algébrique de cette démonstration est réduite
au minimum et n ’utilise qu’une proposition analytique très simple.
Rappelons d’abord le lemme du module du terme principal
démontré au § 23. Supposant les coefficients du polynôme f (x)
réels et faisant k = 1, nous obtenons de ce lemme le corollaire
suivant:
Le signe d'un polynôme f {x) à coefficients réels pour x réel et suf­
fisamment grand en valeur absolue coïncide avec le signe de son terme
principal.
Il en découle le résultat :
Tout polynôme de degré impair à coefficients réels possède au moins
un zéro réel.
En effet, soit
f {z) = aoXn a txn * + . . . + û n,

où les coefficients a%sont tous réels, n étant impair, le terme princi­


pal a0xn est de signes contraires pour x positif et négatif ; par consé­
quent, vu le corollaire signalé ci-dessus, le polynôme / (x) est de
signes contraires pour x positif et négatif, suffisamment grand en
valeur absolue. Il existe donc des valeurs de x, a et ft, telles que
/ (a) < 0 f / (6) > 0.
Or, on sait du cours d ’analyse qu’un polynôme / (x) est une fonction
continue et, en vertu de l ’une des propriétés fondamentales des
fonctions continues, il existe pour toute valeur c comprise entre
/ (a) et / (6) au moins une valeur x0 de x, comprise entre a et 6,
telle que / (x0) = c. En particulier, il existe un nombre a, compris
entre a et 6, tel que l ’on ait : / (a) == 0.
358 POLYNÔMES DE PLUSIEURS INDÉTERMINÉES [GH. XI

En nous appuyant sur ce résultat nous démontrerons la propo­


sition suivante :
Tout polynôme de degré quelconque à coefficients réels possède
au moins un zéro complexe.
En^ effet, soit un polynôme / (x) à coefficients réels de degré
n = 2kq avec q impair. Le cas k = 0 étant déjà considéré, nous sup­
posons que k > 0, c’est-à-dire que n est pair. Nous allons raisonner
par récurrence sur &, supposant que notre proposition soit déjà
démontrée pour tout polynôme à coefficients réels, dont le degré
est divisible par 2b”x et non divisible par 2fe *.
Soit P un champ de décomposition du polynôme / (x) sur le
champ des nombres complexes (cf. § 49) et soient a lt a a, . . .,
les zéros de / (s), qui sont des éléments de P . Fixons un nombre réel,
soit c, et formons les éléments du champ P
Pu = a«a; + c(ai + a,), i<j. (1)
Le nombre d’éléments P,7 est

(2)
où q' est impair.
Formons maintenant un polynôme g (x) de l ’anneau P [x] qui
n’a d’autres zéros que les éléments p s o i t
g( x) = n .(* —M -
». 3, i< 3

Les coefficients de g (x) sont les polynômes symétriques élémentaires


en piy. Par conséquent, ils sont, en vertu de (1), des polynômes de
a v a 2, . . a n à coefficients réels (car c est réel); en outre, ces
polynômes sont symétriques. En effet, la transposition de tout
couple de zéros a* et a* n ’entraîne qu’une transposition des p ^ :
tout P*/ avec j différent de &et de Zdevient p w et inversement, tandis
que pft/ et tous les p^, avec i, / différents de k et de Z, sont conservés.
Or, les coefficients du polynôme g (x) ne varient pas par des permu­
tations de ses zéros.
Il en résulte, d ’après le théorème fondamental sur les polynômes
symétriques, que les coefficients de g (x) sont des polynômes (à
coefficients réels) des coefficients du polynôme donné / (x) et, par
conséquent, les coefficients de g (x) sont réels. Le degré de ce polynô­
me, égal au nombre de zéros pfJ*, est, d’après (2), divisible par
2*”1 et n ’est pas divisible par 2 \ Par conséquent, d ’après l ’hypothèse
de récurrence, au moins l ’un des zéros p^ du polynôme g (x) est un
nombre complexe.

1 Ce degré peut, par conséquent, être supérieur à n.


§ 55] SECONDE DÉMONSTRATION DU THÉORÈME FONDAMENTAL 359

Ainsi, quel que soit le nombre réel c, on peut indiquer un couple


d'indices i, y, avec 1 ^ i ^ n, 1 y rc, tel que Télément
a tüLj + c (ai + a;) soit un nombre complexe (rappelons que le champ
P contient le champ des nombres complexes en tant que son sous-
champ). Bien entendu, un autre choix du nombre c conduit à un
autre couple d’indices correspondants. Or, les nombres réels forment
un ensemble infini tandis qu’il n ’y a qu’un nombre fini de couples
d ’indices i, y distincts. Il en résulte que l ’on peut choisir deux nom­
bres réels distincts c1 et c2 de manière qu’il leur corresponde le même
couple d’indices i, y, pour lesquels les éléments
a «a/ + c, (a < -f a?) =» a, j
a la j + c2 ( a i + a j) = b J '
sont des nombres complexes.
Les égalités (3) donnent

d’où il s’ensuit:
{Ci — CZ) (a i + a,) = a — b ,
, a—b
' Ci —C2
c ’est-à-dire a * + a j est un nombre complexe. Ce résultat et, par
exemple, la première des égalités (3) donnent que le produit a taj
est également un nombre complexe. Ainsi les éléments a* et aj
sont les zéros du trinôme du second degré à coefficients complexes
x 2 — (a* + a /) x + otia y = 0,
de sorte que a , et a,-, en vertu de la formule du § 38 pour les zéros
du trinôme du second degré à coefficients complexes, sont, eux aussi,
des nombres complexes. Ainsi, nous avons trouvé parmi les zéros
du polynôme / (x) deux zéros qui sont des nombres complexes. Ceci
démontre notre proposition.
Pour compléter la démonstration du théorème fondamental de
l ’algèbre il reste à considérer un polynôme à coefficients complexes.
Soit
f ( x ) = a 0xn + aixn~1+ . .. + a n
un tel polynôme. Soit un autre polynôme
J ( x ) = â ^ n + a ix n- 1 + ... +ôn,
qui s’obtient de / (x) en remplaçant ses coefficients par les nombres
complexes conjugués; considérons le produit:
F (x) = f (x) / (x) = b0x*n + btx^ + . . . + bhx ^ k + . . . + ^
avec
^ G'iQ’Jt ^ = 0, 1,2, . . . , 2w,
i+ j= fc
360 POLYNÔMES DE PLUSIEURS INDETERMINEES [CH. XI

Utilisant les propriétés des nombres complexes conjugués connues


du § 18, nous obtenons
bft = 2 Qi&j ~ bfc,
i+ != h

c’est-à-dire les coefficients du polynôme F (x) sont réels.


Alors, comme il a été démontré ci-dessus, F (x) possède au moins
un zéro complexe, soit fl,
F m = f ® ) m = o,
c est-à-dire soit / (P) = 0, soit / (p) = 0. Dans le premier cas le
théorème est démontré. Si c’est le second cas qui a lieu, c’est-à-
dire si
a # n + a$ n 1+ *. • + ün ~ 0,
alors, remplaçant les nombres complexes intervenant dans cette
égalité par leurs conjugués, nous obtenons :
/ (P) —<*oPn "5“ a*Pn l + . . . + On —0,
c’est-à-dire f(x) a pour zéro le nombre complexe p. La démonstra­
tion du théorème fondamental de l ’algèbre est terminée.
Chapitre X II POLYNÔMES À COEFFICIENTS
RATIONNELS

§ 56*. Réductibilité des polynômes sur le champ des nombres rationnels


Aussi bien que les champs des nombres réels et complexes, le
champ des nombres rationnels a pour nous un intérêt particulier ;
notons-le par R . C’est le plus petit des champs numériques: en
effet, on a démontré au § 43 que le champ R appartient à tout champ
numérique. C’est le problème de réductibilité des polynômes sur le
champ des nombres rationnels qui nous intéresse à présent, tandis
que le paragraphe suivant sera consacré aux zéros rationnels des
polynômes à coefficients rationnels. Soulignons une fois de plus
que ce sont deux problèmes différents ; en effet, le polynôme
x4+ 2x2+ 1 = (æ2+ l )2
est réductible sur le champ des nombres rationnels, bien qu’il n ’ait
pas de zéros rationnels.
Que peut-on dire de là réductibilité des polynômes sur le champ
R ? Faisons d’abord une remarque: soit un polynôme / (x) dont les
coefficients sont tous rationnels (mais pas forcément entiers) ; rédui­
sant les coefficients au dénominateur commun et multipliant / {x)
par ce dénominateur /c, nous obtenons le polynôme kf (x) dont les
coefficients sont tous des nombres entiers. Il est clair que les polynô­
mes / (x) et kf (x) ont les mêmes zéros ; d’autre part, ils sont simul­
tanément réductibles ou irréductibles sur le champ R .
Cependant, nous n ’avons pas acquis pour le moment le droit de
considérer seuls des polynômes à coefficients entiers. En effet, soit
un polynôme à coefficients entiers g (x) réductible sur le champ
des nombres rationnels, c’est-à-dire g (x) se décompose en facteurs
à coefficients rationnels de degrés inférieurs (dans le cas général,
les coefficients des facteurs sont fractionnaires). Peut-on en déduire
que g (x) se décompose en facteurs à coefficients entiers? Autrement
dit, est-il possible qu’un polynôme à coefficients entiers soit réduc­
tible sur le champ des nombres rationnels, mais irréductible sur
l ’anneau des nombres entiers?
La solution de ces problèmes peut être obtenue au moyen de rai­
sonnements analogues à ceux donnés au § 51. Un polynôme / (x)
à coefficients entiers est dit primitif si ses coefficients sont premiers
362 POLYNOMES A COEFFICIENTS RATIONNELS [CH. X II

entre eux, c’est-à-dire s’ils n ’ont d’autres diviseurs communs que


1 et —1. Soit un polynôme <p (x) à coefficients rationnels; alors
9 (x) peut être représenté de façon unique sous la forme d’un produit
d ’une fraction irréductible et d ’un polynôme primitif:
<p(z) = y /{*); (1)
pour cela il faut mettre en facteur le dénominateur commun des
coefficients du polynôme 9 (s), puis les facteurs communs des numé­
rateurs des coefficients ; notons que le degré de / (a:) est égal à celui
de 9 (x). L’unicité de la représentation (1) (au signe près) se démon­
tre de la manière suivante. Soit
<P{x) = Y f { x ) = -jg(x),
où g(x) est encore un polynôme primitif. Alors
adf(x) — bcg (x).
Ainsi, ad et bc sont obtenus en mettant en facteur les diviseurs
communs des coefficients entiers d’un même polynôme. Par consé­
quent, ils coïncident au signe près. Il en résulte que les polynômes
primitifs / (x) et g (x) coïncident également au signe près.
Pour les polynômes primitifs à coefficients entiers le lemme de
Gauss est vrai:
Le produit de deux polynômes primitifs est un polynôme primitif.
En effet, soient deux polynômes primitifs
/ ix) = + ai**’1+ *• • +’ fliX**'* akt
g (x) = b0x' -f biX1' 1+ . . . + bjX1-3+ . . . + bi
et soit
f(x)g(x) = C0Xh+i -\-CiX?L+ l~ i + . .. + C i + jX(ft+ i ) - < i+ ^ + ..
Supposant que ce produit ne soit pas primitif, il existe un nombre
premier p tel qu’il soit un diviseur de tous les coefficients c0, cv . . .
. . ca+j. Les coefficients du polynôme primitif / (x) n ’étant pas
tous divisibles par soit at le premier coefficient de / (x) n ’ayant
pas p pour diviseur ; de même, désignons par bj le premier coefficient
du polynôme g (x) qui ne soit pas divisible par p . Multipliant terme
à terme / (x) et g (x) et groupant les termes contenant x(/t+ï)”u+J),
il vient :
Ci+j ~ * i b j + a i - i b j + i + ü i - z b j + z + • - ■+ f li+ i& i-i + a*+2& j-2 + • • ■

Le premier membre de cette égalité est divisible par p. Il en est de


même pour tous les termes du second membre, excepté le premier ;
en effet, vu les conditions imposées sur le choix de i et 7, les coeffi-
§ 56] HBDUCTIBILITÉ DES POLYNÔMES SUR LE CHAMP DES NOMBRES 363

cients a a X-a, . . . et bj_j, bj-2, . ♦ ♦ sont tous divisibles par p.


Il en résulte que le produit afij est également divisible par p , de
sorte que, p étant un nombre premier, au moins un des coefficients
a*, bj doit être divisible par p, ce qui, toutefois, n ’a pas lieu. La
démonstration du lemme est terminée.
Passons à la résolution des problèmes posés ci-dessus. Supposons
qu’un polynôme g (x) de degré n à coefficients entiers soit réductible
sur le champ des nombres rationnels :
g (*) = <Pl (x) <p2(x),
<pi (*) et <p2 (x) étant des polynômes à coefficients rationnels de
degrés inférieurs à n. Alors
¥«(*) = -g-/«<*). I' = 1>2>
ou est une fraction irréductible et fi(x) un polynôme primitif,
ài
On en déduit
g{x) = ^ l h ( x ) h ( x ) ] .
Le premier membre de cette égalité est un polynôme à coefficients
entiers, de sorte que l ’on peut simplifier le second membre en divi­
sant par Or, le polynôme entre crochets, en vertu du lemme de
Gauss, est primitif et, par conséquent, tout facteur premier du
produit bxb2 doit être, en même temps, un facteur du produit a±a2 ;
üi et bt étant premiers entre eux, i = 1, 2, le nombre a2 doit être
divisible par et le nombre al par b2:
&2 ~ Qi —b^fl!•
Il en résulte
g (x) = ala'Jt (x) f 2(x)-
Groupant le coefficient ûjaj avec un des facteurs /, (x), / 2 (x), nous
obtenons une décomposition du polynôme g (a:) en facteurs à coeffi­
cients entiers de degrés inférieurs. Ceci démontre le théorème suivant :
Un polynôme à coefficients entiers irréductible sur Vanneau des
nombres entiers Vest aussi sur le champ des nombres rationnels.
Nous sommes maintenant en droit de nous limiter, en examinant
tels ou tels problèmes de la réductibilité des polynômes sur le champ
des nombres rationnels, à la considération des décompositions des
polynômes à coefficients entiers en facteurs dont tous les coeffi­
cients sont également des nombres entiers.
On sait déjà que tout polynôme de degré supérieur au premier
est réductible sur le champ des nombres complexes et que tout poly­
nôme à coefficients réels de degré supérieur au deuxième l ’est sur
le champ des nombres réels. La situation est tout autre dans le cas
du champ des nombres rationnels : pour tout entier positif n on peut
364 POLYNOMES À COEFFICIENTS RATIONNELS [CH. XIÏ

indiquer un polynôme à coefficients rationnels (même entiers) de degré


n tel qu'il soit irréductible sur le champ des nombres rationnels. La
démonstration de cette proposition est basée sur une condition suf~
fisante d’irréductibilité des polynômes sur le champ R y dite critère
d'Eisenstein :
Soit un polynôme à coefficients entiers
f (x) = fl<)Xn 4- Oix””1+ . . . + CLn-iX ün.
Supposons qu'il existe au moins un nombre premier p vérifiant les
conditions suivantes:
1) le coefficient principal a0 de / (x) n'est pas divisible par p y
2) les autres coefficients sont divisibles par p y
3) le terme indépendant de x se divisant par p n'est pas divisible
par p 2;
alors le polynôme f (x) est irréductible sur le champ des nombres
rationnels.
En effet, si le polynôme / (x) est réductible sur le champ jR, alors
il se décompose en un produit de deux facteurs à coefficients entiers
de degrés inférieurs :
f (x) = + biZ*~l -f .. «+ bk) (cqX1+ CjX*”1 Ci)y
où k < n , l < n y k + l = n, Identifiant les coefficients des mêmes
puissances de x dans les deux membres de cette égalité, on en déduit :
fln —bkCi,
Æ/i-i — b h c l - i "H Ùfc-\C {,
2 = bkCl^ 2 + b k - iC i- i -f- b k-2 c h (2)

—&oco*
*
an étant divisible par p et p étant un nombre premier, la
première des égalités (2) donne qu’au moins un des facteurs èA,
Ci est divisible par p , Ils ne peuvent pas être divisibles par p tous
les deux, car, d ’après notre hypothèse, an n ’est pas divisible par p 2.
Supposons, par exemple, que bh soit divisible par p y alors ct et p
sont premiers entre eux. Passons à la seconde égalité (2). Son premier
membre ainsi que le premier terme du second membre sont divisibles
par p y de sorte que le produit bh. xci l ’est aussi ; cx n ’étant pas divi­
sible par p y bh-x doit avoir p pour facteur. De la même manière,
nous déduisons de la troisième égalité (2) que &A_2 est divisible par
p y etc. Enfin, nous obtenons de la (k + l)ème égalité que &0 est divi~
sible par p ; or, la dernière égalité (2) permet alors d ’affirmer que
a0 est aussi divisible par p y ce qui est en contradiction avec notre
hypothèse.
S 57] ZÉROS RATIONNELS DES POLYNÔMES 365

Il est très facile d’indiquer pour tout n des polynômes à coeffi­


cients entiers de degré n vérifiant les conditions du critère d’Eisen-
stein ; par conséquent, ces polynômes sont irréductibles sur le champ
des nombres rationnels. Tel est, par exemple, le polynôme x? + 2 ;
on peut appliquer à ce polynôme le critère d’Eisenstein avec p = 2.
Le critère d’Eisenstein n ’est qu’une condition suffisante d’irré­
ductibilité sur le champ R et non nécessaire, c’est-à-dire si pour un
polynôme / (x) on ne peut pas trouver un nombre premier p vérifiant
les conditions du critère d’Eisenstein, ce polynôme peut être aussi
bien réductible, comme l ’est, par exemple, x2 — 5x + 6, qu’irré­
ductible, comme l ’est, par exemple, x2 + 1. Outre le critère d’Eisen­
stein il existe bien d’autres critères moins importants d ’irréductibili­
té des polynômes sur le champ R . Il existe aussi une méthode due
à Kronecker, permettant de dire pour tout polynôme à coefficients
entiers s’il est réductible ou irréductible sur le champ R . Cependant,
cette méthode est trop laborieuse et pratiquement inapplicable.
Exemple. Considérons le polynôme
b (*) = -Ç— = * p - i + * p - 2 + . . . + i + i,

où p est un nombre premier. Les zéros de ce polynôme sont les valeurs de la


racine pôme de l ’unité, excepté la valeur 1 ; les valeurs de la racine pème de l ’uni­
té divisant la circonférence de rayon unité du plan complexe en p arcs de lon­
gueur égale, le polynôme fp (ar) est dit polynôme de subdivision de la circonférence.
Nous ne pouvons pas appliquer directement à ce polynôme le critère d ’Eisen­
stein. Effectuons toutefois un changement d’indéterminée en posant x —
— y + 1. Nous obtenons:

g ( y ) = / P ( y + 1) = = 7 [ÿp+Pÿp- I + — y p ~2 + • • • + ? » ] =

= y p ~x + p y p - * + y p ~3 +•••+/>•

Les coefficients du polynôme g (y) coïncidant avec ceux du binôme de Newton,


tous ces coefficients, excepté le coefficient du terme principal, sont divisibles
ar p ; en outre, le terme indépendant de y n’est pas divisible par p2. Ainsi,
S ’après le critère d ’Eisenstein, le polynôme g (y) est irréductible sur le champ R .
Il en découle Virréductibilité du polynôme de subdivision de la circonférence
fp (x ) sur le champ R . En effet, supposant que
fp (*) = <p(*)i|>(*)>
on aurait

§ 57*. Zéros rationnels des polynômes à coefficients entiers


On a indiqué ci-dessus que le problème de la décomposition d ’un
polynôme donné sur le champ des nombres rationnels en facteurs
irréductibles n ’a pratiquement pas de solution satisfaisante. Néan-
366 POLYNOMES A COEFFICIENTS RATIONNELS [CH. XIT

moins, un cas particulier de ce problème ayant trait à la séparation


des facteurs linéaires d’un polynôme à coefficients rationnels, c’est-à-
dire le problème de calcul des zéros rationnels de ce polynôme,
est déjà assez simple et ne nécessite pas de calculs laborieux. Bien
entendu le problème de calcul des zéros rationnels des polynômes
à coefficients rationnels n ’épuise aucunement le problème de calcul
des zéros réels de ces polynômes, de sorte que les méthodes et résul­
tats exposés dans le chapitre IX conservent entièrement leur impor­
tance pour les polynômes à coefficients rationnels*
Abordant le problème de calcul des zéros rationnels d’un polynô­
me à coefficients rationnels notons que, d ’après la remarque du para­
graphe précédent, on peut se borner à la considération des polynômes
à coefficients entiers ; en outre, nous considérerons séparément le cas
de zéros entiers et celui de zéros fractionnaires.
Supposons qu'un nombre entier a soit un zéro d'un polynôme f (x)
à coefficients entiers ; alors a est un diviseur du terme indépendant de x
de ce polynôme.
En effet, soit
/ (x) = a<pn + aixn~1+ ..• + an.
Divisons / (x) par x —a :
/ (x ) = (x —a) (boxn~1 + b iX n~2+ .. . +
Effectuant la division par la méthode de Hôrner exposée au
§ 22, nous obtenons que les coefficients du quotient, y compris bn^ir
sont des nombres entiers ; vu que
an = —abn-i = a ( —
notre proposition en résulte1.
Ainsi, si un polynôme à coefficients entiers / (x ) possède des zéros
entiers, alors ces zéros se trouvent parmi les diviseurs du terme indé­
pendant de x de f ( x) . Il faut donc essayer successivement tous les
diviseurs du terme indépendant de x , aussi bien positifs que néga­
tifs ; si aucun de ces diviseurs n ’est zéro du polynôme, cela signifie
que / (x) ne possède pas de zéros entiers.
L’essai de tous les diviseurs du terme indépendant de x peut
s ’avérer assez laborieux même si l ’on calcule les valeurs correspon­
dantes du polynôme par la méthode de Homer et non en remplaçant
successivement l ’indéterminée par les diviseurs en question* Les
remarques qui suivent permettent de simplifier un peu les calculs.
1 II serait erroné d’essayer de démontrer ce théorème en se référant à ce
que le terme indépendant de x est (au signe près) le produit des zéros du poly­
nôme f (x), car parmi ces zéros peuvent se trouver des nombres fractionnaires,
irrationnels et complexes, de sorte qu’on ne peut pas affirmer a priori que le
produit de tous les zéros, excepté a , soit un nombre entier.
§ 57] Z E R O S R A T IO N N E L S D E S P O L Y N Ô M E S :*67

Tout d'abord, 1 et —1 étant toujours des diviseurs du terme indé­


pendant de x , commençons par calculer / (1) et / (—1), ce qui ne
représente pas de difficulté. Ensuite, soit a un zéro entier de / {x) ;
alors
f(x) = (x-a. )q(x),
où, comme il a été indiqué ci-dessus, les coefficients du quotient
q(x) sont tous des entiers, de sorte que les quotients

4 3 r - -« < * ).
doivent être des nombres entiers. Ainsi, on ne doit essayer que tout
f (\\ i\
diviseur, soit a, pour lequel les quotients sont des nombres
entiers (a étant différent de 1 et —1).
Exemples, 1. Calculer les zéros entiers du polynôme
/ (x) = x3—2x* — x —6.
Les diviseurs du terme indépendant de x sont les nombres ± 1 , d= 2, ± 3 ,
± 6. Vu que /(1) = —8, / ( —1)= —8, les nombres 1 et —1 ne sont pas des
zéros de /(x). Ensuite, les nombres
—8 -8 —8 -8
2+1 * —2 — 1 1 6 - 1 ’ —6 — 1
étant fractionnaires, les diviseurs 2, —2, 6 , - 6 doivent être éliminés, taudis
que, les nombres
—8 -8 —8 -8
3 - 1 1 3 + 1 ’ - 3 - 1 ’ —3 + 1
étant entiers, les diviseurs 3 et —3 sont à essayer. Appliquons la méthode-
de Horner :
• 1—2—1—6
-3 i l —5 14—48 ’
c’est-à-dire / ( —3 ) = —48 et le nombre —3 n’est pas un zéro de / (x). Enfin
1 - 2 —1 —6
3 1 1 2 0’
c’est-à-dire / ( 3) = 0 et le nombre 3 est un zéro de /(xL En même temps,
nous avons trouvé les coefficients du quotient de la division de / (x) par-
x —3 •
/(*) = < * - 3)(*2+*+2).
Il est facile de voir que le quotient x2 + x + 2 n’a pas le nombre 3 pour zéro,
c’est-à-dire ce nombre n ’est pas un zéro multiple de / (x).
2. Calculer les zéros entiers du polynôme
f (x) = 3*4+ x*—5x2 —2x + 2.
368 POLYNÔMES A COEFFICIENTS RATIONNELS ICH. XII

Ici les diviseurs du terme indépendant de x sont ± 1 et ± 2 . Ensuite, / (1) =


= —1, / (—1) = 1, c’est-à-dire 1 et —1 ne sont pas des zéros de / (z). Enfin,
les nombres
1 4 -1
2+ 1 et - 2 - 1
étant fractionnaires, les nombres 2 et —2 ne sont pas des zéros de / (s) ; par
conséquent, / (x) n ’a pas de zéros entiers.
Passons au problème de calcul des zéros fractionnaires.
Soit un polynôme à coefficients entiers ; supposons de plus que le
coefficient du terme principal de ce polynôme soit égal à Vunité. Alors
tout zéro rationnel de ce polynôme est un nombre entier.
En effet, soit un polynôme à coefficients entiers
f (æ) —xn fl*#71 1+ azxn 2-j- . . . -f- an
et soit une fraction irréductible — , zéro de f(x), c’est-à-dire on a
bn . bn~i fcn-2
Cn ’a2 ~han = 0.
On en déduit
~ ~ —-atbn~l —a2bn~2c — . . . —ancn" \
c’est-à-dire une fraction irréductible est égale à un nombre entier,
ce qui est impossible.
Le problème de calcul des zéros rationnels (fractionnaires et entiers)
d'un polynôme à coefficients entiers
f (x) = a{vxn + a{xn^ + azxn~* + . . . + an^ x + an
est équivalent au problème de calcul des zéros entiers du polynôme
q>(y) = y n + ailt*"1 + aoa^ 71"2+ . . . + -f
notamment, pour trouver les zéros de f (z) il faut diviser ceux de <p (y)
par a0.
En effet, multiplions / {x) par ajf”1 et effectuons ensuite un chan­
gement d’indéterminée, en posant y — a0x. Il est clair que
<p(y)=q>(aQz) = a*-'f(x).
Il en résulte que les zéros du polynôme f {x) coïncident avec les
zéros correspondants de <p (ÿ) divisés par a0. En particulier, aux zéros
rationnels de / (x) correspondent les zéros rationnels de <p (y); mais,
étant donné que le coefficient du terme principal de <p (y) est égal à
l ’unité, les zéros rationnels de q> (y) doivent être entiers, et nous
avons déjà une méthode de leur calcul.
§ 58] NOMBRES ALGÉBRIQUES 369

Exemple. Trouver les zéros rationnels du polynôme


/ (x) = 3s4+ Sz3+*2 §x—2.
Multipliant / (a) par 33 et faisant y — 3a;, il vient :
<P(y) = y4 + 5^3+ 3 y 2+ 4 5 y — 54.
Calculons les zéros entiers du polynôme çp(y).
Calculons <p (1) par la méthode de Hômer :
1 5 3 45 - 5 4
1 1 6 9 54 0
Ainsi <p(l) = 0, c'est-à-dire 1 est un zéro de (p(y) ; en outre,
<p(y) = (y —l)y (y),

Q(y) = y3+ 6y2+ 9 y + 54.
Calculons les zéros entiers du polynôme y (y). Les diviseurs du terme
indépendant de y sont: ± 1, ± 2 , ± 3, ± 6, ± 9 , ± 1 8 , ± 2 7 , ± 5 4 . Ici
q (1) =70, 9 (—1) = 50-
Calculant - et - ^ pour chaque diviseur a, on constate que Ton
CL — 1 CL —p 1
doit éliminer tous les diviseurs, excepté a = —6. Essayons ce diviseur:
1 6 9 54
—6 1 0 9 0*
Ainsi, g (—6) — 0, c’est-à-dire —6 est un zéro de g (y) et, par conséquent, de
<p (y)-
Le polynôme <p (y) possède donc deux zéros entiers 1 et —6. Par conséquent,
\
le polynôme / (æ) n’a que deux zéros rationnels, soit les nombres et —2.
o
On doit souligner une fois de plus que les méthodes exposées
ci-dessus ne peuvent être appliquées qu’aux polynômes à coefficients
entiers et uniquement pour calculer les zéros rationnels de ces poly­
nômes.

§ 58#. Nombres algébriques


Tout polynôme de degré n à coefficients rationnels possède dans
le champ des noftibres complexes n zéros ; certains zéros (tous quel­
quefois) n ’appartiennent pas au champ des nombres rationnels. Par
contre, ce n ’est pas tout nombre complexe ou réel qui est un zéro
d ’un polynôme à coefficients rationnels. Les nombres complexes (et,
en particulier, les nombres réels) qui sont zéros de tels polynômes sont
appelés nombres algébriques, contrairement aux nombres transcen­
dants. L ’ensemble des nombres algébriques contient les nombres ra­
tionnels, en tant que zéros des polynômes du premier degré à coeffi­
cients rationnels, ainsi que les nombres de la forme y fa avec a ration-
370 POLYNÔMES À COEFFICIENTS RATIONNELS [CH. XII

nel, en tant que zéros des binômes xn — a. D’autre part, on démontre


dans les cours d ’analyse que le nombre e, base des logarithmes de
Neper, ainsi que le nombre ji, bien connu de la géométrie élémen­
taire, sont des nombres transcendants.
Si a est un nombre algébrique, alors a est zéro d’un polynôme
à coefficients entiers et, par conséquent, zéro d’un des facteurs
irréductibles à coefficients entiers de ce polynôme. Le polynôme irré-
ductible à coefficients entiers ayant a pour zéro est bien défini à un
facteur constant près, c'est-à-dire il est unique à condition que ses coef­
ficients soient premiers entre eux (c’est-à-dire à condition que ce poly­
nôme soit primitif). En effet, si a est zéro de deux polynômes irré­
ductibles / (x) et g (x), le plus grand commun diviseur de ces poly­
nômes est différent de l ’unité, de sorte que ces polynômes, étant
irréductibles, coïncident à un facteur de degré nul près.
Les nombres algébriques qui sont zéros d ’un môme polynôme
irréductible (sur le champ R) sont dits conjugués 1. Par conséquent,
l ’ensemble des nombres algébriques est une réunion des classes
disjointes finies de nombres algébriques conjugués. Un nombre
rationnel, en tant que zéro d’un polynôme du premier degré, n ’a
pas de nombres algébriques conjugués, excepté lui-même; d ’ail­
leurs, cette propriété est caractéristique pour les nombres rationnels,
car tout nombre algébrique non rationnel est zéro d ’un polynôme
irréductible dont le degré est supérieur au premier, de sorte qu’il
possède des nombres algébriques conjugués distincts de lui-même.
L'ensemble des nombres algébriques est un sous-champ du champ
des nombres complexes. Autrement dit, la somme, la différence, le
produit et le quotient de deux nombres algébriques sont des nombres
algébriques.
En effet, soient deux nombres algébriques a et p. Désignons par
a x = a, a 2, . . . » a n et par = p, p2, . . p>s, respectivement,
les nombres conjugués de a et de P ; soient f (x) et g (x) les polynô­
mes irréductibles à coefficients rationnels ayant pour zéros respecti­
vement a et p. Formons un polynôme ayant pour zéros les sommes
a* + Pyî c’est le polynôme

«p(*)= n n (x— + p.,)].


i=i j=i
Ses coefficients sont invariants par rapport aux permutations des
zéros a,i et des zéros p^. Par conséquent, les coefficients de ce poly­
nôme sont, en vertu du théorème sur les polynômes symétriques par
rapport à deux groupes d ’indéterminées (cf. fin du § 53), des poly­
nômes des coefficients de / (x) et de g (x). Autrement dit, les coeffi-
1 11 ne faut pas confondre cette notion avec celle des nombres conjugués
omplexes.
S 58] NOMBRES ALGÉBRIQUES 371

cients de <p (z) sont rationnels, de sorte que le nombre a + p =


“ a i + Pu z^ro de <p (z), est algébrique.
De la même manière, utilisant les polynômes

*<*)= n n [*—(<*»—p*)j
i=i 1
et

x (* )= n
t=i n (*—oiPj )
on démontre que a — P et ap sont algébriques.
Pour démontrer que le quotient est aussi algébrique il suffit
de montrer que, ot étant algébrique et non nul, il en est de même
pour a ”1. Soit a zéro du polynôme à coefficients rationnels
f (x) = ÜqX*1-f- a ^ 1 . . . -f* &n-i%+ Q>n•
Alors, il est clair que le polynôme
g (x) = anxn + a„^1^n“1+ . . . + d\X + a0,
qui est aussi à coefficients rationnels, a pour zéro le nombre a"*1,
ce qu’il fallait démontrer.
Du théorème démontré il résulte que la somme d ’un nombre
rationnel et d ’un radical, par exemple 1 + ainsi que la somme
de deux radicaux, par exemple 1/3 + jKô, sont des nombres algé­
briques. Toutefois, nous ne pouvons pas pour le moment affirmer
que les nombres qui s’écrivent sous forme de radicaux superposés
d ’un nombre algébrique, par exemple J/^l + j / 2, sont algébriques.
Cela découlera du théorème suivant :
Supposons que <o soit un zéro d'un polynôme dont les coefficients
sont des nombres algébriques
<p(æ) = xn + a zn~l + pzn"a + . . . + Kx + p,
alors © est aussi un nombre algébrique.
Soient a^, P>, . . ., Xsy pt les nombres conjugués respectivement
de a, p, . . ., K p; en outre a x = a, pt = p, . . ., = À, Pi = p.
Considérons les polynômes de la forme
q>i, j .... s, t ( x ) ^ x n + a t x n- 1 + pj X n ~2 + .. . + X sx + p<,
en particulier, <plt 4..... iti {x) = <p{x) ; formons le produit de ces
polynômes
F( x) = [J <Pî. j. / ix)•
t, j,..,, s, t
Il est clair que les coefficients du polynôme F (x) sont symétriques
par rapport à chaque groupe d ’indéterminées a*, p^, . . ., p*,
372 POLYNÔMES Â COEFFICIENTS RATIONNELS [CH. X II

de sorte que (de nouveau, en vertu du théorème correspondant du


§ 53) ces coefficients sont des polynômes des coefficients des poly­
nômes irréductibles (à coefficients rationnels) ayant pour zéros
respectivement a, p, . . ., p, c'est-à-dire les coefficients de F (x)
sont aussi rationnels. Le nombre « étant un zéro de q) (x), il est,
par conséquent, un zéro du polynôme J? (x) à coefficients rationnels,
c'est-à-dire co est un nombre algébrique. ________
Appliquons ce théorème au nombre co = y 1 + 2. Le nombre
a = 1 + V 2 étant, d'après le théorème précédent, algébrique,
le nombre m est un zéro du polynôme x2 — a à coefficients algébri­
ques, c'est-à-dire ce nombre est algébrique. De façon générale,
appliquant à plusieurs reprises les deux théorèmes que nous venons
de démontrer, le lecteur sera facilement conduit au résultat :
Tout nombre qui s'exprime par des radicaux sur le champ des nombres
rationnels (ic'est-à-dire qui s'exprime au moyen d'un nombre fini de ra­
dicaux superposés de manière quelconque) est un nombre algébrique.
Il est clair que les nombres algébriques s’exprimant par des
radicaux forment un champ. Néanmoins, il faut garder présent
à l'esprit que, en vertu de la remarque faite à la fin du § 38 (non
démontrée), ce champ n'est qu'un sous-champ du champ des nombres
algébriques.
On a déjà signalé ci-dessus que les nombres e et .n sont transcendants. Il
s’avère qu’il y a une infinité de nombres transcendants. De plus, utilisant les
notions et méthodes de la théorie des ensembles, nous montrerons qu’il existe,
dans un certain sens, plus de nombres transcendants que de nombres algébriques;
par la suite le sens exact de cette affirmation sera clair.
Un ensemble infini M est dit dénombrable s’il existe une application bijecti-
ve entre les éléments de M et les nombres naturels, c’est-à-dire si les éléments
de M peuvent être numérotés-au moyen'des nombres entiers positifs; dans le
cas contraire, l’ensemble M est dit non dénombrable.
Lemme 1* Tout ensemble infini M contient un sous-ensemble dénombrable.
En effet, soit ai un élément de M. Choisissons dans M un élément a2 ne
coïncidant pas avec ala De façon générale, soient a*, a2, . . . » an des éléments
distincts de M. L’ensemble M étant infini, il ne peut pas être épuisé par les
éléments choisis, de sorte que l’on peut indiquer dans M un élément an+l ne
coïncidant pas avec <z2, ■ . -, an . Continuant ce processus, nous trouverons
dans M un sous-ensemble infini composé d’éléments

ce sous-ensemble est manifestement dénombrable.


Lemme 2. Tout sous-ensemble infini B d'un ensemble dénombrable A est
dénombrable.
L’ensemble A étant dénombrable, on peut l ’écrire sous la forme d’une suite
«2»•••» «n» ••• (1)
Soient akl le premier élément de la suite (l) appartenant à l’ensemble B , ah2,
le second élément ayant cette propriété, etc. Posant ahn — bny n — 1, 2. . .
§ 58] NOMBRES ALGÉBRIQUES 373

nous pouvons écrire le sous-ensemble B sous la forme de la suite


^2» • • •*&n» •• •i
ce qui démontre que B est dénombrable.
Leni me 3. La réunion dénombrable d'ensembles finis disjoints deux à deux
est dénombrable.
En effet, soient les ensembles finis
^1» • *•» •••
et soit B leur réunion. Il est clair qu’on arrive à numéroter les éléments de l ’en­
semble B en procédant de la manière suivante : on numérote de manière quelcon­
que les éléments de Ai et l ’on continue à numéroter les éléments de B en passant
aux éléments de A 2, etc.
Lemme 4, La réunion de deux ensembles dénombrables disjoints est dénom­
brable.
Soient deux ensembles dénombrables A d’éléments
a lt a 2 * • » • » a n t • • •

et B d’éléments
&ii &2»«• ■» frfit . • •
et soit C leur réunion. Posant
an —Cgn-l i bn «—c2n.» n —f y 2 i
les éléments de P ensemble C se trouvent mis sous la forme d’une suite
cti c2» c2n?
ce qui démontre que C est dénombrable.
Démontrons maintenant le théorème :
L'ensemble des nombres algébriques est dénombrable.
Démontrons d’abord que l'ensemble des polynômes à coefficients entiers dépen­
dant d'une indéterminée est dénombrable. Soit
/ {x) = aoicTl + alxri~1+ ■• • + an-l3r“b an.
un tel polynôme non nul ; appelons hauteur de ce polynôme le [nombre
naturel
k f = n + \ a0 | + | ai |-f- . . . + | an-i l + l an I-
Il est clair que le nombre de polynômes à coefficients entiers ayant la même
hauteur h est fini ; désignons cet ensemble par M En outre, désignons par M 0
l ’ensemble composé de l’unique polynôme nul. L’ensemble des polynômes à
coefficients entiers est la réunion dénombrable des ensembles finis M i,
Af2î . . . . . ; d ’après le lemme 3, l’ensemble des polynômes à-coefficients
entiers est dénombrable.
Il en résulte, vu le lemme 2, que l'ensemble des polynômes irréductibles
primitifs est aussi dénombrable. Or, on sait que tout nombre algébrique est zéro
d ’un et seulement d’un polynôme irréductible primitif. Donc, réunissant les
zéros de tous ces polynômes ; c’est-à-dire formant une réunion dénombrable
d’ensembles finis, nous obtenons l ’ensemble des nombres algébriques; vu le
lemme 3, cet ensemble est dénombrable.
Enfin, démontrons le théorème :
L'ensemble des nombres transcendants est non dénombrab le.
374 POLYNÔMES À COEFFICIENTS RATIONNELS [CH. X II

Considérons d'abord l'ensemble F de nombres réels x , compris entre zéro


et Trinité, 0 < x < 1, et montrons que cet e n s e m b le est n o n d é n o m b r a b l e . Il
est connu que tout x , compris entre 0 et 1, peut être mis sous la forme <Tune
fraction décimale infinie
x=Q , a ia 2 . . . a n . . - î
de plus, cette écriture est bien définie si Ton convient d'éliminer les écritures
telles que a n — 9 pour tout n à partir d'une certaine valeur n — N ; inversement,
toute fraction du type indiqué coïncide a\ec un certain nombre x appartenant
à l'ensemble F . Supposons maintenant que F soit dénombrable, c'est-à-dire
que les nombres x puissent être mis sous la forme d'une suite
X lf X 2f . . X k , (2)
Soit
**=0- °V ah2 •••«&„ •••
l’écriture du nombre Xk sous la forme d’une fraction décimale infinie cor­
respondante. Ecrivons la fraction décimale infinie
0, PjP2...P»..- (3)
prenant Pj différente de la première décimale de la fraction soit pt llt
puis, prenant p2 différente de la seconde décimale du nombre x 2, soit p2 ¥= « 22»
et, plus généralement, soit P,t =£ oc7m. En outre, choisissons les p„ de manière qu'il
y ait une infinité de décimales p„ différentes de 9. Il est clair qu’il existe une frac­
tion (3) satisfaisant à toutes ces conditions. Par conséquent, la fraction (3) est
un nombre de l'ensemble F ; or, en vertu de son choix, la fraction p ) est diffé­
rente de tous les nombres de la suite (2). Cette contradiction démontré que
l’ensemble F est non dénombrable.
Il en résulte que F e n se m b le des n o m b r e s c o m p l e x e s est non d é n o m b r a b l e ; en
effet, supposant le contraire, l’ensemble des nombres complexes, vu le lemme 2,
ne pourrait pas contenir le sous-ensemble non dénombrable F . Maintenant, vu le
lemme 4, il est clair que l ’ensemble des nombres transcendants est non dénom­
brable, caria réunion de cet ensemble et de l ’ensemble dénombrable des nombres
algébriques donne l’ensemble des nombres complexes, qui est non dénombrable.
Les deux théorèmes que nous avons démontrés montrent, vu le lemme 1,
que l’ensemble des nombres transcendants est, en réalité, beaucoup plus riche
en éléments, c'est-à-dire il est de « puissance » beaucoup plus grande que l’en­
semble des nombres algébriques.
Chapitre X I I I FORME NORMALE DES MATRICES

§ 59. Equivalence des h-matrices


Nous revenons, une fois de plus, aux problèmes se rapportant
à l’algèbre linéaire. Etudiant le chapitre VII, le lecteur a déjà
eu l ’occasion de constater le rôle important tenu par la notion de
matrices semblables. Notamment, deux matrices carrées d ’ordre n
sont semblables si et seulement si elles donnent une même appli­
cation linéaire (rapportée à deux bases différentes) dans un espace
vectoriel à n dimensions. Mais jusqu’ici nous ne savons pas encore
dire si deux matrices données sont semblables ou non. D’autre part,
nous ne savons pas non plus indiquer, parmi les matrices semblables
à une matrice donnée A, celle qui a, dans un certain sens, la forme
la plus simple; de plus,, même le problème d ’équivalence d’une
matrice à une matrice diagonale n ’a été étudié au § 33 que dans
un cas particulier. C’est justement ces problèmes que nous considé­
rerons dans ce chapitre; en outre, le champ de base P sera supposé
quelconque.
Occupons-nous d’abord des matrices carrées d ’ordre n dont les
éléments sont des polynômes d’une indéterminée h de degré quel­
conque à coefficients dans un champ P. Ces matrices sont dites
polynomiales ou encore %-matrices. La matrice caractéristique
A — XE d’une matrice carrée A à éléments dans un champ P fournit
un exemple de h-matrices; les éléments de la diagonale principale
de A — XE sont des polynômes du premier degré et les autres élé­
ments des polynômes de degré nul ou des zéros. Toute matrice à élé­
ments dans un champ P (pour abréger nous l ’appelons numérique)
est un cas particulier de h-matrice, car ses éléments sont des poly­
nômes de degré nul ou des zéros.
Soit une h-matrice

A (V =

Les transformations suivantes de cette matrice sont dites élémentaires :


1) multiplication d'une ligne de la matrice A (h) par un élément
a non nul d’un champ P ;
376 FORME NORMALE DES MATRICES [CH. XIII

2) multiplication d’une colonne de la matrice A (A) par un élé­


ment a non nul d ’un champ P;
3) addition de la / ème ligne, multipliée par un polynôme <p (X)
de l ’anneau P [A], à la ième ligne de la matrice A (X), i et j étant
quelconques, i =^= ; ;
4) addition de la ; ème colonne, multipliée par un polynôme
<p (À) de l ’anneau P [AJ, à la iôme colonne de la matrice A (X), i et j
étant quelconques, i ^ 7.
Il est facile de voir que toute transformation élémentaire d'une
X-matrice est inversible et a pour inverse une transformation élémentaire.
Ainsi, la transformation 1) a pour inverse la multiplication de la
même ligne par a ”1, qui existe et est une transformation élémentaire
car a =£ 0. La transformation inverse de 3) consiste à additionner
la ; ème ligne, multipliée par — <p (À), à la ième ligne de A (X).
On peut, au moyen des transformations élémentaires, échanger
tout couple de lignes ou de colonnes d'une matrice A (A,).
Supposons, par exemple, que l ’on doive échanger la ième et la
7ème ligne de la matrice A (A,). On peut le faire au moyen de quatre
transformations élémentaires, comme le montre le schéma :

Ici on effectue successivement les transformations : a) on ajoute


la j ème ligne à la ièrae ligne ; b) puis on retranche la ième ligne ainsi
obtenue de la ;'ème ligne ; c) on ajoute après cela la ieme ligne à la
yème ligne; d) ensuite, on multiplie la 7ème ligne par —1.
Nous dirons que deux A-matrices A (X) et B (X) sont équivalentes
et écrirons A (X) ~ B (A,) si l ’on peut obtenir la matrice B (A) en
appliquant à A (A.) un nombre fini de transformations élémentaires.
La relation d ’équivalence ainsi définie est manifestement réflexive
et transitive ; en outre, elle est symétrique car toute transformation
élémentaire est inversible. Autrement dit, l'ensemble des X-matrices
carrées d'ordre n sur un champ P est la réunion des classes disjointes
de matrices équivalentes.
Notre but immédiat est de trouver, parmi les A-matrices équiva­
lentes à une matrice A (A), celle qui a la forme la plus simple. Intro­
duisons pour cela la notion suivante. Une X-matrice est dite cano­
nique si elle jouit des trois propriétés suivantes :
a) cette matrice est diagonale, c’est-à-dire elle est de la formé
M X )
0 \
(1)

V 0 en (X)/
§ 59] ÉQUIVALENCE DES AMATRICES 377

b) tout polynôme ex (À) est divisible par (À), et cela pour


tout î, i = 2, 3, * . ., n;
c) le coefficient du terme principal de tout polynôme ex (À) non
nul, Z = l, 2, » . «, ïiy est égal à l ’unité.
Supposons que parmi les polynômes et (À) de la diagonale prin­
cipale d’une À-matrice canonique (1) il y ait des polynômes identi­
quement nuis; alors, d ’après la propriété b), ces polynômes nuis
se trouvent en bas de la diagonale principale. D’autre part, s’il
y a des polynômes de degré nul parmi les polynômes ex (À), d’après
la propriété c), tous ces polynômes de degré nul coïncident avec
l’unité et, d ’après la propriété b), ils se trouvent en haut de la diago­
nale principale.
En particulier, il y a des À-matrices numériques, y compris la
matrice nulle et la matrice unité, qui sont canoniques.
Toute X-matrice est équivalente à une X-matrice canonique, c'est-à-
dire toute X-matrice peut être réduite par des transformations élé­
mentaires à une forme canonique.
Démontrons ce théorème par récurrence sur l ’ordre n des À-matri­
ces considérées. En effet, pour n = 1, on a

Si a (À) = 0, alors la matrice A (À) est déjà canonique. Si, par contre,
a (À) 0, il suffit alors de diviser le polynôme a (À) par le coeffi­
cient de son terme principal — ce qui est une transformation élé­
mentaire — pour obtenir une matrice canonique.
Supposons que le théorème soit vrai pour les À-matrices d ’ordre
n — 1. Considérons une À-matrice A (À) d’ordre n . Si elle est nulle,
c’est qu’elle est déjà canonique et il n ’y a rien à démontrer. Par
conséquent, supposons que parmi les éléments de la matrice A (À)
il y a des polynômes non nuis.
Permutant, s’il est nécessaire, des lignes et des colonnes de la
matrice A (À), on peut faire passer l ’un de ses éléments non nuis
dans l ’angle gauche supérieur. Aussi, parmi les À-matrices équivalen­
tes à la matrice A (À) il y a celles qui ont un polynôme non nul
situé à l ’intersection de la première ligne et de la première colonne.
Considérons toutes ces matrices. Les polynômes se trouvant dans
l ’angle gauche supérieur de ces matrices sont de degrés différents.
Or, le degré d ’un polynôme est un nombre entier non négatif et tout
ensemble non vide de nombres entiers non négatifs possède un
nombre entier minimal. Par conséquent, on peut trouver, parmi
les À-matrices équivalentes à la matrice A (À), une À-matrice telle
que le polynôme situé dans l ’angle gauche supérieur soit non nul
et de degré minimal. Divisant la première ligne de la matrice indi­
quée par le coefficient du terme principal de ce polynôme, nous
378 PORME NORMALE DÇS MATRICES [CH. XIII

obtenons une À-matrice équivalente à la matrice A (À), soit


ei (À) bi2 (À) . . . bin (À)
b2i (À) b22 (À) . . . b2n (À)

bnt (^) bn2 (^) • «• bnn (^)


et telle que ex (À) =?= 0, le coefficient du terme principal de ex (À)
étant l ’unité; en outre, aucune superposition de transformations
élémentaires de la matrice trouvée ne peut donner une matrice dont
Vélément de Vangle gauche supérieur soit un polynôme non nul de
degré inférieur à celui de ex (À).
Montrons que tous les éléments de la première ligne et de la première
colonne de la matrice ci-dessus sont divisibles par ex (À). Par exemple,
soit
btj [ X) — e j

avec 2 ^ ^ n, où le degré de r (À) (si r (À) n ’est pas nul) est infé­
rieur à celui de ex (À). Retranchant de la yème colonne de la matrice
sa première colonne multipliée p a r ( À ) et échangeant ensuite la
première et la jème colonne, nous sommes conduits à une matrice
équivalente à la matrice A (À) et telle que son élément de l ’angle
gauche supérieur soit le polynôme r (À), c’est-à-dire le polynôme
de degré inférieur à celui de ex (K), ce qui est en contradiction avec
le choix de ce polynôme. Il en résulte que r (À) — 0, ce qu’il fallait
démontrer.
Retranchant maintenant de la /ôme colonne de la matrice sa
première colonne multipliée par q (À), nous annulons l ’élément
bxj (À). Effectuant ces transformations élémentaires pour j = 2,
3, . . n> nous annulons tous les éléments bxj (À). De la même
manière on peut annuler tous les éléments bîx (À) avec i —2, 3, . . .
. . ., n. Finalement, nous sommes conduits à une matrice équivalente
à la matrice A (À) et telle que son élément de Vangle gauche supérieur
soit ex (À) et tous les autres éléments de la première ligne et de la pre­
mière colonne soient nuis,
0 ... 0
A(k) C22 (^) • • • C271 (^)
(2)
Cn2 (^) • • • Cnn (X)

En vertu de l ’hypothèse de récurrence, la matrice d’ordre (n — 1)


située dans l ’angle droit inférieur de la matrice (2) peut être réduite
§ 59] ÉQUIVALENCE DES X-MATRICES 379

par des transformations élémentaires à la forme canonique :

Appliquant ces transformations aux lignes et colonnes correspon­


dantes de la matrice (2) (la première ligne et la première colonne
sont conservées par les transformations en question), nous obtenons
e i ( l) 0
* (* )
A (K) (3)
V o * „ (* )/
Pour démontrer que la matrice (3) est canonique il reste
à montrer que ez {X) est divisible par ^(X). Supposons que
e2(X) = e\ (X) q (X) + r (X),
avec r (X) 0, le degré de r (X) étant inférieur à celui de ex (X).
Or, ajoutant à la seconde colonne de la matrice (3) sa première
colonne multipliée par q (X) et retranchant ensuite la première
ligne de la seconde, nous remplaçons l ’élément e2 (X) par l ’élément
r (X). Echangeant ensuite les deux premières lignes et les deux pre­
mières colonnes, nous faisons passer l ’élément r (X) dans l ’angle
gauche supérieur, ce qui contredit, toutefois, le choix du polynôme
W-
Le théorème sur la réduction d’une X-matrice à.la forme canoni­
que est démontré. Ce théorème doit être complété par le théorème
d'unicité:
Toute X-matrice est équivalente à une matrice canonique définie
de façon unique.
En effet, soit une X-matrice A (X) d ’ordre n. Fixons un nombre
entier k , 1 k n, et considérons les mineurs d’ordre k de la
matrice A (X). Calculant ces mineurs, nous obtenons une famille
finie de polynômes de X; désignons par dk (X) le plus grand commun
diviseur de cette famille, le coefficient du terme principal de dh (X)
étant l’unité.
Donc, nous avons les polynômes
rfj(X), d2(Jt), rfn (À), (4)
bien définis par la matrice A (X). Ici dx (X) est le plus grand commun
diviseur des éléments de la matrice A (X), le coefficient du terme
principal de dx (X) étant l ’unité, et dn (X) est le déterminant de la
matrice A (X) divisé par le coefficient de son terme principal. Remar-
380 FORME NORMALE DES MATRICES [CH. XIII

quons encore que si la matrice A (X) est de rang r, alors


dr+1(X)== ...= < U X ) = 0,
tandis que tous les autres polynômes de la famille (4) sont non nuis.
Le plus grand commun diviseur dk (X) de tous les mineurs^ d'ordre
k d'une X-matrice A (X), k = 1 ,2 , . . n, est conservé par les trans­
formations élémentaires.
Cette proposition est presque évidente lorsqu’il s’agit des trans­
formations élémentaires 1) et 2). Aussi, multipliant, par exemple,
la Êème ligne de la matrice A (X) par un nombre a du champ P,
a =£ 0, les mineurs d’ordre k contenant des éléments de la ième
ligne se trouvent multipliés par a, et tous les autres mineurs d’ordre
k sont conservés. Or, lorsqu’on calcule le plus grand commun divi­
seur d’une famille de polynômes, on peut les multiplier par les
éléments non nuis du champ P.
Passons maintenant aux transformations élémentaires 3) et 4).
Supposons, par exemple, qu’on ajoute à la ième ligne de la matrice
A (X) sa /èmc ligne multipliée par un polynôme q> (A,), i ^ /. Dési­
gnons par A (X) la matrice obtenue par cette transformation et notons
par dh (À) le plus grand commun diviseur (à coefficient l ’unité
pour le terme principal) des mineurs d’ordre k de la matrice A (A,).
Voyons ce que deviennent les mineurs d’ordre k de la matrice
A (X) après cette transformation.
Il est clair que les mineurs ne contenant pas les éléments de la
jème ligne ne changent pas. Les mineurs contenant simultanément
des éléments de la ième et de la / ème ligne ne changent pas non plus,
car le déterminant ne varie pas lorsqu’on ajoute à l ’une de ses lignes
une autre ligne multipliée par un nombre. Enfin, considérons un
mineur d’ordre k qui contient des éléments de la ième ligne, mais
ne contient pas ceux de la / ème ligne ; notons-le par M. Il est clair
que le mineur correspondant de la matrice A (X) peut être représenté
comme la somme du mineur M et du produit de (p (X) par le mineur
M r de la matrice A (X), qui s’obtient du mineur M en remplaçant
les éléments de la ième ligne par les éléments correspondants de la
jème ligne de A (X). M et M' étant divisibles par dk (A), il en est
de même pour M + <p (A,) M f.
Il en résulte que tout mineur d’ordre k de la matrice A (A,) est
divisible par dh (À), de sorte que dh (X) est également divisible par
dh (X). La transformation élémentaire ci-dessus étant inversible
et ayant pour inverse une transformation du même type, dh (À)
est divisible par dk (X). Vu que les coefficients des termes principaux
des polynômes dh (X) et dh (X) sont l ’unité, on a dh (X) — dh (X),
ce qu’il fallait démontrer.
§ 59] ÉQUIVALENCE DES AMATRICES 381

Ainsi, à toute X-matrice équivalente à une matrice A (X) correspond


une même famille de polynômes (4). En particulier, ceci est vrai pour
toute matrice canonique équivalente à A (A,). Soit (3) une telle
matrice.
Calculons les polynômes dk (À,), k = 1, 2, . . ., n, en partant
de la matrice (3). Il est clair que le mineur d'ordre k situé dans
l ’angle gauche supérieur de cette matrice est égal au produit
ei(X)e&X)...ek {X). (5)
Ensuite, un mineur d’ordre k de la matrice (3) se trouvant à l ’inter­
section deslignes et des colonnes d’indices iv i2, . . ., ihl avec
*i < *2 < cst éSal au produit e\x (X) ei2 (X) . . . eih (X)
qui est divisible par le produit (5). En effet, vu que 1 ^ (?i)
est divisible par ex (X), puis, vu que 2 ^ i2, ei2 (À) est divisible
par e2 (X), etc. Enfin, tout mineur d’ordre k de la matrice (3) tel
qu’au moins pour <un indice i il contienne des éléments de la ième
ligne mais ne contienne pas ceux de la iôme colonne est nul car il
possède une ligne nulle.
Il en résulte que le produit (5) est le plus grand commun diviseur
dea mineurs d’ordre k de la matrice (3) et, par conséquent, de la
matrice initiale A (?i),
dh(X)^el (X)e2(X) .. .epJX). k = 1, 2, . . n. (6)
A présent, il est facile de montrer que les polynômes eh (À,), k —
= 1, 2, . . n,sontbien définis par la matrice A (^). Soit r le rang
de cette matrice. On sait que dans ce cas dT (X) =£ 0, tandis que
dr+x (A,) = 0, de sorte que, vu (6), er+1 (X) — 0. Il en résulte, d ’après
les propriétés d’une matrice canonique, que pour une matrice A (X)
de rang r inférieur a n les égalités suivantes ont toujours lieu:
£r+1 (^) = £r+2 (M = • • ■= (^) ~ 0, (7)
D’autre part, pour on déduit de (6), vu que
la formule
= w
Ceci achève la démonstration de l’unicité de la matrice canonique
équivalente à une À,-matrice donnée. En même temps nous avons
donné un procédé permettant de calculer les polynômes ek (^), dits
facteurs invariants de la matrice A (X).
Exemple. Réduire à la forme canonique la ^-matrice
_ A 34 2X2\
^ — W + 5X, 3X ) '
382 FORME NORMALE DES MATRICES [CH. X III

Réalisant les transformations élémentaires, on obtient successivement :

X3_ X
A(X)
-{A.2+ 5A,
10 .
) \ X*+ 5X
A.3—10X2 —SX
°'l
x)
y** —j X i - X O
-P H 0 ) (o X3-10\ü-3x)
D'autre part, on pourrait calculer directement les facteurs invariants
de la matrice A (h). Notamment, en calculant le plus grand commun divi­
seur des éléments de cette matrice, on trouve :
dj {X) = (^) = À»
Calculant le déterminant de la matrice A (À) et remarquant que le coefficient
de son terme principal est l'unité, nous obtenons :
(X).= X4- 10X3—3X2,
de sorte que

§ 60. À-matrices unimodulaires. Matrices numériques semblables


et équivalence de leurs matrices caractéristiques
Des résultats du paragraphe précédent découlé un critère d'équiva­
lence des À-matrices qui peut être énoncé des deux manières presque
identiques :
Deux X-matrices sont équivalentes si et seulement si elles sont ré­
ductibles à une même forme canonique.
Deux X-matrices sont équivalentes si et seulement si elles possèdent
les mêmes facteurs invariants.
Etablissons encore un critère de tout autre nature.
On sait que la matrice unité E appartient à la classe des À-matri-
ces canoniques. Une À-matrice U (À) est appelée unimodulaire si elle
a E pour matrice canonique ou encore si tous ses facteurs invariants
coïncident avec l ’unité.
Une X-matrice U (À) est unimodulaire si et seulement si son déter­
minant est non nul et ne dépend pas de À, c'est-à-dire si son déterminant
est un élément non nul du champ de base P .
En effet, si U (À) ~ E , alors à ces deux matrices correspond
un même polynôme dn (À). Or, pour la matrice unité on a : dn (À) = 1.
Il en découle que le déterminant de la matrice U (À), coïncidant
avec dn (À) à un facteur numérique près, est un élément non nul
du champ P. Inversement, si le déterminant d'une matrice U (À)
est non nul et ne dépend pas de À, alors le polynôme dn (À) correspon­
dant à cette matrice est l'unité, donc, vu (6) du paragraphe précé
S 00] AMATRICES UNIMCDULA1RES 383

dent, les facteurs invariants et (À) de la matrice U (À) coïncident


avec l ’unité pour i = 1, 2, . . n.
Il s’ensuit que toute matrice numérique non dégénérée est une
k-matrice unimodulaire. Toutefois les À-matrices unimodulaires
peuvent avoir une structure très compliquée. Aussi, la À-matrice
À À3+ 5
À»—à —4 À4—À3—4À2+ 5À—5
est unimodulaire, son déterminant étant égal à 20, c’est-à-dire
étant non nul et ne dépendant pas de À.
Du théorème démontré ci-dessus résulte que le produit de deux
k-matrices unimodulaires est une k-matrice unimodulaire; en effet,
il suffit de rappeler que le déterminant du produit de deux matrices
est le produit de leurs déterminants.
Une k-matrice U (À) est unimodulaire si et seulement si elle est
inversible et a pour inverse une k-matrice.
En effet, soit une À-matrice non dégénérée ; calculant son inverse
par la méthode ordinaire, nous devons diviser les cofacteurs des
éléments de cette matrice par son déterminant, c’est-à-dire par un
polynôme de À. Pour cette raison, les éléments de la matrice inverse
sont, généralement, des fractions rationnelles et non des polynô­
mes de À, c’est-à-dire, dans ce cas, la matrice inverse n'est plus une
k-matrice. Une À-matrice étant unimodulaire, il faut, pour calculer
la matrice inverse, diviser les cofacteurs de ses éléments par un nom­
bre non nul du champ P ; par conséquent, les éléments de la matrice
inverse sont des polynômes de À, de sorte qu’elle est une À-matrice.
Réciproquement, supposons qu’une À-matrice U (À) a pour inverse
la À-matrice C/"X(À); les déterminants de ces matrices étant des
polynômes par rapport à À et leur produit étant l ’unité, il en résulte
que chaque déterminant est un polynôme de degré nul.
De la dernière remarque découle un complément au théorème
que nous venons de démontrer:
Une k-matrice inverse d'une k-matrice unimodulaire est unimodu­
laire.
La notion de matrice unimodulaire est utilisée pour formuler
le critère suivant d'équivalence des k-matrices :
Deux k-matrices A (À) et B (À) d'ordre n sont équivalentes si et
seulement si il existe deux k-matrices unimodulaires U (À) et V (À)
d'ordre n telles que Von ait
B(k) — U (À) A (À) V (À). (1)
Introduisons d ’abord une notion qui sera utilisée au cours de la
démonstration de ce critère. Appelons matrice élémentaire une matri-
384 FORME NORMALE DES MATRICES CCH. XIII

ce numérique (et, par conséquent, une À-matrice) qui est de la forme


/I 0,

1
• a (*); (2 )
1

\0 1'
une matrice élémentaire (2) a la même structure que la matrice unité
à cette différence près que le ième élément de la diagonale principale,
1^ n, n ’est plus l’unité, mais un nombre non nul a du champ P.
D’autre part, appelons également matrice élémentaire une ^.-matrice
ayant la même forme que la matrrCe unité à cette différence près
qu’à l’intersection de sa ième ligne et de sa / ème colonne se trouve
un polynôme <p (k) de l ’anneau P [À] :

. . . 1 . . . <p(À) (0 .
(3)

ici 1 < t < n, 1 < j < n, i =£ j.


Toute matrice élémentaire est unimodulaire. En effet, le détermi­
nant de la matrice (2) est a, et 0, d’après notre hypothèse;
le déterminant de la matrice (3) est l ’unité.
Vapplication d'une transformation élémentaire à une %-matrice
A (À) est équivalente à la multiplication, soit à gauche, soit à droite,
de la matrice A (À) par une matrice élémentaire.
En effet, le lecteur peut vérifier facilement que les quatre pro­
positions suivantes sont vraies : 1) la multiplication à gauche de la
matrice A (À) par une matrice (2) est équivalente à la multiplication
de la ième ligne de A (À) par le nombre a ; 2) la multiplication à droite
de la matrice A (À) par une matrice (2) est équivalente à la multi­
plication de la ième colonne de A (À) par le nombre a ; 3) la multi­
plication à gauche de la matrice A (K) par une matrice (3) est équiva­
lente à ce qu’on ajoute à la ième ligne de A (À) sa ; ème ligne multi­
pliée par qp (À) ; 4) la multiplication à droite de la matrice A (À)
§ 60] X-MATRICES UNIMODULAIRES 385

par une matrice (3) est équivalente à ce qu’on ajoute à la ; ôme colonne
de A (X) sa ième colonne multipliée par cp (À).
Passons maintenant à la démonstration du critère d'équivalence
des Amatrices. Soit A (À) ~ B (X) ; alors, on peut passer de A (X)
à B (X) appliquant à A (X) un nombre fini de transformations élé­
mentaires. Remplaçant chacune de ces transformations par la mul­
tiplication à gauche ou à droite par une matrice élémentaire, nous
sommes conduits à l ’égalité
B(X) = Ui (X) .... Uk(k)A (X)7t (X) . . . F/(X), (4)
où les matrices t/^X), (X), Vt (X), Vi (X) sont élémen­
taires et, par conséquent, unimodulaires. Ainsi, les matrices
U (X) = U, (X) ...£ /* (X), V (X) = Vt (X) . . . Vi (X), (5)
produits des matrices unimodulaires, sont encore unimodulaires,
de sorte que l ’égalité (4) peut être récrite sous la forme (1). Notons
que si, par exemple, k — 0, c’est-à-dire si les transformations élé­
mentaires étaient appliquées aux colonnes, alors on pose U (X) = E .
La partie démontrée du critère permet d’énoncer le résultat
suivant :
Une X-matrice est unimodulaire si et seulement si elle est le produit
d'un nombre fini de matrices élémentaires.
En effet, nous avons déjà exploité le fait que le produit de matri­
ces élémentaires est une matrice unimodulaire. Inversement, soit
une matrice unimodulaire W (X) ; alors W (X) est équivalente à la
matrice unité E. Répétant la démonstration donnée ci-dessus avec
les matrices E et W (X) au lieu des matrices A (X) et B (X), la formu­
le (4) donne
W (X) =,£/* (X) . . . Uh (X) Vt (X) . . . Vi (X),
c’est-à-dire la matrice W (X) est représentée sous la forme d’un pro­
duit de matrices élémentaires.
Il est facile maintenant de démontrer la réciproque de notre critère.
Soient deux matrices A (X) et B (X) et supposons qu’il existe deux
matrices unimodulaires U (X) et V (X) telles que l ’on ait (1). On a déjà
démontré que les matrices U (X) et V (X) peuvent être représentées
sous la forme d’un produit de matrices élémentaires; supposons que
ce soient les représentations (5). L’égalité (1) prend alors la forme (4)
et, remplaçant dans (4) toute matrice élémentaire par la transforma­
tion élémentaire correspondante, nous obtenons finalement que
A (X) - B (X).
Polynômes matriciels. On peut considérer la notion de X-matrice
d’un autre point de vue. Appelons X-polynôme matriciel d'ordre n sur
un champ P un polynôme par rapport à X dont les coefficients sont
des matrices carrées d’un même ordre n à éléments dans le champ P ;
386 FORME NORMALE DES MATRICES [CH. XIII

voici sa forme générale:


A qK*1-f- + . . . + Ak-i% + Ah. (6)
Interprétant le produit de la matrice A f par Àfe”1, conformément
au § 15, comme le produit de chaque élément de Ai par Xk~l et
additionnant les matrices dans (6) d’après ce même § 15, nous
constatons que tout X-polynôme matriciel d'ordre n peut être mis
sous la forme d'une X-matrice d'ordre n. Ainsi,
/ 4 0\ /O —3\ f l 2\ /O 1\
( - 1 1 ) X3+ (o i ) x*+ (o - 2) x + (0 0 ) =
__i4ks + k - 3 X * + 2 k + l\
“ l —k9 k9+ k9- 2 k j '
Inversement, toute X-matrice d'ordre n peut être représentée sous
la forme d'un X-polynôme matriciel d'ordre n . Ainsi,
/ 3À2—5 À+ l \ /O 0\ /3 0 \ _ /O 1\ /-5 1\
U 4 + 2* - 3 ) = ( l 0 ) *4 + (o 0) X + (2 0) X + \ O - 3) '
La correspondance entre les À-matrices et les À-polynômes matri­
ciels est bijective et même isomorphe au sens du § 46. En effet,
l’égalité des À-polynômes de la forme (6) est équivalente à l’égalité
des coefficients matriciels des mêmes puissances de À, et la multi­
plication d’une matrice par X est équivalente à la multiplication
de cette matrice par la matrice scalaire ayant X pour éléments de la
diagonale principale.
Soit une À-matrice A (À),
A (À) = AQXk + AiÀ*^1+ .. • + Ah-iX + Ahy
où la matrice A 0 est non nulle. L’entier k est appelé degré de la
À-matrice A (À) ; il est clair que k est le plus haut degré en À des
éléments de A (À).
L ’interprétation des À-matrices comme des polynômes matriciels
permet de développer la théorie de la divisibilité des À-matrices
analogue à celle des polynômes numériques; bien entendu, la non-
commutativité de la multiplication des matrices et l’existence de
diviseurs de zéro compliquent cette théorie. Nous nous bornerons
à la considération de Valgorithme de division avec reste.
Soient deux X-matrices d'ordre n sur un champ P
A { k ) = A J . k + A i k K* + . . . + A h_ ik + A k ,
B (k) = B0kl + B,k1-1+ . . . + B ^ k + Bi ;
en outre, supposons que la matrice B 0 soit non dégénérée, cest-à-dire
que la matrice B~x existe. Alors on peut indiquer deux X-matrices Qx(À)
$ 60] AMATRICES UNIMODULAIRES 387

et R x (X,) d'ordre n sur le champ P telles que Von ait


A (\) = B (À) Qi (À) + /?t (l), (7)
avec degré de R x{k) inférieur à celui de B(k) ou bien avec R t (k) = 0.
D'autre part, on peut trouver deux k-matrices d'ordre n sur le champ P
telles que
A{k) = Q2{k)B{k) + Rz {k), (8)
le degré de R 2 (X) étant inférieur à celui de B (X) ou bien R 2 (X)
étant la matrice nulle. Les matrices Çi (X), i î t (X) et Q2 (X), R 2 (X)
vérifiant respectivement les égalités (7) et (8) sont bien définies.
La démonstration de ce théorème est en tous points semblable
à celle du théorème analogue sur les polynômes numériques (cf. § 20).
Supposons, par exemple, que la condition (7) soit satisfaite encore
par un couple de matrices Q3 (X) et R x (X), le degré de R x (X) étant
inférieur à celui de B (X). Alors on a
B (X) [Qt (X) - Qt (X)l « R t (X) - R t (X).
Le degré du second membre est inférieur à l, tandis que le degré
du premier membre, sous l ’hypothèse que la matrice entre crochets
soit non nulle, est, vu que la matrice B 0 est non dégénérée, supérieur
ou égal à L II en résulte l ’unicité des matrices (X) et R x (X).
Notons, pour démontrer Texistence de ces matrices, que le degré
de la différence

est, pour k ^ . I, strictement inférieur à k; par conséquent, B ^ A ^ ' 1


est le ternie principal du X-polynôme matriciel Qx (X). On continue
la démonstration comme au § 20. D’autre part, le degré de la diffé­
rence

est aussi strictement inférieur à k, c’est-à-dire que A 0B llXh^1 est


le terme principal du X-polynôme matriciel Q2 (X). Nous constatons
que, effectivement, les X-matrices QT (X) et Qz (X) (ainsi que R x (X)
et i?2 (X)) sont, dans le cas général, différentes.
Théorème fondamental des matrices semblables. Nous avons
déjà signalé ci-dessus que nous n ’avions pas de moyen efficace pour
dire si deux matrices numériques (c’est-à-dire à éléments dans un
champ de base P) A et B sont semblables ou non. D’antre part,
leurs matrices caractéristiques A —- kE et B — kE étant des X-ma-
trices, le problème d ’équivalence de ces matrices peut être résolu
de façon efficace. Aussi est-il facile de comprendre l ’importance
du théorème suivant.
388 FORME NORMALE DES MATRICES [CH. XIII

Deux matrices A et B à éléments dans un champ P sont semblables


si et seulement si leurs matrices caractéristiques A — XE et B — XE
sont équivalentes.
En effet, soient deux matrices semblables A et B ; autrement
dit, il existe une matrice C non dégénérée sur le champ P telle que
B = C-'AC.
Alors
C-1(A - X E ) C = C+AC- X (C-'EC) - B - X E .
Or, les matrices numériques non dégénérées C"1 et C sont des À-
matrices unimodulaires. Nous voyons que la matrice B — XE est
égale à la matrice A — XE multipliée respectivement à gauche
et à droite par deux matrices unimodulaires, c’est-à-dire A — XE ~
~ B — XE.
La démonstration de la réciproque est plus compliquée. Soit
A —XE ~ B —XE.
Alors, il existe des matrices unimodulaires U(X) et V(X) telles que
l’on ait
U (X) (A - XE) V (X) = B — XE. (9)
%
Vu que les matrices unimodulaires sont inversibles et ont pour
inverses des À-matrices, déduisons de (9) les égalités suivantes qui
seront utilisées plus tard :
U(X){A~XE) = ( B - X E ) V~l (X), \
(A - XE) V (X) = U-1 (X) (B — XE). J (1U)
La À-matrice B — XE étant du premier degré en À et le coeffi­
cient du terme principal du polynôme matriciel correspondant étant
la matrice non dégénérée — 2?, l ’algorithme de division avec reste
est applicable aux matrices U (À) et B — XE: il existe, donc, deux
matrices Q1 (À) et R 1 (la matrice R x est de degré nul en Àsi elle n ’est
pas nulle, c’est-à-dire R x ne dépend pas de À) telles que
U (À) — (B —XE) Qt (À) + jRj. (11)
De même, on a
V (À) - Q2(à) (B - XE) + R 2. (12)
On déduit de (9), utilisant (11) et (12), l ’égalité
R y (.A - X E ) i?2 = {B - XE) - U (À) {A—XE) Q2(À) (B - XE) -
- { B - XE) Qy (À) (A - XE) V (À) +
+ (B — XE) Qt (À) (A - XE) Q2 (à) (B - XE)
§ 60] AMATRICES UNIMOD ULAIRES 389

ou, d’après (10), l ’égalité


Ri (A — XE) RZ= ( B - XE) — (B— XE) 7"1 (X) Q2(X) (B — XE) -
- (B — XE) Qi (X) U-1 (X) (B - XE) +
+ ( B - XE) Qi {X)(A—XE) Qz (X) {B - XE) -
= ( B - X E ) { E - [ V - ' ( X ) Q 2(X) +
+ Qx (*) P '1(*) - Qi (*) (A - XE) Q2(X)] {B - XE)}.
La matrice entre crochets dans le second membre est, en réalité,
nulle; en effet, supposant le contraire, cette matrice serait une
X-matrice, puisque V~x (X) et U (X) sont des X-matrices, et, par
conséquent, elle serait de degré au moins nul, et le degré de la matrice
entre accolades serait au moins 1, de sorte que le degré du second
membre serait au moins 2. Or, cela est impossible, vu que le premier
membre est une X-matrice de degré 1.
Ainsi,
R i (A-~XE)Rz = B - X E ,
d’où, identifiant les coefficients matriciels des mêmes puissances
de X, il vient :
R iA R z = B f (13)
R tR 2= E. (14)
L’égalité (14) montre non seulement que la matrice R 2 est non
nulle, mais aussi qu’elle est non dégénérée ; en outre,

alors l ’égalité (13) prend la forme


R ? A R Z= B,
ce qui démontre que les matrices A et B sont semblables.
En même temps, nous avons trouvé le moyen de calculer la matrice
non dégénérée i?2, transmuant la matrice A en la matrice B. Notamment,
les matrices A — XE et B — XE étant équivalentes, la première
se réduit à la seconde par un nombre fini de transformations élémen­
taires. Choisissons parmi ces transformations celles qui sont appli­
quées aux colonnes et notons par V (X) .le produit des matrices élé­
mentaires correspondantes, l ’ordre des facteurs devant être conservé.
Ensuite, divisons V (X) par B — XE de manière que le quotient pré­
cède le diviseur (cf. (8)). Le reste de la division est la matrice R 2.
En réalité, on peut éviter cette division si l ’on utilise le lemme
suivant, qui trouvera aussi d’autres applications dans le § 62:
390 FORME NORMALE DES MATRICES [CH. XIII

Lemme. Soit
V (k) = VJS + + ... + V ^ k + V a, F0^ 0 . (15)
Si
V(k) = ( k E - B ) Q i {k) + R i,
V(k) = Q2( k ) ( k E - B ) + JR2, (lb)
alors
Ri = B*vo+ B*'*vi + ... + B V ^ t + Fat
i?i = 7 0tf‘ + F1tfi-l + . . . + 7 ^ + 7,. (17)

Il suffit de démontrer au moins la première partie du lemme,


car la seconde se démontre de façon tout à fait analogue, La démons­
tration se ramène à la vérification directe de l ’égalité (16), en rem-
plaçant le polynôme F (A) par son expression (15), par la formule
(17) et prenant pour (A) le polynôme
Qi (M - V t f - 1+ (BV, + F,) A5-* + (BW0+ BV*+ V2) A ^ + . . .
. . . + (B*-'V0+ B s~*Vi + . . . + V a-i).

On laisse au lecteur le soin de le vérifier.


Exemple. Soient deux matrices

Leurs matrices caractéristiques sont équivalentes, car elles se réduisent


à la même forme canonique
(i O \
\o x.2_a,_6/ ’
par conséquent, les matrices A et B sont semblables.
Pour calculer la matrice R 2 transmuant A en B , trouvons une famille de
transformations élémentaires réduisant A — XE à B — AE. Ainsi,

I S+4X -4 \ /«+tt -4 \ (~ i0 -x -4 \
" V -16-8X H - * / V -1 0 4 26 ii-X}~

11 n'y a que les deux dernières transformations qui sont appliquées aux colon­
nes: on ajoute à la première colonne la seconde multipliée,par —8, puis on mul-
tiplie la première colonne par — . Le produit des matrices élémentaires cor
§ 61] FORME NORMALE DE JORDAN

respond antes est

Cette matrice ne dépendant pas de X, elle est la matrice R 2 cherchée.


Evidemment, la matrice traii3ii mut A en B n ’est pas unique. Par exemple,
la matrice

transmue également A en B .

§ 61. Forme normale de Jordan


Nous allons considérer l'ensemble des matrices carrées d’ordre n
à éléments dans un champ P . Définissant dans cet ensemble un type
spécial de matrices, appelées matrices de Jordan, nous montrerons
qu'une classe assez large de matrices carrées a pour formes normales
des matrices de Jordan. Notamment, pour qu'une matrice carrée
soit semblable à une matrice de Jordan ou, comme on dit, soit réductible
à la forme normale de Jordan, il faut et il suffit que les racines caracté­
ristiques de cette matrice appartiennent au champ de base P . Choisis­
sant pour P le champ des nombres complexes, il en résultera que
toute matrice à éléments nombres complexes est réductible sur le champ
des nombres complexes à la forme normale de Jordan.
Introduisons les définitions nécessaires. On appelle cellule de
Jordan d ’ordre k associée à un nombre une matrice d ’ordre h
I < k <; n, qui est de la forme

Ad 1
Âq 1

( 1)

ü
autrement dit, la diagonale principale de cette matrice a pour
éléments le nombre À0 répété k fois; la ligne parallèle, la plus proche
île la diagonale principale, située au-dessus de cette dernière, a pour
éléments l’unité répétée k — \ fois; tous les autres éléments de la
392 FORME NORMALE DES MATRICES [CH. X III

matrice (1) sont des zéros. Ainsi, les matrices

sont des cellules de Jordan, respectivement, du premier, du deuxième


et du troisième ordre.
On appelle matrice de Jordan d ’ordre n une matrice de la forme

2
( )

h j

ici les sous-matrices / 2, . . ., J 8 situées le long de la diagonale


principale sont les cellules de Jordan associées à des nombres du
champ P (qui ne sont pas forcément tous distincts), les ordres des
cellules n ’étant pas nécessairement tous différents. Les éléments
de la matrice (2) n ’appartenant pas aux cellules J k sont tous nuis.
En outre, s ^ 1, c’est-à-dire une cellule de Jordan d’ordre n est
une matrice de Jordan du même ordre, et il est clair que s ^ n.
Bien que cela ne sera pas utilisé par la suite, notons quand même
que la structure d ’une matrice de Jordan peut être décrite sans
recourir à la notion de cellule de Jordan. Notamment, il est clair
qu’une matrice J est une matrice de Jordan si et seulement si elle
est de la forme
' Ai 0 ^
^2 !
J * ■

871- i
0 Xn j
a vec Xu * = i, 2, . . rc, éléments du champ P, et e^, j — 1, 2, . . .
. n — 1, zéro ou unité; en outre, si = 1, alors Xj = X7-+
I 61] FORME NORMALE DE JORDAN 393

Les matrices diagonales sont un cas particulier des matrices de


Jordan; ce sont,,effectivement, les matrices de Jordan dont toutes
les cellules de Jordan sont d’ordre 1.
Notre but immédiat est de calculer leuforme canonique de la matrice
caractéristique J — %E d'une matrice de Jordan J d'ordre n. Trouvons
d’abord la forme canonique de la matrice caractéristique d ’une
cellule de Jordan (1) d’ordre k :
/A* —* 1 0 \
K -x î

(3)

• 1
o %0- x l
Calculant le déterminant de cette matrice et se rappelant que le
coefficient du terme principal du. polynôme dh(X) doit être l’unité,
nous trouvons
dh{X) = ( X~X 0) \
D’autre part, parmi les mineurs d’ordre A: — 1 de la matrice (3)
il y en a un égal à l ’unité, à savoir le mineur qui s’obtient en élimi­
nant la première colonne et la dernière ligne de la matrice (3).
Ainsi,
c k - iW - 1 .
Il en résulte que la forme canonique de la matrice (3) est la h-ma­
trice d'ordre k :

0 \

(4)

i
\ o ( x - h t 1

Démontrons maintenant le lemme.


:*<>4 FORME NORMALE DES MATRICES IGH. XUi

Si Les polynômes rp, (Â), <p2 W, . • <p^ (A.) de Vanneau P IM


sont deux à deux p r e m i e r s e n t r e eux, alors on a l'équivalence :
1 0 \

APi(^) 0
! <Pz(M

\ 0 cpt (X)

n <pi (X) /
0
i=l
Il suffit-, évidemment, de considérer le cas de t = 2. Les poly­
nômes (j.-j (Â) et (X) étant premiers entre eux, il existe dans Tan*
neau P [A] des polynômes Wj(X) et u2(k) tels que
<Pi W ui (^) ~f T'2 (^) lh. (A.) = 1.
Par conséquent, on a
/^(X) o /<PiW
V 0 fp2 W / V o <p2(X) )
/<PlW <Pf M «1 (ty + <P2(X) «2 (*-) \ /<Pi M 1 \
V 0 j “ l 0 <p2( ? i ) j '
/ 1 <Pt( ? v ) \ ___ / I cpt (A,) \

W 2W 0 ) \0 — <Pi{X)<p2(X))

- { '
\o -?,(>■>0 fsixjjW 1
[a
0 )
,,,a )< p .jx )}’
ce qu'il fallait démontrer.
Passons maintenant à la considération de la matrice caractéristi­
que d’une matrice de Jordan J de la forme (2) :

J j - X E t ) ______ 0 \
| j 2~ x e 2
J —XE — (5)

0 J a-X Ë 7 \ /
§ 61] FORME NORMALE DE JORDAN 395

ici E t est une matrice unité du même ordre que J h i — 1,2, . . $.


Soient X2, . . Xt, t ^ s, des nombres distincts auxquels sont
associées les cellules de Jordan de la matrice / . Supposons, ensuite,
que le nombre de cellules de Jordan associées au nombre X* soit
qu ^ 1, et que les ordres des cellules, disposés suivant leur ordre
de décroissance, soient
hn^ ^ ^iQi î (®)
ici i = 1, 2, . . . , t. Notons que
t
S =
i=l

S S =w
i=i i =1
bien que Ton n ’utilisera pas ces égalités.
Appliquant les transformations élémentaires aux lignes et colon­
nes de la matrice (5) qui engendrent la cellule — XEt, nous ne
touchons manifestement pas aux autres cellules diagonales. Il en
résulte que la matrice (5) peut être réduite au moyen de transforma­
tions élémentaires à la forme où toute cellule J t — XEU i — 1,
2, . . s, est remplacée par une cellule de la forme (4). Autrement
dit, la matrice J — XE est équivalente à une matrice diagonale dont
les éléments diagonaux sont, à part un certain nombre d'unités, les
polynômes suivants qui correspondent à toutes les cellules de Jordan
de la matrice J :
(Â -X 1)ftu, ( l - K ) kl\ (X -X ^i,
( l - h ) ks\ l (7)

(X - Xt)htl, (X - Xt)ht*, h ) ktq*. >


Nous n ’indiquons pas ici les places occupées par les polynômes (7)
dans la diagonale principale, car les éléments diagonaux de toute
^-matrice diagonale peuvent être déplacés en échangeant des lignes
et des colonnes de même indice. Cette remarque doit être prise en
considération dans ce qui suit.
Soit q le maximum des nombres qu i == 1, 2, . . t . Désignons
par en-j+l (X) le produit des polynômes qui composent la f colon­
ne du tableau (7), 7 = 1, 2, . . ., q, c’est-à-dire
^ Il {X Àj) (8)
i*=1
en outre, si certains éléments de la ; ème colonne dans (7) sont absents
(cela peut se produire lorsque qt < j pour certain indice i), alors
396 FORME NORMALE DES MATRICES [CH. XIII

les facteurs correspondants dans le produit (8) doivent être l ’unité.


Les nombres Xv À2, . . ., À* étant, d ’après notre hypothèse, distincts,
les puissances des binômes linéaires, éléments de la / ème colonne
du tableau (7), sont deux à deux premières entre elles* Par consé­
quent, vu le lemme démontré ci-dessus, ces puissances peuvent
être remplacées, au moyen de transformations élémentaires de la
matrice, par leur produit en-/+ x. (X) et par un certain nombre d’élé­
ments unité.
Réalisant ceci pour ; = 1, 2, . . g, nous obtenons
fl 0

1
J-XE en-q+ i (^ ) (9)

(X)
U) en (^)>
C'est là la forme canonique cherchée d'une matrice J — XE. En effet,
les coefficients des termes principaux des polynômes, éléments
diagonaux de la matrice (9), sont tous l’unité et chacun de ces poly­
nômes, vu la condition (6), est divisible par le polynôme qui le
précède.
Exemple* Soit

2 1 0 « \
0 2 1
0 0 2

J ^r. 5 1
0 5

5 1
0 ,5

0 2
/
Le tableau des polynômes (7), correspondant à cette matrice de Jordan
d’ordre 9, est de la forme
(Jt-2)3, k - 2, k - 2,.
(k —5)*, ( k - 5)3.
§ 61] FORME NORMALE DE JORDAN 397

Par conséquent, les facteurs invariants de la matrice J sont les polynômes


e9 (X) = ( X - 2)3 ( X - 5)2,
2) (X—5)®t
e*j (^) “ X—2,
tandis que e# (X) — . . . —ex (X) — 1.
A présent que nous avons appris à reconstituer, à partir d ’une
matrice de Jordan / , la forme canonique de sa matrice caractéristi­
que, nous pouvons démontrer le théorème suivant :
Deux matrices de Jordan sont semblables si et seulement si elles sont
formées par les mêmes cellules de Jordan, c'est-à-dire si, les cellules
de Jordan étant les mêmes, seule leur disposition le long de la diagonale
principale des deux matrices peut être différente.
En effet, le tableau des polynômes (7) est bien défini par les
cellules de Jordan d’une matrice de Jordan J ; en outre, le tableau
(7) ne dépend pas de la disposition des cellules le long de la diagonale
principale de cette matrice, de sorte que deux matrices de Jordan J
et / ' ayant les mêmes cellules de Jordan possèdent le même tableau
des polynômes (7) correspondant et, par conséquent, les mêmes
polynômes (8). Ainsi, les matrices caractéristiques / — XE et / ' —
—■XE ont les mêmes facteurs invariants, c’est-à-dire qu’elles sont
équivalentes; donc, les matrices / et / ' sont semblables.
Inversement, deux matrices de Jordan / et / ' étant semblables,
leurs matrices caractéristiques possèdent les facteurs invariants
identiques. Soient les polynômes (8), j = 1, 2, . . q, ceux des
facteurs invariants qui sont différents de l ’unité. Or, les polynômes
(8) permettent de reconstituer le tableau des polynômes (7). Notam­
ment, les polynômes (8) se décomposent en un produit des puissan­
ces des facteurs linéaires, vu que, comme on l ’a déjà démontré,
les facteurs invariants de la matrice caractéristique d ’une matrice
de Jordan possèdent cette propriété. Le tableau (7) est juste composé
des puissances maximales des facteurs linéaires qui font partie de la
décomposition des polynômes (8). Enfin, à partir du tableau (7)
on peut reconstituer les cellules de Jordan des matrices de Jordan
initialement données; en effet, à tout polynôme (À — du
tableau (7) correspond une cellule de Jordan d ’ordre k tj associée
au nombre Ceci démontre que les matrices J et J' sont composées
des mêmes cellules de Jordan dont la disposition peut être différente
dans J et / ',
En particulier, il résulte de ce théorème que toute matrice de
Jordan semblable à une matrice diagonale est elle-même diagonale
et que deux matrices diagonales sont semblables si et seulement si Vune
d'elles s'obtient de Vautre en échangeant des éléments de la diagonale
principale.
398 FORME NORMALE DES MATRICES [CH. XIII

Réduction des matrices à la forme normale de Jordan. Soit


une matrice A à éléments dans un champ P, réductible à la forme
normale de Jordan, c’est-à-dire A est semblable à une matrice de
Jordan; alors il résulte du théorème démontré ci-dessus qu'une
forme normale de Jordan de A est bien définie à une disposition des
cellules de Jordan le long de la diagonale principale près. La condition
pour qu’une matrice A admette une telle réduction est donnée dans
le théorème qui suit ; de plus, la démonstration de ce théorème donne
un moyen pratique de trouver la matrice de Jordan semblable
à la matrice A, à condition, toutefois, qu’une telle matrice de Jordan
existe. Notons en outre que la réductibilité de A sur un champ P
signifie que les éléments de la matrice transmuant A en la forme
de Jordan appartiennent à P.
Une matrice A à éléments dans un champ P est réductible sur le
champ P à la forme normale de Jordan si et seulement si toutes ses
racines caractéristiques appartiennent au champ de base P .
En effet, si une matrice A est semblable à une matrice de Jordan,
alors ces deux matrices possèdent les mêmes racines caractéristiques.
Or, il n ’y a pas de difficulté à calculer les racines caractéristiques
de la matrice J : le déterminant de la matrice / — XE étant le pro­
duit des éléments de la diagonale principale, le polynôme | / — XE |
se décompose sur le champ P en un produit de facteurs linéaires
et ses zéros coïncident avec les nombres, éléments diagonaux de la
matrice / .
Réciproquement, supposons que les racines caractéristiques de la
matrice A soient des éléments du champ de base P. Soient
€n -q + i {X), • • • > € n - i (^)» £n (^) (10)
les facteurs invariants de la matrice A —XE différents de Punité :
alors
| A —XE | = ( — 1) e n- q + 1 (X) . . . & n-i (^) Gn (^)*
En effet, le déterminant de la matrice A — XE et celui de la matrice
canonique de A — XE doivent coïncider à un facteur numérique
près qui est, en réalité, (—i)71, car tel est le coefficient du terme
principal du polynôme caractéristique | A — XE |. Ainsi, parmi
les polynômes (10) il n ’y a pas de polynômes nuis, la somme des
degrés de ces polynômes est n et ils se décomposent tous, sur le
champ P, en un produit de facteurs linéaires (la dernière propriété
résulte de la supposition que le polynôme | A — XE | possède une
telle décomposition).
Soient (8) les décompositions des polynômes (10) en un produit
des puissances des facteurs linéaires. Appelons diviseurs élémentaires
du polynôme en »7*+1 les puissances des binômes linéaires distincts
intervenant dans la décomposition (8) de en-J+1, 7 = 1, 2, . . r/
§ 61] FORME NORMALE DE JORDAN 399

(on ne considère que les puissances différentes de l’unité), c’est-à-dire


les diviseurs élémentaires sont les polynômes
( k - k i f ü , ( K - h p J , . . . , ( k - X t)hti.
Les diviseurs élémentaires de tous les polynômes (10) sont dits
diviseurs élémentaires de la matrice A ; écrivons-les sous la forme d’un
tableau (7).
Prenons maintenant une matrice de Jordan d ’ordre n composée
des cellules de Jordan définies de la manière suivante: à tout divi­
seur élémentaire (X — XJ**-? de la matrice A nous faisons correspondre
une cellule de Jordan d'ordre k tj associée au nombre Xt. Il est clair
que les facteurs invariants, différents de l’unité, de la matrice
J — XE sont les polynômes (10) et seulement ces polynômes. Ainsi,
les matrices A — XE et J — XE sont équivalentes et, par conséquent,
les matrices A et J sont semblables.
Exemple. Soit une matrice
—16 —17 87 —108
8 9 —42 54
—3 —3 16 —18
—1 - 1 6 -8
Réduisant de la manière ordinaire la matrice A — XE à la forme canonique, nous
trouvons que les facteurs invariants (différents de l ’unité) de cette matrice sont
les polynômes
(* + 2),
€z (^)= ^ —L
Nous voyons que la matrice A se réduit à la forme normale de Jordan même sur
le champ des nombres rationnels. Ses diviseurs élémentaires sont les polynômes
— l)2, X — 1 et X + 2, de sorte que la forme normale de Jordan de la matri­
ce A est la matrice
1 10
0 10
0 \) 1
000
Si nous voulions calculer la matrice non dégénérée transmuant la matri­
ce A en la matrice / , nous devrions utiliser les remarques faites à la fin du
paragraphe précédent.
Enfin, en s’appuyant sur les résultats obtenus, on peut donner
une condition nécessaire et suffisante de la réductibilité d'une matrice
à la forme diagonale, qui a pour conséquence immédiate le critère
suffisant de la réductibilité à la forme diagonale, démontré au § 33.
Une matrice A d'ordre n à éléments dans un champ P est réductible
à la forme diagonale si et seulement si toutes les racines du dernier fac-
400 FORME NORMALE DES MATRICES [CH, XIII

invariant en (À) de la matrice caractéristique A — XE appartien­


le u r
nent au champ P et si, en outre, ces racines sont toutes simples.
En effet, la réductibilité d’une matrice à la forme diagonale est
équivalente à la réductibilité de cette matrice à une forme normale
de Jordan telle que toutes les cellules de Jordan soient d’ordre
unité. Autrement dit, les diviseurs élémentaires de la matrice A
doivent être des polynômes du premier degré. Or, les facteurs inva­
riants de la matrice A — XE étant des diviseurs du polynôme en (À),
il en résulte que cette dernière condition est équivalente à ce que
les diviseurs élémentaires du polynôme en (À) soient de degré unité,
ce qu’il fallait démontrer.

§ 62. Polynôme minimal


Soit une matrice carrée A d’ordre n à éléments dans un champ P.
Soit un polynôme de l’anneau P [À],
/ (^)= + a ^ ”1+ o&fc-iX+ otft ;
alors la matrice
/ (4) = aoâh + a ^ - 1+ . . . + a h_iA + akE
est dite valeur du polynôme / (X) pour X = A ; il faut attirer l’at­
tention du lecteur sur le fait que le terme indépendant de X du poly­
nôme / (À) multiplie dans l ’expression de / (A) la puissance nulle
de la matrice A, c’est-à-dire la matrice unité E.
On vérifie aisément que pour
/M = <p
et pour
f ( l ) = u(X)vÇK),
on a, respectivement.

f(A) = u{A)v(A).
Si la matrice A annule le polynôme f(X), c’est-à-dire si
f ( A ) = O,
alors la matrice A est appelée racine matricielle ou, encore, s’il
n’y a pas de danger de confusion, racine du polynôme / (X).
Toute matrice A est une racine d'un polynôme non nul.
En effet, on sait que les matrices carrées d’ordre n forment un
espace vectoriel à h? dimensions sur le champ P . Il en résulte que
S 82] POLYNOME MINIMAL 401

la famille de na + 1 matrices
A n\ A n i~ l , . . . , A , E

est non libre sur le champ P , c’est-à-dire qu’il existe dans P des
éléments Oq, a 1? , . , , 0^2 ne s’annulant pas simultanément et tels
que l ’on ait
0t04 n *+ . . *-\~&7fl—\A~\-an*E = 0.
Ainsi, la matrice A est une racine du polynôme non nul de degré
au plus n8 :
(p (X) ■= 0CqX o&jX * .. . -f- jX-{- (Uni.
La matrice A est aussi une racine de certains polynômes dont
le coefficient du terme principal est l ’unité; en effet, il suffit de
diviser tous les coefficients d’un polynôme non nul ayant A pour
racine par le coefficient du terme principal. Un polynôme à coef­
ficient unité dans le terme principal ayant A pour racine et étant
du plus petit degré possible est dit p o ly n ô m e m i n i m a l a sso c ié à u n e
m a tr ic è A . Notons qu’un p o ly n ô m e m in i m a l a sso c ié à u n e m a tr ic e A est
b ie n d é f i n i , car la différence de deux polynômes de ce genre serait
de degré inférieur à celui de chacun de ces polynômes, mais aurait
également A pour racine»
T o u t p o ly n ô m e f (X) a y a n t u n e m a tr ic e A p o u r r a c in e e s t d iv is ib le
p a r le p o ly n ô m e m in im a l m (X) a sso c ié à c e tte m a tr ic e .
En effet, soit
/ (X) = m (X) 3 (X) + r (X),
où le degré de r (X) est inférieur à celui de m (X) ; alors
fiA ) = m (A )q (A ) + r(A)

et les égalités / (4) — m (4) = 0 donnent : r ( A ) = 0, ce qui con­


tredit la définition du polynôme minimal,
Démontrons maintenant le théorème suivant :
L e p o ly n ô m e m in i m a l a sso c ié à u n e m a tr ic e A c o ïn c id e a v e c le
d e r n ie r f a c te u r i n v a r ia n t en (X) d e l a m a tr ic e c a r a c té r is tiq u e A — X E .
Démonstration. Conservant les notations et utilisant les résultats
du § 59, on peut écrire l’égalité
( _ 1)~ | _ XS | = (À) (X). (1)
Il en résulte en particulier que les polynômes en (X) et cin-i(^) sont
non nuis. Ensuite, désignons par B ( X ) la matrice adjointe de la
matrice A — X E (cf. § 1 4 ):
B{X)={A-XE)*.
26—1212
402 FORME NORMALE DES MATRICES [CH. XIII

L’égalité (3) du § 14 donne


(A-XE)B{X) = \A~~XE\E. (2)
D’autre part, les éléments de la matrice B (A) étant les mineurs
d ’ordre n — 1 de la matrice A — XE, munis des signes plus ou moins,
et le polynôme dn (X) étant le plus grand commun diviseur de ces
mineurs, il en découle
B(X) = dn- 1(X)C(X); (3)
en outre, le plus grand commun diviseur des éléments de la ma­
trice C (X,) est l'unité.
Les égalités (2), (3) et (1) entraînent
{A - XE) dn-y (X) C (X) = ( -1 )" dn. x(X) en (X) E .
On peut simplifier cette égalité en divisant par le facteur non nul
dn~i W > en effet, ceci découle de la remarque générale suivante :
soient un polynôme non nul <p (A) et une A-matrice non nulle D (A) =
= (d^(A)); en outre, soit d8t (A) =?£ 0, alors l’élément d ’indices
($, t) de la matrice q> (A) D (A) est le polynôme non nul <p(A)d^(A).
Ainsi, on a
( A - XE ) C ( M = ( - i ) nen(X)E9
d’où
p,t (A) E - {XE - A) [( - l)n+1 C (A)]. (4)
Cette formule montre que le reste de la division « à gauche »
de la A-matrice dans le premier membre par la matrice XE — A
est la matrice nulle. Or, du lemme démontré à la fin du § 60, il
vient que le reste en question est égal à la matrice en {A) E ~ en {A).
En effet, la matrice en (A) E peut etre récrite sous forme d ’un A-poly­
nôme matriciel dont les coefficients sont des matrices scalaires qui
commutent avec la matrice A . Ainsi, on a
en(A)~Q>
c’est-à-dire le polynôme en (A) est, effectivement, annulé par la matri­
ce A.
Il en résulte que le polynôme en (A) est divisible par le polynôme
minimal m (A) associé à la matrice A,
en {X) = m{X)q{X). (5)
II est clair que le coefficient du terme principal du polynôme q (A)
est Vunité.
Vu que m {A) — 0, on obtient, utilisant de nouveau le lemme
du § 60, que le reste de la division à gauche de la A-matrice m (A) E
I, ï.tij POLYNûMi -MINIMAL iMJ

par le binôme XE — A est la matrice nulle, c’cst-à-dire que


m {X) E -= {XE — A) Q (X). ((>)
Les égalités (5), (4) et (6) conduisent à la formule
( X E - A ) [( - l f +1 C (X)\ = (XE - A) [Q(X) g (X)\.
On peut diviser les deux membres de cette formule par le facteur
commun XE — A, vu que le coefficient E du terme principal du
À-polynôme matriciel XE — A est une matrice non dégénérée.
On obtient
c (À) = ( - i r Q(X)q (l).
Or, rappelons que Je plus grand commun diviseur des éléments
de la matrice C (X) est l'imité. Ceci entraîne que le polynôme q (À)
doit être de degré nul et, le coefficient de son terme principal étant
Tunité, on a q (X) ~ 1. Par conséquent, vu (fi), on a la formule
en (X) - m (À),
ce qu'il fallait démontrer.
Le polynôme caractéristique de la matrice A étant, en ver Lu de la
formule (1), divisible par le polynôme en (À), il résulte du théorème
que nous venons de démontrer le théorème suivant ;
Théorème de Hamilton-Cayley. Toute matrice est une racine de
son polynôme caractéristique.
Polynôme minimal d ’une application linéaire. Démontrons
d ’abord la proposition:
Soient deux matrices Semblables A et B et un polynôme / (À) ayant
A pour lutine; alors la matrice B est aussi une racine de / (À).
En effet, Soit
5 -C -M C .
Si
/ (X) = a 0Xh+ a ^ ' 1-1- . . . -|- a A_,?v -|- a,,,
alors
tXoAh-h atAh~l -f . . . + <Zh~\A -f a hE - -0.
Transmuant les deux membres de cette égalité par la matrice C\
il vient :
C~l (ao>l* + + . . . -f ah~iA + ahE) C =
= a 0(C-'ACf + a, {C~'ACf~l + . . . + (C^AC) + a hE =
= aoS* -f- <*,5* * . . . -|- &h-iB H- &kE ~ 0,
c’est-à-dire /(fî) = 0.
26*
404 FORME NORMALE DES MATRICES [CH. X III

Il en découle que le s m a tr ic e s s e m b la b le s p o s s è d e n t le m ê m e p o l y ­
nôm e m in im a l.
Soit maintenant <p une application linéaire dans un espace vecto­
riel à n dimensions sur un champ P . Cette application rapportée
à des bases différentes de l’espace donne des matrices semblables.
Le polynôme minimal de ces matrices semblables est dit p o ly n ô m e
m i n i m a l d e I n a p p lic a tio n lin é a ir e q>.
Utilisant les opérations sur les applications linéaires introduites
au § 32, on peut définir la notion de v a le u r d’un polynôme
/ W —+ a ^ -1 + . . . + CLk~i^ +
de Panneau P [ ^ l pour A,—<p, <p étant une application linéaire; en
effet, cette valeur est l’application linéaire
/ (9 ) = < W + «iV’*'1 + • . . + a*-t<P + ake,
où e est l ’application identique.
Ensuite, nous dirons que le polynôme f ( K ) e t t a n n u lé par une
application linéaire q>, si
/(<p) = w,
où (ù est l ’application nulle.
Vu la relation entre les opérations sur les applications linéaires
et sur les matrices, le lecteur n ’aura pas de difficulté à démontrer
que le p o ly n ô m e m in i m a l d 'u n e a p p l i c a t i o n lin é a ir e <p c o ïn c id e a v e c
le p o ly n ô m e ( b ie n d é f in i) à c o e ffic ie n t u n ité d u te r m e p r i n c i p a l a n n u lé
p a r V a p p l i c a t i o n lin é a ir e <p e t é t a n t d e d e g r é m i n i m a l . Ceci étant,
les résultats obtenus ci-dessus et, en particulier, le théorème de
Hamilton-Cayley peuvent être énoncés autrement, en langage des
applications linéaires.
Chapitre X IV GROUPES

§ 63. Définition et exemples de groupes


Les anneaux et les champs dont le rôle était si important dans
les chapitres précédents sont des ensembles munis de deux opéra­
tions algébriques indépendantes, de l ’addition et de la multipli­
cation. Toutefois, on rencontre souvent dans différentes branches
des mathématiques et dans leurs applications des ensembles sur
lesquels n ’est définie qu’une seule opération algébrique. Ainsi,
notons, en nous bornant pour le moment à des exemples déjà donnés
dans le livre, que l ’ensemble des substitutions de degré n n ’était
muni que d ’une opération algébrique, à savoir de la multiplication
(cf. § 3). D’autre part, la définition d ’un espace vectoriel (cf. § 8)
ne contient que l ’addition des vecteurs tandis que la multiplication
des vecteurs n ’a pas été définie (notons que la multiplication d’un
vecteur par un scalaire ne satisfait pas à la définition d ’une opéra­
tion algébrique donnée au § 44).
Parmi les ensembles à une opération algébrique les groupes sont
les plus importants. Cette notion trouve un champ d ’applications
très vaste et est devenue l’objet d ’étude d ’une branche indépendante
des mathématiques, dite théorie des groupes. Ce chapitre doit être
considéré comme une introduction à cette théorie ; il contient quel­
ques faits élémentaires sur les groupes que tout mathématicien est
tenu de connaître; le chapitre sera terminé par la démonstration
d’un théorème qui est moins élémentaire.
Convenons, selon l’usage adopté par la théorie générale des
groupes, d ’appeler multiplication l’opération algébrique en question
et d’user des notations correspondantes. Rappelons (cf. § 44) qu'une
opération algébrique interne sur un ensemble est supposée réalisable
et bien définie, c’est-à-dire pour tout couple d ’éléments a et b de l’en­
semble considéré le produit ab existe et est un élément bien défini
de l’ensemble en question.
On appelle groupe un ensemble G muni d ’une opération algébrique
interne qui est associative (mais pas nécessairement commutative),
en outre, cette opération doit être inversible.
L’opération algébrique définie sur G pouvant être non commuta­
tive, il faut préciser ce qu’on entend par opération inverse ; cela
406 GROUPES [CH. XIV

signifie que pour tout couple d’éléments a et b de G il existe dans G


un élément x bien défini et un élément y bien défini tels que l ’on ait
ax — b, ya~b.
Un groupe G composé d ’un nombre fini d ’éléments est dit groupe
fini et on appelle ordre du groupe G le nombre de ses éléments. L’opé­
ration définie sur le groupe G étant commutative, G est dit commuta­
tif ou abélien.
Indiquons quelques conséquences simples de la définition d’un
groupe. En s’appuyant sur les raisonnements du § 44, on peut
affirmer que l’associativité permet de définir d’une manière unique
le produit d'un nombre quelconque mais fini d'éléments d'un groupe,
l’ordre des facteurs devant être bien défini en raison de la non-
commutativité éventuelle de l’opération dont le groupe est muni.
Passons aux conséquences découlant de l’existence de l’opération
inverse.
Soit a un élément du groupe G. La définition d’un groupe entraîne
l’existence dans G d ’un élément ea bien défini tel que l’on ait :
aea ~ cet élément tient pour a le rôle d’unité à droite. Soit b
un autre élément du groupe G et soit y un élément de G tel que l’éga­
lité ya = b soit vérifiée (l’existence d’un tel élément y résulte de la
définition d ’un groupe) ; alors on a
b = ya = y (aea) = (ya) ea = bea>
Aussi, l’élément ea joue le rôle d’unité à droite non seulement pour a,
mais pour tout élément de G; pour cette raison nous le noterons e9.
L’opération inverse étant bien définie, l’élément e9 est unique.
De la même manière on peut démontrer l ’existence et l’unicité
d’un élément e9de G tel que l’égalité ë’a — a soit vérifiée pour tout
a de G. En réalité, les éléments e9 et e" coïncident,' car les égalités
e"ë = e,r et e ”e9 = ë entraînent: e,f = ef. Ceci démontre que dans
tout groupe G il existe un élément e bien défini tel que l'on ait pour
tout a de G les égalités
ae = e a ~ a*
Cet élément, noté par le symbole 1, est appelé élément unité du
groupe G.
Puis, pour tout élément a de G, il résulte de la définition de
groupes l ’existence et l’unicité d’un élément a9 et d’un élément a"
tels que l’on ait
aaf — 1, a"a — 1.
En réalité, les éléments a9 et a99 coïncident; en effet, les égalités
a”au* — a99(aa') = a99• 1 = a99,
a*aa9— (a"a) a ' - W - a '
S $3] DEFINITION ET EXEMPLES DE GROUPES 407

entraînent: a" = a'. Cet élément, noté a-1, est dit inverse de l ’élé-
ment a, c’est-à-dire
aar1= a~xa = 1.
Ainsi, tout élément d'un groupe possédé un élément inverse bien défini.
Il résulte des dernières égalités que l’élément inverse de a~l
est l’élément a. Il est facile ensuite de vérifier que l’élément inverse
du produit d’un certain nombre d’éléments est le produit des élé­
ments inverses ordonnés dans le sens contraire :
. . . d ji- iP n ) * == ^/i-i * * • •

Enfin, l’inverse de l ’unité est encore l’unité.


Pour vérifier si un ensemble muni d ’une opération est un groupe,
on doit démontrer l ’existence de l’opération inverse ; cette vérifi­
cation devient beaucoup plus aisée si, au lieu de ceci, on montre
l’existence d’une unité et d ’un élément inverse seulement d’un côté
(par exemple, à droite) sans vérifier leur unicité. Ceci devient pos­
sible grâce au théorème :
Soit un ensemble G muni d'une opération interne associative;
G est un groupe s'il existe dans G au moins un élément e vérifiant pour
tout a de G Végalité
ae~a
et si, de plus, il existe, parmi ces éléments unités à droite e, au moins
un élément e0 tel que tout élément a de G possède un élément inverse
à droite, soit a~x, qui vérifie Végalité:
aa“l ~ e 0-
Démonstration. Soit a”1 l ’un des éléments inverses à droite
de a. Alors on a
aa ^= £q= 6o^o = e^aa *,
c’est-à-dire aa-1 = e0aa~l . Multipliant à droite les deux membres
de cette égalité par un des éléments inverses à droite de a ”1, il vient :
ae0 = e0ae0, d’où l’on a : a = e0a, e0 étant une unité à droite dans G.
Aussi, l ’élément e0 est également une unité à gauche dans G. Soient
maintenant et et e2 respectivement une unité à droite et une unité
à gauche ; alors les égalités
6t c2ei —e2
entraînent : ex — e2, autrement dit, toute unité à droite est une unité
à gauche. Ceci démontre l’existence et l’unicité de l’élément unité
dans l ’ensemble G; conformément à la notation introduite ci-dessus,
nous désignerons cet élément par 1.
Puis, on a
a”1= a"1• 1 = a^aa"1,
408 GROUPES [CH. XIV

c’est-à-dire a~1 = a~xaa^x7où a~x est un des éléments inverses à droite


de a. Multipliant à droite les deux membres de la dernière égalité
par un des éléments inverses à droite de æ-1, il vient : 1 = a~xa,
c’est-à-dire l’élément a^ est en même temps un élément inverse
à gauche de a. Soient maintenant a et a~l des éléments inverses
de a respectivement à droite et à gauche; alors les égalités
a~xaa~x= (a^a) a[x= a '1,
a~xaarxx= a2l {aaxx) = a"1
entraînent: a^1 = a“\ ce qui prouve l ’existence et l’unicité de
l ’élément inverse a -1 de tout élément a de G.
A présent, il est facile de montrer que l’ensemble G est un groupe.
En effet, les équations ax — b et ya = b ont pour solutions les
éléments
x — a^b, y = ba~l .
L’unicité de ces solutions résulte des raisonnements suivants :
soient xx et x 2 tels que ax.1 = ax2\ multipliant à gauche les deux
membres de cette égalité par a~l7 nous obtenons xx = x2. Le théorè­
me est démontré.
Nous avons déjà rencontré plusieurs fois la notion d ’isomor­
phisme : on a parlé d ’isomorphisme des anneaux, des espaces vectoriels,
des espaces euclidiens. Cette notion, qui peut être aussi définie pour
les groupes, joue dans la théorie des groupes un rôle aussi important
que dans celle des anneaux. Deux groupes G et G' sont dits isomorphes
s’il existe une application bijective de G sur G' telle que pour tout
couple d ’éléments a et b de G ayant pour images respectivement
a! et b9 de G', l ’image du produit ab soit le produit af b*. Tout comme
dans le § 46 pour l ’élément nul et l’élément inverse d ’un anneau,
on peut montrer que l ’image de l’unité d’un groupe G par isomor­
phisme est l’unité du groupe G', de même que pour tout élément
a de G, dont l ’image est a9 de G \ l’image de a -1 par isomorphisme
est l’élément a '”1.
Avant de passer à des exemples, remarquons que si un groupe
est noté additivement, alors l’opération de groupe est Y addition,
l ’élément unité du groupe, noté 0, s’appelle élément nul, et, au lieu
de l ’inverse d ’un élément a du groupe, on aura Vélément opposé,
noté —a.
Comme premier exemple de groupes, citons les anneaux {et, en
particulier, les champs) qui sont même des groupes abéliens par rapport
à Vaddition\ c’est ce qu’on appelle le groupe additif d'un anneau.
Cette remarque permet de citer un grand nombre de groupes concrets
et, notamment, le groupe additif des nombres entiers, celui des
nombres pairs, les groupes additifs des nombres rationnels, réels,
complexes, etc. Notons que les groupes additifs des nombres entiers
§ 63] DÉFINITION ET EXEMPLES DE GROUPES 409

et des nombres pairs sont isomorphes, bien que le second groupe soit
un sous-ensemble du premier: Tapplication faisant correspondre
à tout nombre entier k le nombre pair 2k est bijective et, comme
il est facile de le vérifier, c’est même un isomorphisme entre le groupe
des nombres entiers et le groupe des nombres pairs.
Par contre, aucun anneau n ’est un groupe par rapport à la multi­
plication, car l’opération inverse qu’est la division n ’est pas toujours
réalisable. La situation ne change pas lorsqu’on passe d ’un anneau
à un champ, car dans un champ on ne peut pas diviser par le zéro.
Néanmoins, considérons les éléments non nuis d ’un champ. Un champ
n ’ayant pas de diviseurs de zéro, c'est-à-dire le produit de tout
couple d’éléments non nuis étant un élément non nul, la multipli­
cation est une opération algébrique associative et commutative
sur l’ensemble des éléments non nuis du champ ; de plus, l’opération
inverse qu’est la division existe pour tout élément de cet ensemble.
Ainsi, Vensemble des éléments non nuis d'un champ est un groupe
abélien; ce groupe est dit groupe multiplicatif du champ. Les groupes
multiplicatifs des nombres rationnels, réels et complexes sont des
exemples de tels groupes.
Il est clair que l’ensemble des nombres réels positifs est un groupe
multiplicatif. Ce groupe est isomorphe au groupe additif des nombres
réels ; en effet, faisant correspondre à tout nombre positif a le nombre
réel ln a, nous obtenons une application bijective du premier groupe
sur le second, qui, vu l ’égalité
In (ab) = ln a + ln6,
est un isomorphisme.
Ensuite, fixons dans le champ des nombres complexes l ’ensemble
des racines rcèmes de l ’unité. On a montré au § 19 que le produit
de deux racines raèmes de l ’unité ainsi que le nombre inverse d’une
telle racine sont encore des racines rcèmes de l ’unité. L’unité étant
manifestement un élément de l ’ensemble en question et la multi­
plication des nombres complexes étant associative et commutative,
on arrive à la conclusion que les racines nèmes de Vunité forment un
groupe abélien noté multiplicativement; en outre, ce groupe est fini
d'ordre n. Ainsi, pour tout nombre naturel n il existe des groupes finis
d'ordre n.
Le groupe multiplicatif des ratines rcèmcs de l'unité est isomorphe
au groupe additif de Vanneau Zn construit au § 45. En effet, soit e
une racine primitive nème de l ’unité; alors les éléments du premier
groupe sont de la forme zh avec A: = 0, 1, . . ., n — 1. Faisant
^ correspondre à l ’élément eh l ’élément Ch de l ’anneau Zn, c’est-à-dire
la classe des nombres entiers qui, divisés par n, donnent k pour
reste, nous obtenons une application isomorphe des deux groupes
en question, car si 0 ^ k ^ n — 1, 0 ^ l ^ n — 1, k + l =
410 GROUPES [GH. XIV

— nq + r avec 0 <; r ^ rc — 1, 0 •< g 1, alors eft «e* — er et


CA + C; = Cr.
Il est temps d’indiquer des ensembles numériques qui ne sont
pas groupes. Ainsi, l ’ensemble des nombres entiers n ’est pas un
groupe par rapport à la multiplication, l ’ensemble des nombres
réels positifs n ’est pas un groupe par rapport à l ’addition, l ’ensemble
des nombres impairs n ’est pas un groupe par rapport à l ’addition,
l ’ensemble des nombres réels négatifs n ’est pas un groupe par rapport
à la multiplication. La vérification de ces propositions ne présente
pas de difficulté.
Bien entendu, les groupes numériques considérés ci-dessus sont
des groupes abéliens. Les espaces vectoriels fournissent des exemples
de groupes abéliens dont les éléments ne sont plus les nombres;
il découle de la définition des espaces vectoriels (cf. §§ 29, 47) que
tout espace vectoriel sur un champ P est un groupe abélien par rapport
à Vaddition des vecteurs.
Passons à des exemples de groupes non commutatifs.
L’ensemble des matrices d’ordre n sur un champ P n ’est pas un
groupe par rapport à la multiplication, car la condition d ’existence
de l’élément inverse n ’est pas vérifiée pour toute matrice. Toutefois,
en nous bornant à l ’ensemble des matrices non dégénérées, nous
obtenons un groupe. En effet, le produit de deux matrices non
dégénérées est, comme on le sait, une matrice non dégénérée, la
matrice unité est non dégénérée, toute matrice non dégénérée pos­
sède une matrice inverse qui est encore non dégénérée, et, enfin,
la loi d’associativité étant valable pour toutes les matrices, elle
l ’est, en particulier, pour les matrices non dégénérées. Donc, on
peut parler du groupe des matrices non dégénérées d'ordre n sur un
champ P avec la multiplication des matrices pour opération de
groupe ; ce groupe pour n ^ 2 n ’est pas commutatif.
La multiplication des substitutions de degré ra, définie au § 3,
conduit à un groupe fini non commutatif très important. On sait
que la multiplication dans l ’ensemble des substitutions de degré n
est une opération algébrique associative (quoique non commuta­
tive pour n ^ 3), que la substitution identique E joue le rôle d ’unité
pour cette multiplication et que toute substitution de degré n est
inversible. Ainsi, l'ensemble des substitutions de degré n est un groupe
multiplicatif fini d'ordre n \. Ce groupe est dit groupe symétrique
de degré n ; il n ’est pas commutatif pour n > 3 .
Au lieu de prendre toutes les substitutions de degré n, considé­
rons à présent seulement les substitutions paires qui sont, comme on
\
lésait, au nombre de Utilisant le théorème démontré au § 3
qui dit que la parité d ’une substitution coïncide avec la parité
du nombre de ses transpositions, nous arrivons à la conclusion que
« 64] SOUS-GROUPES 411

le produit de deux substitutions paires est encore une substitution paire ;


en effet, nous obtenons la représentation du produit AB de deux
substitutions A et B sous la forme d ’un produit d ’un nombre pair
de transpositions en décomposant A et B en produits de transposi­
tions et en les écrivant l ’une après l ’autre. Puis, on sait que la multi­
plication des substitutions est associative et que la substitution
identique est paire. Enfin, une substitution A étant paire, il en est
de même de A~\ ce qui s’ensuit, par exemple, du fait que l ’on ob­
tient A ' 1 en échangeant les lignes de A, ce qui signifie que le nombre
des inversions dans A et dans A "1 est le même. Ainsi, Vensemble
des substitutions paires de degré n est un groupe multiplicatif fini
d'ordre y n !. Ce groupe est dit groupe alterné de degré n ; il est facile
de vérifier que pour n ^ 4 il n ’est pas commutatif; pour n = 3
ce groupe est commutatif.
Les groupes symétriques et alternés jouent un rôle très important
dans la théorie générale des groupes finis, de même que dans la
théorie de Galois. Remarquons qu’il est impossible de construire,
par analogie aux groupes alternés, un groupe multiplicatif de subs­
titutions impaires, le produit de deux substitutions impaires étant
une substitution paire.
Un grand nombre d’exemples de groupes est fourni par diffé­
rentes branches de la géométrie. Indiquons un simple exemple de ce
genre: l ’ensemble de toutes les rotations d’une boule autour de son
centre est un groupe non commutatif, à condition que l ’on définisse
le produit de deux rotations comme une rotation correspondant
à l ’application successive des deux rotations en question.

§ 64. Sous-groupes
Un sous-ensemble A d’un groupe G est dit sous-groupe de G si A
est un groupe par rapport à l ’opération de groupe définie sur G.
Pour vérifier qu’un sous-ensemble A d’un groupe G est un sous-
groupe de G, il suffit que les conditions suivantes soient satisfaites :
1) le produit de tout couple d ’éléments de A est un élément de A ;
2) l’inverse de tout élément de A est encore un élément de A. En
effet, la loi d’associativité étant valable pour le groupe G, elle l ’est
aussi pour les éléments de A ; en outre, les conditions 1) et 2) garan­
tissent l’appartenance à A de l’unité du groupe G.
Plusieurs groupes indiqués au paragraphe précédent sont des
sous-groupes d’autres groupes également cités dans ce paragraphe.
Aussi, le groupe additif des nombres pairs est un sous-groupe du
groupe additif des nombres entiers, tandis que ce dernier est un
sous-groupe du groupe additif des nombres rationnels. Tous ces
groupes, ainsi que tous les groupes additifs de nombres, sont des
412 GROUPES [CH. XIV

sous-groupes du groupe additif des nombres complexes. Le groupe


multiplicatif des nombres réels positifs est un sous-groupe du groupe
multiplicatif des nombres réels non nuis. Le groupe alterné de
degré n est un sous-groupe du groupe symétrique de degré ».
Soulignons qu’un sous-ensemble A d ’un groupe G, en vertu de la
définition, n ’est un sous-groupe de G que lorsque A est un groupe
par rapport à l'opération de groupe ^définie sur G. Cette condition est
essentielle. Aussi, le groupe multiplicatif des nombres réels positifs
n ’est pas un sous-groupe du groupe additif des nombres réels bien
que le premier soit un sous-ensemble du second.
Soient A et B deux sous-groupes d'un groupe G; alors leur inter­
section A{]B, c'est-à-dire Vensemble des éléments de G, appartenant
simultanément à A et à B, est encore un sous-groupe de G.
En effet, soient x et y deux éléments de l’intersection Af ] B;
alors x et y, de même que leur produit xy et l ’élément inverse x~\
appartiennent au sous-groupe A . Les mêmes raisonnements donnent
que les éléments xy et x-1 appartiennent au sous-groupe B , de sorte
que ces éléments appartiennent à l ’intersection A f) B.
Il est facile de voir que le résultat obtenu est vrai non seulement
pour deux sous-groupes, mais aussi pour un nombre quelconque, fini
ou infini, de sous-groupes.
Le sous-ensemble d ’un groupe G, composé du seul élément 1,
est mahifestement un sous-groupe du groupe G; ce sous-groupe, qui
appartient à tout sous-groupe de G, est appelé sous-groupe unité
du groupe G. D’autre part, le groupe G est l ’un de ses sous-groupes.
Un exemple de sous-groupes très intéressant est fourni par les
sous-groupes dits cycliques. D’abord introduisons la notion de puis­
sance d ’un élément a d’un groupe G. n étant un nombre naturel,
on appelle puissance nème d ’un élément a et on le note an le produit
de n facteurs égaux à a. On peut définir les puissances d'exposants néga­
tifs d ’un élément a d’un groupe G soit comme éléments inverses des
puissances positives, soit comme les produits de facteurs égaux à
l ’élément a “L En réalité, ces deux définitions sont équivalentes,
c’est-à-dire
(an)“I = ( O n. » > '0 . (1)
Pour le démontrer, il suffit de former le produit de 2n facteurs, dont
n premiers sont égaux à a et les autres à ar1, puis de simplifier. L ’élé­
ment coïncidant avec les deux membres de (1) sera noté a~n. Enfin,
convenons que la puissance d'exposant nul a0 de tout élément a de G
soit l ’élément unité.
Remarquons que, l ’opération de groupe sur G étant l ’addition,
il faut, au lieu des puissances d’un élément a de G, parler des multi­
ples de a, notés ka.
§ Ô4] SOUS-GROUPES *\'A

On vérifie facilement pour tout élément a d’un groupe G et


pour tous les entiers m et w, positifs, négatifs ou nuis, les égalités :
an •am—am•a71~ an+m, (2)
(an)m = anm. (3)
Désignons par {a} le sous-ensemble du groupe G, composé de
puissances de l’élément a; bien entendu, ce sous-ensemble contient
l’élément a, en tant que sa première puissance. Le sous-ensemble
{a} est un sous-groupe du groupe G; en effet, vu (2), le produit d’élé­
ments de {a} est encore élément de {a}, puis l’élément unité, égal
à a0, appartient à {a}; et, enfin, un élément appartenant à {a},
il en est de même de son inverse, vu l’égalité
(an) ^ ^ a - n
résultant de (3).
Le sous-groupe {a} s’appelle sous-groupe cyclique du groupe G
engendré par Vélément a. L’égalité (2) montre que ce sous-groupe
est toujours commutatif, même si le groupe G ne l’est pas.
Notons que nous n ’avôns pas affirmé ci-dessus que les puissances
d’un élément a étaient des éléments distincts du groupe G. S’il en
est ainsi, l’élément a est dit élément d'ordre infini. Cependant, sup­
posons qu’il existe parmi les puissances d’un élément a celles qui
coïncident, soit, par exemple, ak = a1 avec k=£ Z; cette situation
a toujours lieu si le groupe G est fini, mais peut aussi se rencontrer
dans le cas de groupes infinis. Si k > Z, alors
= 1,
c’est-à-dire il existe des puissances positives de l’élément a égales à
l’unité. Soit n le plus petit exposant entier positif tel que la puis­
sance correspondante de a soit l ’unité, c’est-à-dire
1) an = l , n > 0,
2) si ah^ 1, k > 0, alors
Dans ce cas on dit que l ’élément a est un élément d'ordre fin i,
à savoir un élément d'ordre n.
Un élément a étant d’ordre fini n, les éléments
1, a, a2, . an~x (4)
sont tous distincts, comme il est facile de le vérifier. Toute puissance,
positive ou négative, de Vélément a coïncide avec Vun des éléments (4).
En effet, soit k un nombre entier ; alors, divisant k par ny on obtient
k = nq + r, 0 < r < 7 i,
de sorte que, vu (2) et (3)T on a
ah — (an)Q*ar — ar. (5)
414 GROUPES [GH. XIV

Il en résulte que, un élément a étant d'ordre fini n et ah= l y


Ventier k doit être divisible par n. D’autre part, vu l ’égalité
— l = n( — l) + (n — 1),
on a pour un élément a d'ordre fini n légalité

La famille (4) étant composée de n éléments, il découle des résul­


tats obtenus que, l'élément a étant d'ordre fin i, son ordre n coïncide
avec l'ordre du sous-groupe cyclique {a}, c'est-à-dire avec le nombre
des éléments de {a}.
Enfin, notons que tout groupe n ’a qu’un seul élément d ’ordre un,
à savoir l ’élément unité. Le sous-groupe cyclique {1} coïncide
manifestement avec le sous-groupe unité.
Groupes cycliques. Un groupe G est dit cyclique s’il est composé
de puissances d’un de ses éléments a, c’est-à-dire si G coïncide avec
l’un de ses sous-groupes cycliques {a} ; l’élément a est dit générateur
du groupe G. Il est clair que tout groupe cyclique est abélien.
Le groupe additif des nombres entiers est un exemple de groupes
cycliques infinis; en effet, tout nombre entier est un multiple du
nombre 1, c’est-à-dire ce nombre est un générateur du groupe en
question ; on pourrait également prendre pour générateur le nom­
bre — 1.
Le groupe multiplicatif des racines raèmes de Vunité fournit un exem­
ple de groupes cycliques finis d'ordre n ; en effet, on £ montré au § 19
que toutes ces racines sont les puissances de l ’une d’elles, à savoir
d ’une racine primitive.
Le théorème suivant montre que ces exemples épuisent essentiel­
lement l ’ensemble des groupes cycliques:
Tous les groupes cycliques infinis sont isomorphes, de même que
sont isomorphes tous les groupes cycliques finis d'ordre n donné.
En effet, on établit une application bijective d ’un groupe cycli­
que infini de générateur a sur le groupe additif des nombres entiers,
en faisant correspondre à tout élément ah le nombre entier k ; cette
application est isomorphe, car, d ’après (2), la multiplication des
puissances de a conduit à l ’addition des exposants correspondants.
Soit maintenant un groupe cyclique fini G d’ordre n ayant pour
générateur l ’élément a ; désignant par e une racine primitive nème de
l ’unité, faisons correspondre à tout élément ak de G le nombre
e\ 0 k < n. C’est une application bijective du groupe G sur le
groupe multiplicatif des racines rcèmcs de l ’unité; il résulte de (2)
et (5) que cette application est un isomorphisme.
Ce théorème nous permet de parler du groupe cyclique infini ou
du groupe cyclique fini d'ordre n.
Démontrons maintenant le théorème suivant.
§ 64] SOUS-GROUPKS W'y

Tout sous-groupe d'un groupe cyclique est, lui-même, cyclique.


En effet, soit G = {a} un groupe cyclique, fini ou infini, de
générateur a, et soit A un sous-groupe du groupe G. On peut supposer
que .4 ne soit pas le sous-groupe unité, sinon il n ’y aurait rien à
démontrer. Soit Je, k > 0, le plus petit exposant entier tel que ah
appartienne à A ; une telle puissance ak existe toujours, car si A
contient un élément s > 0, différent de l’unité, alors A con­
tient également l ’élément inverse a*. Admettons que A contienne
un élément aî, l ^ 0, tel que l ne soit pas divisible par k. Alors,
notant par d le plus grand commun diviseur des entiers k et l, d > 0,
il existe des nombres entiers u et v tels que Ton ait
ku-\-lv = d,
de sorte que le sous-groupe A doit contenir l ’élément
( a W ) u= ad;
or, étant donné nos hypothèses d < k, ceci est en contradiction
avec le choix de ah. Cette contradiction démontre que A — {ak}.
Décomposition d ’un groupe suivant son sous-groupe. Soient
deux sous-ensembles M et N d'un groupe G ; on entend par produit MN
des sous-ensembles M et N l ’ensemble des éléments de G tels qu’une
représentation de ces éléments sous la forme d’un produit de deux
facteurs respectivement de M et de iV soit possible. L’associativité
de l ’opération de groupe entraîne celle de la multiplication des
sous-ensembles du groupe,
(MN) P = M ( N P ) f
Evidemment, l ’un des sous-ensembles M et N peut être composé
d’un seul élément a. Dans ce cas nous obtenons le produit aN d'un
élément par un ensemble ou bien le produit Ma d'un ensemble par un
élément.
Soit A un sous-groupe du groupe G; x étant un élément de G,
on appelle le produit xA classe d'équivalence à gauche du groupe G
suivant le sous-groupe A (ou, encore, modulo A), engendrée par
Vélément x. Il est clair que l'élément x appartient à la classe x A ,
car le sous-groupe A contient l ’unité et z-1 = x.
Une classe d'équivalence à gauche est engendrée par tout élément
appartenant à cette classe, autrement dit, l’élément y appartenant
à une classe xA, on a
yA = zA. (6)
En effet, on peut représenter y sous la forme
y — xa.
416 GROUPES [GH. XIV

où a est un élément du sous-groupe A. Par conséquent, on a pour


tout couple d’éléments a' et a" de A :
ya' = x(aa'),
xa" = y (ûtV'),
ce qui démontre l ’égalité (6).
Il en résulte que deux classes d'équivalence à gauche d'un groupe G
modulo A soit coïncident, soit sont disjointes. En effet, soit z un élé­
ment commun aux classes xA et y A ; alors
xA-=zA = yA.
Ainsi, le groupe G se décompose en classes d’équivalence à gauche
suivant un sous-groupe A, qui sont disjointes deux à deux. Cette
décomposition est dite décomposition à gauche du groupe G suivant
un sous-groupe A .
Remarquons que l ’une des classes d ’équivalence à gauche de
cette décomposition est le sous-groupe A ; cette classe est engendrée
par l’élément unité ou, plus généralement, par tout élément a de A f
car
aA = A.
Bien entendu, appelant le produit A x classe d'équivalence à droite
du groupe G modulo A y engendrée par l'élément x , nous obtenons, de
façon analogue, une décomposition à droite du groupe G suivant un
sous-groupe A . Il est clair que si un groupe G est abélien, alors les
deux décompositions, à gauche et à droite, suivant un sous-groupe
de G, coïncident et l’on peut parler de la décomposition d'un groupe
abélien suivant son sous-groupe tout court.
Aussi, la décomposition du groupe additif des nombres entiers
suivant le sous-groupe des nombres entiers divisibles par k contient
k classes d’équivalence distinctes, engendrées respectivement par
les nombres 0, 1, . . ., k — 1. En outre, la classe engendrée par
le nombre l, 0 ^ l ^ k — 1, est composée des nombres entiers qui,
divisés par k, donnent l pour reste.
Dans le cas non commutatif les décompositions à gauche et à
droite d’un groupe suivant mn sous-groupe peuvent être distinctes.
Considérons, par exemple, le groupe symétrique S 8 de degré 3.
Il est commode d ’écrire les éléments de sous forme de cycles
(cf. § 3). Choisissons pour sous-groupe A le sous-groupe cyclique
de l ’élément (12); A contient la substitution identique et la substi­
tution (12). Les autres classes d’équivalence à gauche modulo A
sont respectivement la classe (13) -A composée des substitutions
(13) et (1,32) et la classe (23) A composée des substitutions (23) et
(123). D’autre part, les classes d’équivalence à droite du groupe
.S3 modulo A sont: le sous-groupe A, la classe A >(13) composée
§ 65] SOUS-GROUPES DISTINGUÉS, GROUPES-QUOTIENTS 417

des substitutions (13) et (123), et la classe A *(23) composée des


substitutions (23) et (132). Nous constatons que dans le* cas consi­
déré la décomposition de S 3 à droite ne coïncide pas avec celle
à gauche.
Dans le cas de groupes finis l’existence de la décomposition d ’un
groupe suivant un sous-groupe conduit au théorème important
suivant :
Théorème de Lagrange. Vordre de tout sous-groupe d'un groupe
fini est un diviseur de Vordre du groupe.
En effet, soit A un sous-groupe d’ordre k d’un groupe fini G
d’ordre n. Considérons la décomposition à gauche du groupe G
suivant le sous-groupe A, Supposons que cette décomposition contien­
ne 7 classes; le nombre / s’appelle indice du sous-groupe A dans le
groupe G. Toute classe à gauche xA contient exactement k éléments,
car si
xai ^ x a 2,
avec a{ et a2 éléments de A , alors — Par conséquent,
n = k], (7)
ce qu’il fallait démontrer.
L’ordre d ’un élément coïncidant avec l ’ordre du sous-groupe
cyclique ayant cet élément pour générateur, il résulte du théorème
de Lagrange que Vordre de tout élément d'un groupe fini est un diviseur
de Vordre du groupe considéré.
Il découle également du théorème de Lagrange que tout groupe
fini ayant pour ordre un nombre premier est un groupe cyclique. En
effet, un tel groupe doit coïncider avec tout sous-groupe cyclique
engendré par un élément de ce groupe différent de l’unité. Il en résul­
te, vu la description des groupes cycliques ci-dessus, que pour tout
nombre premier p il existe, à un isomorphisme près, un seul groupe
fini d'ordre p .

§ 65. Sous-groupes distingués, groupes-quotients, homomorphismes


Un sous-groupe A d ’un groupe G est dit sous-groupe distingué
de G (ou sous-groupe invariant de G) si les décompositions à gauche
et à droite du groupe G suivant le sous-groupe A coïncident.
Aussi tout sous-groupe d ’un groupe abélien est-il un sous-groupe
distingué du groupe en question. D’autre part, quel que soit le
groupe G, G et le sous-groupe unité sont des sous-groupes distingués
de G; en effet, les décompositions à gauche et à droite du groupe G
suivant le sous-groupe unité coïncident avec la décomposition de G
en ses éléments, tandis que les décompositions à gauche et à droite
du groupe G suivant G ne contiennent qu’une seule classe, à savoir
le groupe G.
418 GROUPES [CH. XIV

Indiquons des exemples moins banals de sous-groupes distingués


d'un groupe non commutatif. Dans le groupe symétrique S 3 du troi­
sième degré, le sous-groupe cyclique à générateur (123) composé
de la substitution identique et des substitutions (123) et (132) est
un sous-groupe distingué car les décompositions à gauche et à droite
du groupe S 3 suivant le sous-groupe en question, outre ce sous-grou-
pe, contiennent toutes les deux la même classe d’équivalence, com­
posée des substitutions (12), (13) et (23).
Plus généralement, le sous-groupe alterné A n de degré n du
groupe symétrique Sn de degré n est un sous-groupe distingué de
En effet, le groupe A n est d ’ordre y n ! ; par conséquent, toute
classe d’équivalence du groupe Sn modulo A n doit contenir exacte­
ment le même nombre d ’éléments, de sorte que, outre A n, il y a
encore une seule classe d’équivalence du groupe S n modulo A n,
à savoir l’ensemble des substitutions impaires.
Dans le groupe multiplicatif des matrices carrées non dégénérées
d ’ordre n à éléments dans un champ P le sous-ensemble des matrices
à déterminant unité est, manifestement, un sous-groupe. De plus,
ce sous-groupe est un sous-groupe distingué, car la classe d’équiva­
lence à gauche et à droite suivant ce sous-groupe, engendrée par
une matrice M , est composée par toutes les matrices dont le déter­
minant est égal à celui de M ; en effet, il suffit de rappeler que le
déterminant du produit de matrices est le produit des déterminants.
La définition d ’un sous-groupe distingué donnée ci-dessus peut
être énoncée sous une autre forme :
Un sous-groupe A d’un groupe G est dit sous-groupe distingué de
G, si pour tout élément x de G on a l ’égalité
xA — Ax, (1)
c’est-à-dire si pour tout élément x de G et tout élément a de 4
on peut trouver des éléments a' et a" de A tels que l ’on ait
xa = a'x> ax = xa”. (2)
On peut aussi indiquer d’autres définitions de sous-groupes dis­
tingués, équivalentes à la définition initiale. Aussi, appelons deux»
éléments a et b d’un groupe G conjugués, s’il existe dans G un élé­
ment x tel que l ’on ait
b =- x~lax, (3)
ou, comme on dit, si l ’élément b s ’obtient en transmuant l ’élé­
ment a par l ’élément x . Il résulte de (3) l ’égalité évidente:
a —xbx^1= (aT1)”1bx
§ 65] SOUS-GROUPES DISTINGUÉS, GROUPES-QUOTIENTS 419

Un sous-groupe A d'un groupe G est un sous-groupe distingué de G


si et seulement si pour tout élément a de A le sous-groupe A contient
aussi tous les éléments conjugués de a dans G.
En effet, si A est un sous-groupe distingué de G, alors, vu (2),
pour un élément fixe a de A et pour tout x de G on peut trouver un
élément a" de A tel que
ax = xa .
*11 en résulte que
x 1ax = attJ
c’est-à-dire tout élément conjugué de a appartient à A . Inversement,
soit un sous-groupe A tel qu’il contienne, avec tout élément a,
tous les éléments conjugués de a dans G ; alors A contient, en parti­
culier, l ’élément
x~laz = a"y
d’où résulte la seconde égalité (2), Pour la même raison A contient
aussi l ’élément
(ar1) '1ax 1 — xax~x = a',
d ’où la première égalité (2). -
Utilisant ces résultats, il est facile de démontrer que Vintersection
de sous-groupes distingués d'un groupe G est encore un sous-groupe distin­
gué de G. En effet, soient A et B deux sous-groupes distingués d’un
groupe G; alors, comme on l ’a démontré au paragraphe précédent,
l ’intersection A f| B est un sous-groupe de G. Soient c un élément
de A fl 2? et x un élément de G. Alors l’élément x~lcx doit apparte­
nir à A et B, car les sous-groupes distingués A et 5 contiennent tous
les deux l’élément c. Il en découle que l’élément x~lcx appartient
à l ’intersection A H5.
Groupe-quotient. L’importance de la notion de sous-groupe
distingué est due à ce que, utilisant les classes d ’équivalence d’un
groupe suivant un sous-groupe distingué (vu (1), on peut ne pas
faire de distinction entre les classes à gauche et celles à droite), on
peut former de façon naturelle un nouveau groupe.
Notons d ’abord que, A étant un sous-groupe d ’un groupe G, on a
AA = A, (4)
car le produit de tout couple d’éléments de A est encore un élément
de A et, en même temps, multipliant tous les éléments de A par
l ’unité, nous obtenons le sous-groupe A .
A présent, soit A un sous-groupe distingué d ’un groupe G. Dans
ce cas, le produit de deux classes d'équivalence de G modulo A (le pro­
duit de classes étant interprété du point de vue de la multiplication
420 GROUPES [CH. XIV

des sous-ensembles de G) est encore une classe d'équivalence de G modu-


lo A . En effet, la multiplication des sous-ensembles d’un groupe
étant associative, l ’égalité (4) et l ’égalité
yA = Ay
(cf. (1)) donnent pour tout couple d’éléments x et y du groupe G :
xA •y A = xyAA =* xyA. (5)
La formule (5) montre que pour trouver le produit de deux classes
d’équivalence du groupe G modulo A il faut fixer dans chaque classe
un élément quelconque représentant cette classe (rappelons qu’une
classe d ’équivalence est engendrée par l ’un quelconque de ses élé­
ments) et prendre ensuite la classe qui contient le produit de ces
représentants.
Ainsi, une opération de multiplication est définie sur l ’ensemble
des classes d ’équivalence d ’un groupe G suivant son sous-groupe
distingué A . Montrons que cette opération vérifie la définition de
groupes. En effet, l’associativité de la multiplication des classes
résulte de l’associativité de la multiplication des sous-ensembles d’un
groupe. Le rôle d ’unité est tenu par le sous-groupe distingué A qui
est une des classes d’équivalence de la décomposition de G modulo
A ; en effet, vu (4) et (1), on a pour x de G:
i
z A ‘A = xA , A*xA — xAA = xA.
Enfin, l ’inverse d’une classe xA est la classe x~xA, car on a
xA *arM = 1 •A = A.
Le groupe que nous avons construit est dit groupe-quotient du
groupe G suivant le sous-groupe distingué A ou, encore, groupe-
quotient de G par A ; il est noté G!A.
On voit que l ’on peut associer à tout groupe une suite de nouveaux
groupes, à savoir les groupes-quotients du groupe donné par tous
ses sous-groupes distingués. En outre, il est clair que le groupe-quo­
tient d ’un groupe G suivant le sous-groupe unité est isomorphe à G.
Tout groupe-quotient G!A d'un groupe abélien G par A est abélien,
car l ’égalité xy = yx entraîne
xA -yA = xyA = yzA := yA*zA.
Tout groupe-quotient G!A d'un groupe cyclique G par A est cyclique ;
en effet, soit g un générateur de G, G — {g}, et soit xA une classe
d ’équivalence; alors il existe un entier k tel que l’on ait

de sorte que
rA = ( g A ) h.
§ 65] SOUS-GROUPES DISTINGUÉS, GROUPES-QUOTIENTS 421

L'ordre de tout groupe-quotient G!A d'un groupé fini G par A est


un diviseur de Vordre du groupe G. En effet, Tordre du groupe-quo­
tient G!A est Tindice du sous-groupe distingué A dans le groupe G et,
par conséquent, on peut se servir de l'égalité (7) du paragraphe précé­
dent.
Donnons quelques exemples de groupes-quotients. On a montré
dans le paragraphe précédent que le sous-groupe du groupe additif
des nombres entiers, composé des nombres entiers divisibles par
un nombre entier positif ft, est d’indice k ; par conséquent, le groupe-
quotient correspondant est un groupe fini d’ordre k\ én outre, il
est cyclique, le groupe des nombres entiers jouissant de cette pro­
priété.
Le groupe-quotient du groupe symétrique Sn de degré n par le
sous-groupe alterné A n de degré n est un groupe d’ordre 2; en outre,
le nombre 2 étant premier, le groupe-quotient en question est cycli­
que (cf. la fin du paragraphe précédent).
On a donné ci-dessus la description des classes d ’équivalence
de la relation définie dans le groupe multiplicatif des matrices
carrées non dégénérées d’ordre n à éléments dans un champ P par
le sous-groupe distingué composé des matrices à déterminant unité.
Il s ’ensuit de cette description que le groupe-quotient correspondant
est isomorphe au groupe multiplicatif des nombres non nuis du
champ P.
Homomorphisme. La notion de sous-groupe distingué et ‘celle
de groupe-quotient sont très étroitement liées à la généralisation
suivante de la notion d’isomorphisme.
Une application cp d’un groupe G sur un groupe G9 faisant cor­
respondre à tout élément a de G un élément af = a<p bien défini
de G' s’appelle application homomorphe (ou homomorphisme tout court)
de G sur G' si, quel’que soit a' de G', il existe un élément a de G,
dont a* est l’image par (p: a* = aq>, et si, de plus, pour tout couple
d’éléments a et b de G on a
(a b ) q>s=*

Il est clair que Ton obtient la définition de l’isomorphisme,


déjà connue, en exigeant que l ’application q> soit bijective.
Soit <p un homomorphisme d'un groupe G sur un groupe Gr ; soient
1 et A* respectivement les éléments unités de G et de G’. Alors on a pour
tout élément a du groupe G

(a " 1) qp = (a tp )-1.
En effet, supposons que l<p = e' et soit x’ un élément de G';
alors il existe un élément a: de G tel que l ’on a it: xtp = x'. Il en
422 GROUPES [GH. XIV

résulte que
x' = xq) = (x*l) <p— îq>= x r
De manière analogue, on a
x' = e'x'
et, par conséquent, e' = i \
D’autre part, si (a-1)<p = fc', alors on a la formuler
1 ' = lep = (aar1) cp = aep • ( a " 1) <p = aep * b'
et, de la même manière, la formule
l ' —fc'-acp, N
d ’où V '== (acp)"1.
Appelons noyau d ’un homomorphisme (p, appliquant un groupe G
sur un groupe G', l ’ensemble des éléments de G tels que leurs images
dans G' par <p soient l ’élément unité 1' de G'.
Le noyau de tout homomorphisme cp dyun groupe G sur un autre
groupe est un sous-groupè distingué de G.
En effet, a et b étant deux éléments du noyau en question, c’est-à-
dire les égalités
a<p = 6(p ~ 1'
ayant lieu, on a
(ab) y = aq>-bq>^ Y • ¥ ~ 1%
autrement d it, le p ro d u it ah appartient au noyau de rhomomor-
phisme cp. D’autre part, si aqp = l ', alors
(ar1) qp= (aep) '1 I ' -1 = 1',
c’est-à-dire a"1 appartient au noyau de Enfin, si a<p = l ', alors
on a pour tout élément x du groupe G :
(x^ax) cp = (x-1) cp-aq*-xq> —(zep)-1*1' -æcp = 1'.
Aussi, le noyau de T homomorphisme considéré est un sous-groupe
du groupe G tel que, avec tout élément a, ce sous-groupe contient
tous les éléments conjugués de a ; par conséquent, le sous-groupe en
question est un sous-groupe distingué.
Maintenant, soit A un sous-groupe distingué d’un groupe G.
Associant à tout élément a; de G la classe d ’équivalence xA de G
modulo A {xA est la classe qui contient x), nous obtenons une appli­
cation du groupe G sur le groupe-quotient GM. Il résulte de la multi­
plication définie sur le groupe GM (cf. (5)) que cette application est
un homomorphisme.II s’appelle homomorphisme naturel du groupe G
sur le groupe-quotient GM. Il est clair que son noyau est le sous-
groupe distingué A.
S 65] SOUS-GROUPES DISTINGUES, GROUPES-QUOTIENTS 423

Il en résulte que les sous-groupes distingués d'un groupe G, et seu­


lement ces sous-groupes, sont les noyaux des homomorphismes du groupe G*
Ce résultat peut être considéré comme une nouvelle définition
d’un sous-groupe distingué.
Il apparaît que les groupes, images d ‘un groupe G par les homomor­
phismes, coïncident avec les groupes-quotients de G, tandis que
tous les homomorphismes du groupe G coïncident avec les homomor­
phismes naturels de G sur les groupes-quotients correspondants.
Plus précisément, le théorème suivant est vrai :
Théorème des homomorphismes. Soient <p un homomorphisme d'un
groupe G sur un groupe G' et A le noyau de 9 . Alors le groupe G' est
isomorphe au groupe-quotient G!A ; de plus, il existe une application
isomorphe g de G' sur G!A telle que le produit des applications q> et a
est un homomorphisme naturel du groupe G sur le groupe-quotient G/A.
En effet, soit x' un élément du groupe G' et soit x un élément du
groupe G tel que xy = x \ Vu que pour tout élément a du noyau A
de Thomomorphisme 9 l'égalité aq> = V est satisfaite, on a

(xa) cp= xy •a<p = z ' *Y — x ' ,


c’est-à-dire x' est l ’image par qp des éléments de la classe d’équiva­
lence x A .
D’autre part, soit z un élément du groupe G tel que zq> = xf ;
alors
(x“xz) qp= x-19 •29 = (x9)"x•29 = x'~l ■x f = 1',
c’est-à-dire x~xz appartient au noyau A de Thomomorphisme 9.
Posant x~%z — a, il vient z = xa, c’est-à-dire l ’élément z appartient
à la classe x A . Aussi, l ’ensemble des éléments du groupe G, dont
l’image par Thomomorphisme 9 est un élément fixe x r de G', coïn­
cide avec la classe d’équivalence xA,
L’application a faisant correspondre à tout élément x' de G'
la classe d ’équivalence de G modulo A composée des éléments du
groupe G, dont Timage par 9 est x', définit une application bijective
du groupe G' sur le groupe G!A, L’application g est un isomorphisme,
car, vu les égalités
x'o~xA> yf a = yA ,
c’est-à-dire les égalités
X9 = x \ 1/9 = y',
on a
(xy)y = x<ç-yy = x'y',
de sorte que
(x'y') g = xyA ^ x A - y A ~ x 'g «yrG.
424 GROUPES [CH. N'IV

Enfin, si x est un élément de G et x<p = x alors


(x(p)o = x'a = x A ,
autrement dit, le produit de l ’homomorphisme (p et de l ’isomor­
phisme a transforme réellement l’élément x en classe d ’équivalence
xA engendrée par x , Le théorème est démontré,

§ 66. Sommes directes de groupes abéliens


Nous voulons terminer le chapitre par la démonstration d’un
théorème de la théorie des groupes qui est plus profond que les
propriétés élémentaires des groupes exposées ci-dessus. Notamment,
en nous appuyant sur la description des groupes cycliques donnée
au § 64, nous obtiendrons au paragraphe suivant la description com­
plète des groupes abéliens finis.
Gomme cela est adopté dans la théorie des groupes abéliens,
nous noterons additivement l’opération de groupe, c’est-à-dire on
parlera de la somme a + b de deux éléments a et b, du sous-groupe
nul, noté 0, de multiples ka d’un élément a d’un groupe abélien, etc.
Ce paragraphe sera consacré à l’étude d’une construction que
nous introduirons pour les groupes abéliens quoiqu’on puisse l ’intro­
duire pour un groupe quelconque, c’est-à-dire pas forcément pour un
groupe commutatif. Cette construction est suggérée par les exemples
suivants. Le plan, en tant qu’espace vectoriel réel à deux dimen­
sions, est un groupe abélien par rapport à l ’addition des vecteurs.
Toute droite de ce plan passant par l’origine des coordonnées est
un sous-groupe de ce groupe. Soient A x et A 2 deux droites distinctes
du plan passant par l'origine ; on sait que, dans ce cas, tout vecteur
du plan issu de l ’origine peut être représenté de façon unique comme
somme de ses projections respectivement sur A ± et A 2. De même,
tout vecteur d ’un espace vectoriel à trois dimensions est la somme
de trois vecteurs appartenant respectivement à trois droites distinc­
tes A lt A 2, A a de l’espace et passant par l ’origine, à condition que
les droites A 2l A 2, A 3 ne soient pas situées dans un même plan; en
outre, cette représentation est unique.
Un groupe abélien G est dit somme directe de ses sous-groupes
■4ii A2i • • •? Aki
G — A i ^ A ï + ♦• • Ak, ( 1)

si tout élément x du groupe G se décompose uniquement en somme


des éléments au a2, , ah appartenant respectivement à A ir
^ 2 1 • *• » Ak ;
x —#1 + ^2+ »• ♦'T" ( 2)
§ 66] SOMMES DIRECTES DE GROUPES ABÉLIENS 425

L’écriture (1) s'appelle décomposition directe du groupe G, les


sous-groupes Au i = 1, 2, sont dits termes directs de la
décomposition (1), et l'élément de la décomposition (2) s’appelle
composante de l ’élément x dans le terme direct A , de la décomposi­
tion (1), £ = 1, 2, . . k.
Soit une décomposition directe (1) d'un groupe G; supposons que
certains termes directs A t (ou tous les A t) sont, eux aussi, décomposés
en sommes directes :
Ai ~ A h -\-Aiz + . . . (3)
Alors le groupe G est une somme directe de tous ses sous-groupes
Aiji J =z f » 2, «.., T i s= 1? 2, . . . » /p.
En effet, pour tout élément x de G il existe une écriture (2) cor­
respondant à la décomposition (1) et pour toute composante au
i = 1, 2, . . k, une écriture
ûr = &ii + ai2 + * • • + &ihi (4)
correspondant à la décomposition directe (3) du groupe A t. Il est
clair que x est la somme des éléments a^, / = 1, 2, . . k h i =
= 1, 2, . . k. Cette représentation est unique; en effet, fixant
une écriture quelconque de x sous forme d ’une somme d’éléments,
chaque élément étant pris dans son sous-groupe A tj , puis addition­
nant les termes appartenant à un même sous-groupe A u i — 1, 2, . . .
. . k, nous devons retrouver justement l’égalité (2); d ’autre part,
tout élément a% pôssède une écriture unique de la forme (4),
On peut donner une autre forme à la définition de la somme direc­
te. Introduisons d’abord encore une notion. Soient B v i?2, . . .
. . Bi des sous-groupes d’un groupe abélien G; désignons par
{Bv B i) l’ensemble des éléments y de G tels que ces élé­
ments possèdent au moins une représentation sous forme de sommes
des éléments bv b2, . . bt appartenant respectivement à B v
B 2i • • -i Bu
y = bt + b2 + • • • + bu (5)
L'ensemble {B1? 2?2» . . B i) est un sous-groupe du groupe G.
On dit qu’il est engendré par les sous-groupes B 1} B 2, . . B u
Pour démontrer cette proposition prenons dans {2^, B 2, . . B t)
un élément y ayant l ’écriture (5) et un élément yr ayant une écriture
analogue
y' — b[ + br2+ . . . + b\, *
où b[ est un élément de B i = 1, 2, , l. Alors
y-by* = (bi + K) + (&2+ K) + ■• - f (&*+&î)»
— ÿ = ( — bi) + ( — h ) + - —bi).
426 GROUPES [CH. XIV

c’est-à-dire les éléments y + y r et —y possèdent également une


écriture du type (5) et, par conséquent, appartiennent à l'ensemble
B 2, . . ., 5;}, ce qu’il fallait démontrer.
Le sous-groupe {Bl7 B 2, . . B t} contient chacun des sous-
groupes B t, i = 1, 2, . . Z. En effet, tout sous-groupe du groupe G
contient l’élément nul de G, de sorte que choisissant, par exemple,
dans B x un élément bx et prenant l’élément nul comme composante
dans les sous-groupes 5 2, . . . . Bu nous obtenons pour bx la repré­
sentation du type (5) :
by~ b\ -J- 0 -f- . , . -j- 0.
Pour qu'un groupe abélien G soit une somme directe de ses sous-
groupes Au A2, . Ak> il faut et il suffit que G soit engendré
par A u A2i . .. , Ak,
G := {Au A2i . . . , Ah}, (6)
et que l’intersection du sous-groupe Ai et du sous-groupe engendré
par les sous-groupes A v A 2, . . A i-x qui précèdent A i7 i =
= 2, . , k, ne contienne que l ’élément nul:
{Ai7 A 2j .. ., Ai^y) HAi = 0, i = 2, . *., k, (7)
En effet, si le groupe G possède une décomposition directe (1),
alors pour tout élément a; de G il existe une écriture (2) et, par consé­
quent, l ’égalité (6) a lieu, La formule (7) découle de l'unicité de l ’écri­
ture (2) pour tout élément x de G; en effet, s’il existait un indice i
tel que l ’intersection A 2, , . A t-^ O A t contienne un
élément non nul, soit x, alors, d ’une part, x, en tant qu’élément de
A î7 soit air aurait l ’écriture: x = ax ou encore
x —0 + • • • + 0 + ai -f- 0 + . . . j- 0 ; (8)
d’autre part, ce même élément x, en tant qu’élément du sous-groupe
{Au A 2i . . . yAi-i}, aurait récriture
x = + a2-j~ . . . +
ou encore
x = ay -f- a2+ .. . + ai-i + 0 + • • • -h 0. ■ (9)
Il est clair que (8) et (9) seraient dans ce cas deux écritures diffé­
rentes de l’élément x sous la forme (2).
Inversement, soient les égalités (6) et (7). Il découle de (6) que
tout élément x du groupe G possède au moins une écriture de la
forme (2). Supposons qu’il y ait un élément x tel qu’il possède deux
écritures (2) différentes,
x = + 02+ «*• -h ak = a[ -f- a2+ • • • ah • (19)
Alors on peut trouver un indice i, tel que Ton ait
U j i — Uji, U h-X “ 1j • ♦ «» = ^i+1 ? (il)
§ 66] SOMMES DIRECTES DE GROUPES ABELIENS 427

mais que
dj ûj
ou encore que
di Qr\ *-/— 0 . ( 12)
Or, il résulte de (10) et (11) l'égalité
a i ~ a fi = (a[ — fli) + K ” a2 ) + • • • + ( ûi - i — a i-i)t
qui, vu (12), est en contradiction avec l’égalité (7). Le théorème
est démontré.
On peut envisager la notion de somme directe sous un autre
angle. Soient k groupes abéliens quelconques A x, A 2, . . A k>
dont certains peuvent être isomorphes. Désignons par G l’ensemble
des suites de la forme
(ûj, d2, • • • »&h)> (13)
composées d'éléments appartenant respectivement à A u A2, . . . , 4*.
L’ensemble G devient un groupe abélien si l'on définit l'addition
de suites (13) de la façon suivante :
(&i, a2, • • • »&h) + (Æ|,j • • •» =
= ia i + a[* + • • • »ah + ûfe), (14)
c’est-à-dire on additionne séparément les éléments de tout groupe
Ai, i = 1, 2, . , ,, k. En effet, l ’associativité et la commutativité
de l ’addition ainsi obtenue découlent des propriétés correspondan­
tes de l ’addition dans chacun des groupes donnés. La suite
(0*, 02, *. -, 0fc)
est l ’élément nul du groupe G; ici 0* est l ’élément nul du groupe
Ai, i = 1, 2, .. A; ; la suite opposée à une suite (13) est de la
forme
( ” ®2» • ■• > &h)*
Le groupe abélien G ainsi construit est dit somme directe des
groupes Au A 2, . ..,A h \ il est noté
G = Ai -\-A 2 ~\-. • • -\-Ah.
La justification de cette appellation est la suivante. Un groupe G
qui est une somme directe, dans le sens qui vient d'être défini, des groupes
abéliens A v A 2, . . A h peut être décomposé en une somme directe
(dans le sens initial) de ses sous-groupes A rv A\, . . de telle
manière que A \ soit isomorphe à A t pour i — 1, 2, . . k.
Notamment, désignons par A \ l ’ensemble d ’éléments du groupe
G (les éléments de G sont les suites de la forme (13)) qui ont pour ième
composante les éléments ai du groupe A t et pour les autres compo­
santes les éléments nuis des groupes correspondants ; donc, ce sont
428 GROUPES [CH. \]V

les suites de la forme


(0t, .. .,0e_lt au 0i+1, .. (15)
La définition de l’addition (14) montre que l’ensemble A\ est un
sous-groupe du groupe G; on obtient un isomorphisme de ce sous-
groupe et du groupe A t en faisant correspondre à tout élément (15)
de A \ Télément de A
Il reste à démontrer que le groupe G est une somme directe (dans
le sens initial) des sous-groupes A'v A 2, . . Ak. En effet, tout
élément (13) du groupe G peut être représenté comme une somme
d’éléments appartenant chacun à un sous-groupe correspondant:
{P'ii #2» . - •yÆfc) ~ {du ^2» *• •»Ofc) +
+ (0i, a2, O3, . • . , 0* ) + • • • + (Oi, 02, .. dh).
L ’unicité de cette représentation découle du fait que des suites dis­
tinctes de la forme (13) sont des éléments distincts du groupe G.
Soient deux familles de groupes abéliens, Au A 2, . » «, Ak et
Bv . . ., B h ; si les groupes Ai et B t sont isomorphes, £ = 1, 2, ...
. . ., fc, alors les groupes
G —A t + A2+ . . . + Ak
et
H — Bi + B2+ . .. + Bk
sont aussi isomorphes.
En effet, soit <p* l ’isomorphisme du groupe A t sur le groupe B t
qui fait correspondre à tout élément at de A t l ’élément de B t \
l ’application cp associant à tout élément (alT a2, . * », ah) du groupe G
l ’élément du groupe H , défini par la formule :
{du a2, . . . , dk) = {d\tyu d2ty2y . . . , Æftq’ft),
est manifestement un isomorphisme du groupe G sur le groupe H .
Soient A ly A 2, . . A k des groupes abéliens finis dont les ordres
sont respectivement nv n%, . , nk ; alors leur somme directe G est
un groupe abélien fini d'ordre n, où n est le produit des ordres des termes
directs :
n = nin2 . . . nk. (16)
En effet, les suites distinctes de la forme (13), dont la première
composante ax prend nx valeurs distinctes, la seconde composante
a2 prend n2 valeurs distinctes, etc., sont au nombre de n =
= ^1^2 • • • dk.
Considérons quelques exemples.
Si l'ordre n d'un groupe cyclique fini {a} est le produit de deux
nombres naturels $ et £, premiers entre eux
n = st (s, t)=Ay
§ 66] SOMMES DIRECTES DE ÇROUPES ABÉLIENS 429

alors le groupe {<2} se décompose en une somme directe de deux groupes


cycliques dont les ordres sont respectivement s et t.
Notons additivement le groupe {a}. Posant b = ta, on a
sb = (st) a = na = 0,
et pour 0 < k < s on a
kb = (ht) a =j£ 0,
c'est-à-dire le sous-groupe cyclique {b} est d’ordre s. De même, le
sous-groupe cyclique {c} de générateur c = sa est d’ordre t. L’inter­
section {b}0{c} contient que l ’élément nul, car si l’on avait
kb = le avec 0 < /c < s, 0 < J < *, alors on aurait
(kt) a — (Is) a,
d’où, vu que les entiers kt et Is sont inférieurs à n, on obtien­
drait
kt = Is ;
or, cela est impossible, les nombres 5 et i étant premiers entre eux.
Enfin, il existe deux entiers u et v tels que l ’on ait

%
su-\-tv~ 1,
et, par conséquent, on a
a = v {ta) + u (sa) —vb+ uc ;
cela signifie que tout élément du groupe {a} est une somme des
éléments respectivement du sous-groupe {b} et du sous-groupe {c}.
Un groupe abélien G est dit indécomposable s’il ne peut pas être
décomposé en une somme directe de deux ou plusieurs sous-groupes
différents de son sous-groupe nul. Un groupe cyclique fini dont
l’ordre est une puissance d ’un nombre premier p s’appelle groupe
primaire associé au nombre premier p (ou, encore, groupe p-primai­
re). Appliquant à plusieurs reprises la proposition démontrée ci-
dessus, nous obtenons le résultat: tout groupe cyclique fini se décom­
pose en une somme directe de groupes cycliques primaires associés à des
nombres premiers distincts♦ Plus précisément, un groupe cyclique
d'ordre n, avec
n = fh.p^ \ ..
oh plT p 2, . . p 8 sont des nombres premiers distincts, se décompose
en une somme directe de s groupes cycliques dont les ordres sont respecta
vement p$l, p£2, . . p*°.
Tout groupe cyclique primaire est indécomposable.
En effet, soit un groupe cyclique fini {a} d’ordre ph, où p est
un nombre premier. Si ce groupe était décomposable, alors, d ’après
430 GROUPES ICH. XIV

(7), il posséderait des sous-groupes non nuis, dont l ’intersection


est l’élément nul. Or, en réalité, tout sous-groupe non nul du groupe
en question contient Vélément non nul
b^p^a.
Pour le démontrer, choisissons un élément non nul x de notre
groupe,
x = sa, 0< s< /.
On peut mettre le nombre s sous la forme
s = pls 0
avec sr non divisible par p , c’est-à-dire s' et p sont premiers entre
eux; par conséquent, il existe deux entiers u et v tels que
$'u + p v= 1.
Mais alors
(pft“,-1u) x = (pk~l~lus) a = (p ^ u s') a — p (1 —pv) a =
= (p^1—phv) a = pk~xa — v (pka) = ph~xa = 6,
c’est-à-dire l’élément & appartient au sous-groupe cyclique {x }.
Le groupe additif des nombres entiers (c'est-à-dire un groupe cycli­
que infini) ainsi que le groupe additif des nombres rationnels sont indé­
composables.
Ces groupes sont indécomposables, car, pour tout couple d ’élé­
ments non nuis de chacun de ces groupes, il existe un multiple com­
mun non nul, c’est-à-dire tout couple de sous-groupes cycliques
non nuis de chacun de ces groupes a une intersection non nulle.
Notons que, un groupe abélien G étant noté multiplicativement,
on doit, au lieu d’une somme directe, parler d’un produit direct.
Le groupe multiplicatif des nombres réels non nuis se décompose
en produit direct du groupe multiplicatif des nombres réels positifs
et du groupe multiplicatif composé des nombres 1 et —1.
En effet, l ’intersection des sous-groupes indiqués du groupe en
question ne contient que le nombre 1, élément unité du groupe.
D’autre part, tout nombre positif est le produit de ce nombre par 1,
et tout nombre négatif est le produit de sa valeur absolue par le
nombre —1.

§ 67. Groupes abéliens finis


Soit un nombre fini de groupes cycliques primaires dont certains
peuvent être associés à un même nombre premier ou bien être d’un
même ordre (et, par conséquent, isomorphes) ; alors leur somme direc-
§ 67] G R O UPES A B E L IE N S F IN IS 431

te est, bien entendu, un groupe abélien fini. Il s’avère qu’on épuise


ainsi tous les groupes abéliens finis :
Théorème fondamental des groupes abéliens finis. Tout groupe
abélien fini G, qui n'est pas le groupe nul, se décompose en une somme
directe de sous-groupes cycliques primaires.
On commence la démonstration du théorème par la remarque :
le groupe G possède des éléments non nuis ayant pour ordres des puis­
sances de nombres premiers. En effet, soit un élément non nul x de
G d ’ordre l, Ix = 0; si ph, k > 0, est une puissance du nombre pre­
mier p telle que ph soit un diviseur de l,
l = phm%
alors l ’élément mx est non nul et d’ordre p \
Soient
Pl» P2>• • • y Pa (1)
tous les nombres premiers distincts dont certaines puissances sont
les ordres de certains éléments du groupe G. Désignons par p un nom­
bre quelconque de la suite (1) et par P l’ensemble des éléments du
groupe G ayant pour ordres les puissances de p.
L'ensemble P est un sous-groupe du groupe G. En effet, P contient
l ’élément 0, son ordre étant 1 = p°. Ensuite, si p hx ~ 0, alors
ph (—x) = 0. Enfin, si phx = 0, p ly = 0 et, par exemple, k > Z,
alors on a
ph {x + y) = 0,
c’est-à-dire l’ordre de l’élément x + y est soit le nombre pk, soit
un des diviseurs de ph, autrement dit, une puissance du nombre p .
p parcourant successivement s valeurs (1), nous obtenons s
sous-groupes non nuis
^i» P%* • • • »P** (2)
Le groupe G est somme directe de ces sous-groupes,
G — P t + P2-\~ . . . + /V (3)
En effet, soit x un élément du groupe G ; alors son ordre l
n’a d’autres diviseurs que certaines puissances des nombres pre­
miers (1) :
i= P iiPi2 . . . ph,\
avec k t 0, i = 1, 2, . . s. Par conséquent, comme il a été
montré à la fin du paragraphe précédent, le sous-groupe cyclique
{x} se décompose en une somme directe de sous-groupes cycliques
primaires dont les ordres sont respectivement p}*, p£*, . . p**.
Ces sous-groupes appartiennent aux sous-groupes correspondants
432 GROUPES [CH. XIV

de la famille (2) et, par conséquent, l'élément x est la somme de


certains éléments des sous-groupes (2), chaque sous-groupe de la
famille (2) ne contenant pas plus d'un élément de la décomposition
de x . Ceci démontre l'égalité
G —{Pu P » , . . . , P.},
analogue à l'égalité (6) du paragraphe précédent.
Pour démontrer l'égalité analogue à l ’égalité (7) du paragraphe
précédent, fixons un indice i, 2 i ^ s. Tout élément y du sous-
groupe {P2, P 2» • • -t ^i-i} est de la forme
y = di -f-0*2 -)- .. . -h i>
où aj est un élément du sous-groupe Pj et, par conséquent,
d'ordre p,**, / = 1, 2, . . . , i —1. II en résulte que
(phi1p\2 ■■■Pii-/) y = 0,
c’est-à-dire que l'ordre de l’élément y est un diviseur du nombre
Pi1 P\2 • • • P i ^ i de sorte que l’élément y, à condition qu'il soit
non nul, ne peut pas appartenir au sous-groupe P t. Ceci démontre que
{p it j>2, . . . . i v j n p<=o,
ce qu'il fallait démontrer.
Un groupe abélien dont chaque élément a pour ordre une puis­
sance d'un même nombre premier p est dit primaire associé au nom­
bre p ou, encore, p-primaire. Les groupes cycliques primaires sont
un cas particulier de groupes primaires. Ainsi, les sous-groupes de
la famille (2) sont primaires. Ils s'appellent composantes primaires
du groupe G, tandis que la décomposition (3) est dite décomposition
du groupe G en somme directe de composantes primaires. Les sous-
groupes (2) étant bien définis dans le groupe G, il en est de même
pour la décomposition de G en somme directe de composantes primaires.
Il est clair que la décomposition en somme directe de composan­
tes primaires, qui existe pour tout groupe abélien fini, ramène la
démonstration du théorème fondamental au cas particulier de groupe
abélien fini p-primaire P, p étant un nombre premier. Considérons
ce cas.
Soit un des éléments du groupe P ayant l ’ordre le plus élevé.
Supposons ensuite qu'il existe des éléments non nuis de P tels que
les sous-groupes cycliques engendrés par ces éléments soient disjoints
avec le sous-groupe cyclique {ax}; notons par a2 un des éléments
jouissant de cette propriété et tel que a2 soit de l’ordre le plus élevé:
aussi on a
W n {<12}=
§ 67] GROUPES ABELIENS FIN IS 433

Supposons que l’on ait déjà choisi les éléments aly a2, « * ,,
satisfaisant à ces conditions. Nous désignerons le sous-groupe du
groupe P, engendré par les sous-groupes cycliques des éléments
^ 1 » ^ 2 ? • • • ? & i - l t par {djt . * •}
{^2}» • *• y{^i-l}} = {^1» ^2» (^)
Il est clair que ce sous-groupe est composé des sommes de multiples
des éléments aly a 2, . . a ^ ; nous dirons que ce sous-groupe est
engendré par les éléments alt a 2, • • •> ût-i* Dans l’ensemble des
éléments du groupe P dont les sous-groupes cycliques sont disjoints
avec le sous-groupe {ax, a2, . . ., ^i-i} fixons un élément a* tel
qu’il soit d’ordre le plus élevé; aussi on a
{a„ a 2, ..., a t - t ) fl W = 0. (5)
Le groupe P étant fini, le processus indiqué doit s’arrêter après
un nombre fini de pas; Supposons qu’il s’arrêtera lorsque nous
aurons choisi les éléments alt a 2> » • •» 08- Désignant par P f le sous-
groupe engendré par ces éléments,
P = {flj, ^2) ' ■M »
ou, encore,
p ' = {{«1}» {«2}, • • •, {«s}}> (6)
le sous-groupe cyclique de tout élément non nul de P a donc Vintersection
non nulle avec le sous-groupe P r.
L’égalité (6) et l ’égalité (5), valable pour tout i, i = 2, 3, . . ., s,
montrent, vu (4), que le sous-groupe P ' est une somme directe des sous-
groupes cycliques {a^, {a2}, . . {as},
P' = {ai} + {a2} + . . . + { a 8). (7)
Il reste à démontrer qu’en réalité le sous-groupe P f coïncide avec le
groupe P .
Soit x un élément d ’ordre p du groupe P . Etant donné que
p r n {»} *5* 0,
et vu que le sous-groupe {x} n ’a d’autres sous-groupes non nuis
que {x} (rappelons que l ’ordre d ’un sous-groupe est un diviseur
de l ’ordre du groupe et que le nombre p , ordre de {x}, est premier),
il en résulte que, en réalité, le sous-groupe {x} appartient au sous-
groupe P ' et que, par conséquent, x appartient à P r. Ainsi, tout élé­
ment d ’ordre p du groupe P appartient au sous-groupe P \
Supposons qu’on ait déjà montré que tout élément du groupe P,
dont l ’ordre n ’est pas supérieur au nombre p*"*1, appartient au sous-
groupe P '; soit x un élément de P d ’ordre ph. En vertu du choix
des éléments a2, a2, . . », a„ leurs ordres respectifs forment une
28—1212
434 GROUPES [GH, XIV

suite non croissante, de sorte que Ton peut indiquer un indice i,


1 ^ i — 1 s, tel que les ordres des éléments av a 2, . . a^
soient supérieurs ou égaux à p k et que Tordre de tout élément ax
avec i — 1 < s soit strictement inférieur à ph, c’est-à-dire inférieur
à Tordre de l ’élément x. Vu les conditions imposées au choix de
il en résulte que si
Q —{fl|, Ü2f . . . ,
alors
Q n {x} o.
Or, on a démontré dans le paragraphe précédent que tout
sous-groupe non nul d’un groupe cyclique primaire {x} d’ordre pk
contient l ’élément
y —p ^ x . ( 8)

Donc, l ’élément y appartient à l ’intersection Q fl {x} et, par con­


séquent, il appartient au sous-groupe Q. Ceci permet de représen­
ter y sous la forme d’une somme de multiples des éléments
, &2* • • • » li
y= + Z2a2+ — + i* (9)
Il découle de (8) que l ’élément y est d’ordre p. Ainsi,
(pli) ax+ (pZ2) a2+ . . . + (ph-1) &i-i = 0,
c’est-à-dire, en vertu de l ’existence de la décomposition directe (7)i
on a
(ph) Æj = 0, 7 = 1,2, . *., Z 1.
Donc, le nombre plj doit être divisible par Tordre de l ’élément aj
et, par conséquent, par le nombre pk, d’où il vient que lj est
divisible par p*'1,
lJ = p*-imjj / = 1, 2, . . . , i — 1. (10)
Soit
Z — T ïlid i - |- 7ïl2d 2

z est un élément du sous-groupe Q et, par conséquent, du sous-


groupe P' ; en outre, vu (9) et (10),- on a
y —P ^z. (11)
De (8) et (11) découle l ’égalité
ph- '( x ~ z ) = 0,
c’est-à-dire l ’ordre de l ’élément
t — x —z
î 67] GROUPES ABÉLIENS FINIS 435

ne dépasse pas p*-*1; par conséquent, en vertu de l'hypothèse de


récurrence, t appartient au sous-groupe P \ Aussi l'élément x , en
tant que somme de deux éléments de P \ x = z + t, est un élément
du sous-groupe P'. Ceci démontre que tout élément d'ordre pk
du groupe P appartient à P'.
Donc, notre raisonnement qui est basé sur une récurrence sur &,
exposant de la puissance p \ permet d’affirmer que tout élément
du groupe P est aussi un élément du sous-groupe P ', c’est-à-dire
P9 = P . La démonstration du théorème fondamental est terminée.
Comme corollaire de ce théorème on obtient le résultat: un
groupe abélien fini est un groupe p-primctire si et seulement si son
ordre est une puissance du nombre premier p. En effet, comme on l ’a
montré , tout groupe abélien fini p-primaire P se décompose en une
somme directe de groupes cycliques p-primaires* de sorte que l'ordre
du groupe P est le produit des ordres de ces groupes cycliques,
c'est-à-dire une puissance du nombre premier p. Inversement, si
un groupe abélien fini est d'ordre pk avec p nombre premier, alors
l’ordre de tout élément est un diviseur de pfe, c'est-à-dire une
puissance de p, de sorte que le groupe en question est un groupe
p-primaire.
Le théorème fondamental ne donne pas encore la solution com­
plète du problème de description des groupes abéliens finis, car
on n ’a pas encore exclu l'éventualité suivante : les sommes directes
de deux familles distinctes de groupes cycliques primaires, associés
à des nombres premiers, peuvent être des groupes isomorphes. En
réalité, il n’en est pas ainsi, comme le montre le théorème suivant:
Soit un groupe abélien fini G décomposé de deux façons différentes
en sommes directes de sous-groupes cycliques primaires :
G = { a j + {a2} + *• • + W = (M + {£>2} + • • • + {&*} \ (12)
alors le nombre des termes directs dans les deux décompositions est le
même, s = t> et Von peut établir entre les termes directs des deux décom­
positions une correspondance bijective telle que les termes correspondants
soient des groupes cycliques de même ordre, c'est-à-dire qu'ils soient
isomorphes.
Remarquons d'abord que groupant dans l'une des décompositions
directes (12), par exemple, dans la première, les termes directs asso­
ciés à un nombre premier donné, soit p, la somme directe de ces
termes est un sous-groupe p-primaire du groupe G ; de plus, ce sous-
groupe est une composante primaire de G, car son ordre est la puis­
sance la plus élevée du nombre p telle qu’elle soit diviseur de l'ordre
de G. Groupant de cette manière les termes directs dans chacune
dès décompositions (12), nous obtenons, dans les deux cas, une dé­
composition du groupe G en somme directe de composantes primai­
res, dont l’unicité a été déjà montrée ci-dessus.
28*
436 GROUPES [CH. XIV

Cette remarque permet de ramener la démonstration de notre


théorème au cas où G est un^groupe p-primaire. Supposons que les
indices des termes directs dans chacune des décompositions direc­
tes (12) soient choisis de manière que leurs ordres respectifs forment
une suite non croissante, c’est-à-dire que les éléments alT aa, . . .
. . ., a9 aient les ordres respectifs
p \ p \ . ■., p \
avec
^ ^ ^ k$j
et que les éléments 6^ b2> aient les ordres respectifs
PU,
avec
^1^ ^2^ *• *^
Si le théorème n’était pas vrai, on pourrait trouver un indice
i > l , tel que l ’on aurait
/ci = /i, . * . , /ci_i = /j«i, (13)
et
ki^=h*
Il est clair que i ^ min (s, t), car les produits des ordres des termes
directs des deux décompositions (12) donnent l’ordre du groupe G.
Montrons que l ’hypothèse que nous venons de faire conduit à l’ab-
surde.
Soit, par exemple
k t< h . (14)
Notons par H l ’ensemble des éléments du groupe G dont les ordres
ne sont pas supérieurs à p hi. C’est un sous-groupe du groupe G,
car, x et y étant deux éléments de les éléments x + y et —x ont
les ordres qui ne dépassent pas le nombre p ki.
Notons que le sous-groupe H contient, en particulier, les élé­
ments :
pkl~hiau ph2~hiaz>.. .j p h* -rkiai-u at* <**+u ■i ■»
D’autre part, si 1 ^ j i —. 1, alors l ’élément est
d’ordre et, par conséquent, n ’appartient pas à H . Il en résulte
que la classe d ’équivalence a,j + H (rappelons que l’on utilise
la notation additive), en tant qu’élément du groupe-quotient G/tf,
est d’ordre pkJTki ; ce même nombre p hr~k\ est l ’ordre du sous-groupfc
cyclique {aj + H}. Démontrons que le groupe G!H est une somme
§ 67] GROUPES ABÊLXENS FINIS 437

directe des sous-groupes cycliques {dj H}, / = 1, 2, . . i — 1,


G!H = {ai + H} + {a2+ H} + . . . + {a,.* + H }, (15)
que, par conséquent, son ordre es* ie nombre
p{h1-hi)+(kz-hi)+„.+{hi_i~hi) ^
Soit x un élément du 'groupe G ; alors il existe pour x une
écriture de la forme :
x ^ m iai + m2a2+ . . . + /n 5as.
Supposons que pour ; = 1, 2, . . . , 2 — 1, on ait
f*j = Pkj~ktqj + n j,
avec
0 K n j < p kr hK (17)
Alors on a
mjaj — qj (pkj~hiaj) + n}a},
et, vu que le premier terme du second membre appartient à H ,
on obtient
mjaj + H = njüj + H.
D’autre part, on a
midi + H = H , . . . , msas + H = H.
i
Par conséquent, on a
x ^ H = (mial -j- H ) -f- (7712Æ2 B) (m3a8 H ) =
—inxai + B ) + {n2a2+ H) + . . . ' + (Wj-iGi-t + H). (18)
Soit une autre écriture de cette forme
x-\~H —(i^a* + # ) + (^2^2 + if) + *.. rl-(JU-i0*-i + //), (19)
avec
0 < n J < / r \ / = 1, 2 —1. (20)
Alors les éléments
H" ^2^2
et

appartiennent à une même classe d’équivalence de G modulo //.


c’est-à-dire leur différence appartient à H , de sorte que l ’on a
Ph,((«i —«i)®i + (ra2—n'2) a2 + ...+ ( « { _ ! — n(_i)a/_,] = 0 .
438 GROUPES [G H . X IV

Il en résulte (vu que la première des décompositions (12) est


directe) que
p *ijij = 0, /*—1, 1,
et, par conséquent, le nombre pk* (rij — rc$) doit être divisible par
l’ordre ph3 de l ’élément aj, de sorte que la différence rij — n$ est
divisible par le nombre p hj~hi. Il en découle, vu (17) et (20), que
j « 1, 2, .. ., i 1,
c’est-à-dire que les écritures (18) et (19) sont identiques. Ceci démon­
tre l’existence de la décomposition directe (15).
Des raisonnements analogues appliqués à la seconde décomposi­
tion directe (12) démontreront que ce même groupe-quotient G/H
admet la décomposition directe
G/H = {61+ # } + {&2+ B} + • • • + {&*-i + B ) + {bi + H} + . -. »
c’est-à-dire que, en vertu de (13) et (14), l’ordre de GUI doit être
strictement supérieur au nombre (16). Cette contradiction démontre
le théorème.
Ainsi, nous avons obtenu la description complète des groupes
abéliens finis. Notamment, formons toutes les suites finies de nombres
naturels

dont chaque nombre Uj, différent de Vunité, est une puissance d'un nom­
bre premier, les nombres nj n'étant pas forcément tous distincts. A toute
suite ainsi construite faisons correspondre une somme directe de groupes
cycliques dont les ordres respectifs sont les nombres naturels de la
suite fixée. Les groupes abéliens finis obtenus de cette maniéré sont non
isomorphes deux à deux, tandis que tout groupe abélien fini est isomor
phe à l'un de ces groupes.
INDEX ALPHABÉTIQUE

Addition des matrices 106^ Cas irréductible de la résolution d'une


Adjonction d'un élément à un champ équation du troisième degré 237
290 Champ 284
Alembert (lemme de d ’) 157 de décomposition (d'un polynô­
Algorithme de division avec reste 139 me) 315
pour X-matrices 386 fini 285
Anneau 278, 279 des fractions rationnelles 316
fini 285 numérique 277
non commutatif 284 Changements de signes (dans une suite
numérique 274 de nombres) 254
des polynômes 297 Classe d’équivalence (des éléments
— de plusieurs indéterminées 324 d'un groupe suivant un sous-groupe)
— sur un anneau 298 415
— symétriques 332 Cofacteur 45
Application Combinaison linéaire
identique (dans un espace vecto­ des lignes d'une matrice 43
riel) 202 des vecteurs 66
linéaire (d'un espace vectoriel) Composante d'un élément (relative­
201, 295 ment à une somme directe) 425
— donnée par une matrice 203 Composantes
— inverse 212 primaires (d’un groupe kabélïen)
— non dégénérée (d'un espace 432
vectoriel dans lui-même) 242 d'un vecteur 63
nulle (d'un espace vectoriel) 202 Coordonnées d'un vecteur 63
orthogonale (dans un espace eucli­ Couple de formes quadratiques 238
dien) 226 Cramer (formules, règle de) 24, 271
symétrique (dans un espace eucli­ 59, 83, 104, 294
dien) 229 Critère d’équivalence (des X-matrices)
Argument d'un nombre complexe 121 383
Axe Cycle 36
imaginaire 119 indépendant 36
réel 119

Décomposition
Base directe 425
d’un espace vectoriel 195 à droite (d'un groupe suivant un
orthogonale 221 sous-groupe) 416
orthonormale 222 à gauche (d’un groupe suivant un
Budan-Fourieur (théorème de) 263 sous-groupe) 416
d'un groupe suivant un sous-
groupe 416
Caractéristique d’un champ 289 d'un polynôme en facteurs li­
Cardan (formule de) 242 néaires 161
440 INDEX ALPHABÉTIQUE

Décrément 37 Equation
Déficit d ’une application linéaire 211 du deuxième degré 240
Degré linéaire 15
d ’une X-matrice 386 du troisième degré 241
d’un polynôme de plusieurs in­ Espace
déterminées 323 affine 191
Dépendance euclidien 219
algébrique (d’une famille d ’élé­ — complexe 224
ments d’un anneau) 325 vectoriel 65, 191, 295
linéaire (des vecteurs) 66, 195, 294 — complexe 193
Dérivée (d ’un polynôme) 151, 305 — à un nombre fini de dimen­
Descartes (théorème de) 263 sions 195
Déterminant (s) 23, 26, 38 Euclide (algorithme d’) 143, 299
antisymétrique 44 Extension d ’un champ 289
caractéristique 82
d’un système d ’équations linéai­ Facteur(s)
res 57 invariants (d’une matrice) 381
Développement d’un déterminant par multiple (d’un polynôme) 302
rapport à l ’une de ses lignes 49 simple (d’un polynôme) 302
Diagonale principale (d’une matrice) Famille
16 fondamentale (de solutions) 88
Dimension maximale 69
d ’un espace vectoriel 197 de Sturrn 255
du noyau (d’une application li­ Fonction continue 153
néaire) 211 Forme 326
Discriminant 243, 354 canonique (d’une forme quadra­
Diviseur(s) tique) 176
commun des polynômes 142 diagonale (d’une matrice numéri­
élémentaires 398 que) 79
d ’un polynôme 140, 326 linéaire 65
de l ’unité 304 normale (d’une forme quadrati­
de zéro 284 que) 181
Division des matrices 101 quadratique 173
— complexe 173
— définie négative 189
Egalité des polynômes 136 — définie positive 189
Eisenstein (critère d ’) 364 — indéfinie 189
Elément (s) — non dégénérée 173
algébrique (d’un anneau) 297 — non singulière 173
conjugués (d’un groupe) 418 —, produit de deux formes li­
inverse (dans un champ) 287 néaires 184
— (d’un groupe) 407 — réelle 173
d ’une matrice 16 — semi-définie 189
neutre 191 trigonométrique (d’un nombre
nul (d’un anneau) 282 complexe) 122
opposé (d’un anneau) 282 Fraction rationnelle 167
simple (d’un anneau) 304 irréductible 167
transcendant (d’un anneau) 297 régulière 167
unité (d’un champ) 287 simple 168
— (d’un groupe) 406 symétrique 340
Elimination (d’une inconnue dans un
système de deux équations) 351 Gauss
Ensemble(s) iemme de 327, 362
dénombrable 372 méthode de 17, 294
équivalents (de vecteurs) 70 Groupe(s) 405
non dénombrable 372 abélien 406
INDEX ALPHABETIQUE 441

Groupe(s) Limites des zéros (d’un polynôme)


— indécomposable 429 248, 250
— primaire 432 Longueur d'un cycle 36
additif (d’un anneau) 408
alterné 411
cyclique 414 Matrice 16
— primaire 429 adjointe 100
fini 406 d ’une application linéaire 203
isomorphes 408 caractéristique 213
multiplicatif (d’un champ) 409 carrée 16
non commutatif 410 — non singulière 98, 106
symétrique 410 dégénérée 98
Groupe-quotient 420 d ’une forme quadratique 173
«élargie» (d'un système d ’équa­
tions linéaires) 81
Hamilton-Cayley (théorème de) 403 inverse 58, 101
Homomorphisme 421 non dégénérée 98
naturel 422 non singulière 98
H orner (méthode de) 150 nulle 106
numérique 375
orthogonale 225
Image polynomiale 375
d ’une application linéaire 211 rectangulaire 103
d'un vecteur d’un espace par scalaire 109
l ’application linéaire 201 symétrique 173
Inconnues non principales 83 transmuée (transformée) 205
indice d’inertie transposée 39
négatif 183 unité 16
positif 183 X-matrice 375
Intersection de sous-espaces vectoriels X-matrice canonique 376
209 X-matrice élémentaire 384
Inversion 29 X-matrice unimodulaire 383
Isomorphisme Méthode
des anneaux 290 de division avec reste 139
d ’espaces euclidiens 223 d’interpolation linéaire 268
— vectoriels 194 Mineur(s) 45, 48
complémentaire 45
principaux (d’une forme quadra­
Jordan tique) 187
cellule de 391 Module (d’un nombre complexe)
matrice de 392 121
Moivre (formule de) 127
Multiple(s)
Kronecker-Capelli (théorème de) 81 avec le coefficient nul (d'un élé­
ment d ’un anneau) 283
d’un élément d ’un anneau 283
Lagrange — d ’un groupe abélien- 412
formule d’interpolation de 164 négatifs (d?un élément d’un an­
théorème de 417 neau) 283
Laplace (théorème de) 53 Multiplication des matrices 94
Lemme de la croissance du module
(d’un polynôme) 156
Lemme du module du terme principal Newton
(d’un polynôme) 155 formules de 342
Ligne des coordonnées (d’un vecteur) méthode de calcul des valeurs
196 approchées des zéros 268
442 INDEX ALPHABETIQUE

Nombre(s) Procédé d’orthogonalisation 220


algébrique 369 Produit
algébriques conjugués 370 d’une application linéaire par un
complexes 117, 293 scalaire 207
— conjugués 126 d’applications linéaires 206
de Cayley 119 direct 430
entiers 114 d’une matrice par un nombre 107
rationnels 114 de matrices 94
réels 114 de polynômes 137
transcendants 369 scalaire 218
Noyau de sous-ensembles (d’un groupe)
d ’une application linéaire 211 415
d ’un homomorphisme 422 de substitutions 33
d’un vecteur par un nombre 64
Opération Puissance(s)
algébrique 278 d ’un élément d ’un anneau 281
inverse 278 — d’un groupe 399
Ordre d ’exposant nul d’un élément d’un
d’un élément d’un groupe 413 groupe 412
d’un groupe fini 406 d ’exposants entiers négatifs (d’un
lexicographique des termes d ’un élément d’un champ) 287
polynôme 330 d’exposants négatifs (d’un élé­
ment d’un groupe) 412

Partie
imaginaire (d’un nombre com- Quaternions 119
119 Quotient

« ’un nombre complexe) 119


Permutation 28
impaire 29
paire 29
Plan complexe 119
de la division de deux éléments
d ’un champ 285
— de deux polynômes 140

Plus grand commun diviseur 142, 147 Racine(s)


Plus haut terme (d’un polynôme) 331 caractéristiques (d’une application
Poids (d’un terme d’un polynôme) linéaire) 213, 214
340, 352 — (d’une matrice) 214
Polynôme(s) 135 matricielle 400
absolument irréductible 329 rimitive de l ’unité 133
caractéristique 214 e l ’unité 132
de degré nul 137
homogène 326 Rang
irréductible 167, 299, 326 d’une application linéaire 211
matriciels 385 d’un ensemble de vecteurs 72
minimal (d’une application linéai­ d’une forme quadratique 173
re) 404 d ’une matrice 71, 294
— (associé a une matrice) 401 du produit de matrices 105
de plusieurs indéterminées 323 Réduction (d’une forme quadratique
premiers entre eux (réciproque­ à ses axes principaux) 234
ment premiers) 142, 148 Règle de calcul (du rang d’une ma­
primitif 327, 361 trice) 76 * *
réductible 299, 326 Règle de résolution (d’un système d ’é­
de subdivision (d’une circonféren­ quations linéaires) 84
ce) 365 Reste de la division (d’un polynôme^
symétriques 332, 343 par un autre) 140
— élémentaires 333 Résultant 346, 350
INDEX ALPHABÉTIQUE 443

Séparation (des zéros d’un polynôme) Théorème


267 fondamental (des formes quadra­
Signature (d’une forme quadratique) tiques) 176
183 — (des fractions rationnelles) 168
Solution — (des groupes abéliens finis) 431
générale (d’un système d’équa­ — (de la dépendance linéaire) 70
tions linéaires) 85 — (des polynômes symétriques)
d’un polynôme de plusieurs in­ 333
déterminées 345 de la multiplication des déter­
d’un système d’équations linéai­ minants 96
res 16 d ’unicité (des fractions rationnel­
triviale 21 les) 170
Somme(s) -- (des ^-matrices) 379
d’applications linéaires 206 — (des polynômes symétriques)
directe 424, 427 337
double 58 Transformation(s)
de matrices 106 élémentaires (d’une A,-matrice)
de polynômes, 137 374
des puissances 341 — (d’une matrice numérique) 78
de vecteurs 63 linéaire (des indéterminées) 92
Sous-champ 289 — dégénérée (des indéterminées)
Sous-espace 98
invariant 233 — identique (des indéterminées)
nul 209 99
vectoriel 208 — non dégénérée (des indéter­
Sous-groupe 411 minées) 98
cyclique 413 — non singulière (des indéter­
distingué 417 minées) 98
engendré par des éléments d’un — singulière (des indéterminées)
groupe 433 98
unité 412 orthogonale (des indéterminées)
Spectre d’une application linéaire 214 225
simple 217 Transmué(e)
Sturm (théorème de) 255 d’un élément d’un groupe par un
Substitution 31 autre élément du groupe 418
identique 32 d ’une matrice par une autre 205
impaire 32 Transposition 28, 35
inverse 34
paire 32 Valeur
Système d’un polynôme 148, 404
associé (d’équations linéaires ho­ propre 213, 214
mogènes) 90 Vandermonde (déterminant de) 52
compatible 16 Vecteur (s) 63, 191
déterminé 16 normé 221
d’équations linéaires 15 nul 63
homogène 21 opposé 64, 191
incompatible 16 orthogonaux 219
indéterminé 16 proportionnel 65
propre 214
unité 68
Taylor (formule de) 155 Viète (formules de) 164, 316
Terme d’un déterminant 24
Théorème
d ’inertie 182 Zéro(s) d’un polynôme 148
fondamental (de l ’algèbre des multiple 151
nombres complexes) 153 simple 151

Vous aimerez peut-être aussi