Algebre Lineaire 1
Algebre Lineaire 1
Algebre Lineaire 1
Christophe Reutenauer
Laboratoire de combinatoire et d’informatique mathématique,
Université du Québec à Montréal
28 décembre 2020
2 Ensembles 4
3 Relations et fonctions 6
6 Sous-espaces vectoriels 16
6.1 Définition et caractérisation . . . . . . . . . . . . . . . . . . . 16
6.2 Sous-espace engendré par un nombre fini de vecteurs . . . . . 18
6.3 Intersection de sous-espaces et systèmes d’équations linéaires 19
1
7 Bases et dimension 20
7.1 Dépendance et indépendance linéaire . . . . . . . . . . . . . . 20
7.2 Bases : existence et unicité de la dimension . . . . . . . . . . 23
7.3 Bases des sous-espaces . . . . . . . . . . . . . . . . . . . . . . 26
7.4 Calcul d’une base d’un sous-espace engendré . . . . . . . . . . 27
8 Applications linéaires 29
8.1 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
8.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
8.3 Applications linéaires et sous-espaces . . . . . . . . . . . . . . 32
8.4 Calcul d’une base du noyau d’une application linéaire de Rp
vers Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
8.5 Injections, surjections, isomorphismes . . . . . . . . . . . . . 35
8.6 Applications linéaires et bases . . . . . . . . . . . . . . . . . . 37
8.7 Matrice d’une application linéaire . . . . . . . . . . . . . . . . 38
8.8 Changement de base : matrice de passage . . . . . . . . . . . 40
8.9 Matrice d’un endomorphisme . . . . . . . . . . . . . . . . . . 40
8.10 Calcul d’une base du noyau d’une application linéaire . . . . 42
9 Diagonalisation 42
9.1 Valeurs et vecteurs propres d’un endomorphisme . . . . . . . 42
9.2 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . 44
9.3 Endomorphismes diagonalisables . . . . . . . . . . . . . . . . 46
9.4 Diagonalisation des matrices . . . . . . . . . . . . . . . . . . . 47
9.5 Calcul d’une base d’un sous-espace propre et diagonalisation
effective . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
9.6 Applications de la diagonalisation . . . . . . . . . . . . . . . . 48
9.6.1 Puissance d’une matrice . . . . . . . . . . . . . . . . . 48
9.6.2 Une équation différentielle matricielle . . . . . . . . . 48
10 Espaces euclidiens 49
10.1 Produits scalaires et bases othonormales . . . . . . . . . . . . 49
10.2 Orthonormalisation de Gram-Schmidt . . . . . . . . . . . . . 49
10.3 Diagonalisation des matrices symétriques . . . . . . . . . . . 51
10.4 Les nombres complexes et les espaces vectoriels associés . . . 53
10.5 Preuve du théorème 10.4 . . . . . . . . . . . . . . . . . . . . . 54
2
11 Système d’équations linéaires : résolution par la méthode
d’élimination des variables, ou de substitution 56
12 Matrices 57
12.1 Définitions (rappels) . . . . . . . . . . . . . . . . . . . . . . . 57
12.2 Matrices : somme et produit externe . . . . . . . . . . . . . . 58
12.3 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . 59
12.4 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . 61
12.5 Système d’équations linéaires de Cramer . . . . . . . . . . . . 63
12.6 Opérations de lignes . . . . . . . . . . . . . . . . . . . . . . . 63
12.7 Système d’équations linéaires : méthode de Gauss . . . . . . . 67
13 Déterminants 69
13.1 Développement selon la première colonne . . . . . . . . . . . 69
13.2 Formule du produit . . . . . . . . . . . . . . . . . . . . . . . . 71
13.3 Inversion des matrices et déterminants . . . . . . . . . . . . . 72
13.4 Développement du déterminant selon une ligne ou colonne
quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
13.5 Système de Cramer (suite) . . . . . . . . . . . . . . . . . . . . 73
14 Solutionnaire (esquisses) 73
1 Introduction
Les sections 11, 12 et 13, sauf 13.2, sont déjà vues au CEGEP (voir les
livres [1, 2], ou le cours MAT0600 de l’UQAM). On peut les omettre, en
tout cas les parcourir rapidement.
Les sections 2, 3 et 4 sont tirées des notes de cours “Algèbre 1”, de
Jacques Labelle et de l’auteur [3].
3
Première partie
Ensembles, fonctions, récurrence
2 Ensembles
Sans développer complètement la théorie des ensembles, nous donnons
les principaux éléments de ce langage et les notations utilisées.
La notion d’ensemble est fondamentale en mathématiques. Les termes
groupement , famille ou collection donnent une intuition de
cette notion.
Comme exemples d’ensembles, citons l’ensemble des nombres premiers,
l’ensemble des points d’une droite, l’ensemble des droites dans un plan,
l’ensemble des étudiants de l’UQàM.
Les objets qui composent un ensemble sont appelés éléments de cet en-
semble. On représente souvent les ensembles par des majuscules et leurs
éléments par des minuscules. Si a est un élément de l’ensemble A, on écrit
a ∈ A et on lit a appartient à A ou a est un élément de A . Si a
n’est pas élément de A, on écrit a ∈ / A et on lit a n’appartient pas à A
ou a n’est pas un élément de A .
4
de montrer que x ∈ A a la propriété P . Et vice-versa, si x a la propriété P ,
il est dans B.
Des exemples : {n ∈ N | n2 ∈ N } désigne l’ensemble des nombres naturels
pairs ; {n ∈ N | ∃m ∈ N, n = m2 } désigne l’ensemble des carrés dans N.
Soient A et B deux ensembles. Si A et B sont constitués des mêmes
éléments, on dit qu’ils sont égaux et on écrit A = B. Si tous les éléments
de A appartiennent à B, on dit que A est contenu ou inclus dans B, ou
encore que A est un sous-ensemble ou une partie de B, et on écrit A ⊂ B
ou B ⊃ A (on dit aussi que B contient A). Remarquez que ∅ et A sont des
sous-ensembles particuliers de A ; un sous-ensemble autre que ceux-ci est un
sous-ensemble propre de A.
On note P(X) l’ensemble des parties de X ; donc les éléments de
P(X) sont les parties de X. Par exemple, si X = {1, 2, 3}, P(X) =
{∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, X}. C’est un ensemble de cardinalité
8.
Dans la pratique, quand on veut montrer qu’un ensemble A est inclus
dans un ensemble B, on doit montrer qu’un élément quelconque de A est
forcément dans B. Autrement dit que : x ∈ A ⇒ x ∈ B. De plus, pour
montrer que A = B, on doit montrer que A ⊂ B et B ⊂ A.
On appelle réunion ou union de deux ensembles A et B le nouvel en-
semble formé de tous les éléments qui appartiennent à A ou à B ou aux
deux ; on le note A ∪ B et on lit “A union B”. Donc
A ∪ B = {x ∈ A ou x ∈ B}.
A ∩ B = {x | x ∈ A et x ∈ B}.
A × B = {(a, b) | a ∈ A et b ∈ B}.
5
Exercice 2.1. Soit A = {1, 2, 3} et B = {4, 5}. Écrire les ensembles sui-
vants :
a) A × B ; b) P(A) ; c) P(P(B)).
3 Relations et fonctions
Une relation de A vers B est un sous-ensemble R de A × B. Une relation
R ⊂ A × B est dite fonctionnelle si pour tout a ∈ A, il existe un et un seul
b ∈ B tel que (a, b) ∈ R .
Si R est une relation fonctionnelle, incluse dans A × B, elle définit une
fonction f de A vers B ; on écrit ceci f : A → B ; on dit que A est l’ensemble
de départ de f et B son ensemble d’arrivée. L’ensemble de départ de f est
aussi appelé domaine de définition de f .
On dit aussi application au lieu de fonction.
Soit f : A → B. Pour un élément a donné, l’unique b tel que (a, b) ∈ R
s’appelle l’image de a par la fonction f et il est noté f (a). Intuitivement
une fonction de A vers B est donc une règle qui permet d’associer à tout
élément a ∈ A un et un seul élément b ∈ B ; cet élément b est noté f (a) :
f (a) = b. On dit aussi que a est envoyé sur b par f , ou que f associe b à a.
f
On écrit a 7→ b, ou bien a 7→ b si la fonction f est sous-entendue. Appelons
aussi antécédent de b ∈ B par f tout élément a ∈ A tel que b = f (a).
6
Si X ⊂ A, alors f (X) = {f (x) | x ∈ X} est appelé l’image (directe) de
X par f . L’ensemble f (A) ⊂ B s’appelle l’image de f ; on le note I(f ).
Si Y ⊂ B, alors f −1 (Y ) = {x ∈ X|f (x) ∈ Y } est appelé l’image
réciproque (ou inverse) de Y par f 1 . Autrement dit, f −1 (Y ) est l’ensemble
des antécédents de tous les éléments de Y . On a aussi :
∀a ∈ A : a ∈ f −1 (Y ) ⇔ f (a) ∈ Y.
.
La composition des fonctions est une opération associative (exercice !).
De plus, la fonction identité est un élément neutre : si f : E → F , on a
idF ◦ f = f = f ◦ idE , où idE est la fonction E → E qui envoie tout e ∈ E
sur lui-même.
7
1. f est injective si pour tous a1 , a2 ∈ A, a1 6= a2 ⇒ f (a1 ) 6= f (a2 ). Ce
qui équivaut à : pour tous a1 , a2 ∈ A, f (a1 ) = f (a2 ) ⇒ a1 = a2 , ou
encore à : pour tout b ∈ B, f −1 (b) a au plus un élément. On dit alors
aussi que f est une injection.
2. f est surjective si f (A) = B. Ce qui équivaut à : pour tout b ∈ B, il
existe a ∈ A tel que f (a) = b, ou encore : pour tout b ∈ B, f −1 (b) a
au moins un élément. On dit alors aussi que f est une surjection.
3. f est bijective si f est injective et surjective. Ce qui équivaut à : pour
tout b ∈ B, il existe un et un seul a ∈ A tel que f (a) = b, ou encore
à : pour tout b ∈ B, |f −1 (b)| = 1. Dans ce cas, on dit aussi que c’est
une bijection.
On a aussi : f est injective (resp. surjective, resp. bijective) si et seule-
ment si tout b ∈ B a au plus (resp. a au moins, resp. a exactement) un
antécédent par f .
8
où pour tout a ∈ A, idA (a) = a et pour tout b ∈ B, idB (b) = b. La fonction
idA est appelée la fonction identité de A. On a
Exercice 3.1. Soit R la relation {(1, 2), (1, 3), (3, 1)}. Est-ce une relation
fonctionnelle ? Même question avec {(1, 2), (2, 3), (3, 1)}.
Exercice 3.8. Montrer, avec les notations de la proposition 3.1, que, pour
tous sous-ensembles X1 , X2 de A, on a égalité dans le c) de ce lemme, si et
seulement si f est injective.
9
4 Raisonnement par récurrence
On veut démontrer une propriété qu’ont tous les entiers naturels n, par
exemple : la somme de tous les entiers de 0 à n est égale à n(n + 1)/2.
Comme on considère une propriété quelconque, on va la noter P (n), à lire :
n a la propriété P . On veut donc montrer que P (0) est vraie, ainsi que P (1),
P (2), et ainsi de suite. On utilise pour cela, le raisonnement par récurrence,
ou par induction. Commençons par l’exemple ci-dessous.
Exemple 4.1. P (n) est la propriété la somme des entiers de 0 à n est
égale à n(n + 1)/2. La propriété P (0) est vraie, puisque 0 = 0 · (0 + 1)/2.
Nous faisons maintenant ce qu’on appelle l’hypothèse de récurrence, c’est-
à-dire nous supposons que P (n) est vraie et essayons d’en déduire P (n + 1).
L’hypothèse de récurrence implique que la somme des entiers de 0 à n vaut
n(n + 1)/2 ; nous en déduisons que la somme des entiers de 0 à n + 1 vaut
n(n + 1)/2 + n + 1 = (n + 1)(n/2 + 1) = (n + 1)(n + 2)/2, ce qui démontre
que P (n + 1) est vraie. Ainsi nous avons montré que : (i) P (0) est vraie,
et (ii) si P (n) est vraie, alors P (n + 1) est vraie. Le principe de récurrence
nous assure alors que P (n) est vraie quel que soit l’entier naturel n.
Principe de récurrence : On veut démontrer une propriété P (n) que
possèdent tous les entiers naturels n. On fait comme suit :
(i) On démontre que P(0) est vraie.
(ii) On fait l’hypothèse que P (n) est vraie (hypothèse de récurrence),
et on démontre que P (n + 1) est vraie. Autrement dit, on démontre que
P (n) vraie implique P (n + 1) vraie . Ceci étant fait, on est sûr que
la propriété est vraie pour tous les entiers : intuitivement en effet, P (0) est
vraie par (i), donc P (1) est vraie par (ii), donc P (2) est vraie par (ii) et
ainsi de suite.
Attention : pour (ii), il faut prendre un entier n quelconque, non spécifié,
et pas 17, ou 1789, ou autre.
Principe de récurrence (variante) : On laisse tel quel (i) et on rem-
place (ii) par :
(ii’) on fait l’hypothèse que P (0), P (1), . . . , P (n) sont toutes vraies (hy-
pothèse de récurrence), et on démontre qu’alors P (n + 1) est vraie.
Une autre variante consiste, au lieu de commencer par 0, à commencer
par un nombre plus grand, comme dans la preuve de l’énoncé suivant. Rap-
pelons d’abord qu’un entier naturel est dit premier s’il est ≥ 2 et s’il n’est
divisible que par 1 et par lui-même.
Théorème 4.1. Tout entier naturel ≥ 2 est divisible par un entier naturel
premier.
10
Démonstration. Pour n = 2, le théorème est évident car 2 est premier et 2
est divisible par 2.
Soit n un entier ≥ 2 et supposons que pour tout entier compris entre 2 et
n, k est divisible par un nombre premier. Considérons n + 1 : s’il est premier
alors il est divisible par un nombre premier ; s’il n’est pas premier, alors on
a n + 1 = k · m, où k est un entier naturel non nul, différent de 1 et de n + 1.
Alors k est compris entre 2 et n. Donc, par l’hypothèse de récurrence, k est
divisible par un nombre premier p. Comme p divise k et que k divies n + 1,
p divise n + 1, ce qui finit la preuve.
Exercice 4.1. Démontrer par récurrence les assertions suivantes, où n est
un entier naturel quelconque. Indications : dans tous ces exercices, la diffi-
culté est comment passer de l’expression avec n à l’expression avec n + 1.
a) n2 − n est divisible par 2.
b) n3 − n est divisible par 3.
c) 4n − 1 est divisible par 3.
d) 22n+1 + 1 est divisible par 3.
e) 9n − 8n − 1 est divisible par 64.
f ) 7n − 3n est divisible par 4.
g) 2n > n.
h) si n ≥ 1, alors 2n−1 ≤ n!.
i) 02 + 12 + 22 + · · · + n2 = n(n + 1)(2n + 1)/6.
j) 1 + 2 + 22 + · · · + 2n = 2n+1 − 1.
k) 0 · 0! + 1 · 1! + 2 · 2! + · · · + n · n! = (n + 1)! − 1.
l) 13 + 23 + 33 + · + n3 = (1 + 2 + · + n)2 .
Deuxième partie
Cours d’algèbre linéaire 1
5 Espaces vectoriels et applications linéaires
5.1 Les huit axiomes d’un espace vectoriel
Définition 5.1. Un espace vectoriel est un ensemble E qui a deux
opérations. La première, appelé eaddition, ou somme, et la seconde est ap-
pelée produit externe. L’addition associe à deux éléments quelconques x, y
de E un élément noté x + y. Le produit externe associe à un nombre réel
a et à un élément x de E un élément de E noté ax. Ces deux opérations
11
jouissent des propriétés suivantes (appelées axiomes des espaces vectoriels) :
quels que soient les éléments x, y, z de E et les réels a, b, on a :
1. x + y = y + x (commutativité) ;
2. (x + y) + z = (x + y) + z (associativité ;
3. Il existe un élément 0E de E tel que x+0E = x (existence de l’élément
neutre) ;
4. Il existe un élément x0 de E tel que x+x0 = 0 (existence de l’opposé) ;
5. 1x = x (le produit externe de 1 ∈ R avec x est égal à x) ;
6. (ab)x = a(bx) (associativité).
7. (a + b)x = ax + bx (distributivité) ;
8. a(x + y) = ax + ay (distributivité) ;
Notez qu’on écrit parfois 0 pour le 0E dans l’axiome 3. Ceci constitue
ce qu’on appelle un abus de notation, qui peut être ambigu ; le contexte en
général lève l’ambiguı̈té. Si par exemple, e ∈ E et si on écrit e + 0, c’est clair
que c’est e + 0E , et non pas e + 0R , car il n’y a pas de sens à additionner un
élément de E et un élément de R (sauf dans le cas particulier où E = R).
De même, dans 0e, c’est clair que le 0 est le zéro des réels (il n’y a pas de
produit de deux vecteurs).
Pour un exemple concret de ces propriétés, regardez l’exemple 5.2 ci-
dessous : x, y, z sont des matrices de même taille et ax désigne le produit du
réel a par la matrice x (ax s’obtient de x en y multipliant tous les coefficients
par a)
On appelle souvent scalaire un élément de R ; ceci, par opposition aux
éléments des éléments des espaces vectoriels, qui sont souvent appelés vec-
teurs.
On a 0e = 0 (ici le premier 0 est le zéro de R, et le second celui de E) :
en effet 0e + 0e = (0 + 0)e = 0e, donc en ajoutant de chaque côté l’opposé
de 0e, on trouve 0e = 0.
De plus l’opposé de e est (−1)e (qu’on note −e) : en effet, e + (−1)e =
1e + (−1)e = (1 + (−1))e = 0e = 0.
La soustraction dans un espace vectoriel est définie par u−v = u+(−1)v ;
c’est-à-dire soustraire v de u, c’est additionner u est l’opposé de v. On a
l’identité (a est un scalaire)
a(u − v) = au − av
et en particulier
−(u + v) = −u − v.
12
Exemple 5.1. L’espace vectoriel nul est l’ensemble à un élément {0}. C’est
un espace vectoriel sur R. On a évidemment 0 + 0 = 0 et a0 = 0 pour tout
scalaire a.
Exemple 5.2. Fixons des entiers naturels n et p. Alors l’ensemble Mnp (R)
est un espace vectoriel ; car on peut additionner deux matrices, et on peut
multiplier toute matrice par un scalaire, et tous les huit axiomes sont satis-
faits, comme on le voit dans la section 12.2.
Exercice 5.3. Montrer que l’ensemble des suites (an )n∈N de nombres réels
est un espace vectoriel.
13
sur n : si n = 0, c’est le vecteur nul ; si n = 1, c’est a1 e1 ; et si n ≥ 2, c’est
(a1 e1 + . . . + an−1 en−1 ) + an en . Le fait qu’on omet les parenthèses provient
de ce que l’addition dans E est associative.
La combinaison linéaire ci-dessous est dite triviale si tous ses coefficients
sont nuls.
Il n’est P pas difficile de calculer avec des combinaisons linéaires. Par
exemple, si i=n i=1 ai ei = 0, et si a1 6= 0, alors e1 s’exprime comme
P une combi-
naison linéaire de e2 , . . . , en . En effet, on a d’abord a1 e1 = − i=n
i=2Pai ei ; puis
1 i=n ai
en multipliant pas l’inverse a1 du scalaire a1 , on obtient : e1 = − i=2 a1 ei .
Faire les exercices 5.4 et 5.5 pour se familiariser avec ce type de calculs.
14
(où I est un intervalle fixé) associe f (a) (a ∈ I fixé). Un autre exemple est
la fonction transposition Mnp (R) → Mpn (R).
Y = M X.
15
6 Sous-espaces vectoriels
6.1 Définition et caractérisation
Définition 6.1. Un sous-espace vectoriel d’un espace vectoriel V est un
sous-ensemble E non vide de V qui est fermé sous les deux opérations de
V ; ce qui signifie que quels que soient les vecteurs u, v dans E et le scalaire
a, on a u + v ∈ E et av dans E.
16
Proposition 6.2. Soit F un sous-ensemble de l’espace vectoriel de E. Alors
F est un sous-espace vectoriel de E si et seulement si on a les trois propriétés
suivantes :
1. 0 ∈ F ;
2. pour tous x, y dans F , on a x + y ∈ F ;
3. pour tous x ∈ E et pour tout a ∈ R, on a ax ∈ F .
Exercice 6.3. Montrer que l’ensemble des fonctions deux fois dérivables
f : R → R telles que f 00 + f = 0 est un espace vectoriel. Indication : montrer
que c’est un sous-espace d’un espace judicieusement choisi.
Exercice 6.4. Montrer que l’ensemble des matrices magiques dans Mnp (R)
(c’est-à-dire l’ensemble des matrices dont la somme de chaque ligne et de
chaque colonne est nulle) est un sous-espace de Mnp (R).
Exercice 6.5. Est-ce que l’ensemble des matrices de trace égale à 2 est un
sous-espace de M2 (R) ?
Exercice 6.6. Est-ce que l’ensemble des matrices de déterminant non nul
(resp. de déterminant nul) est un sous-espace de M2 (R) ?
17
c) On suppose que la réunion A ∪ B est un sous-espace de V . Montrer
que si a est un vecteur quelconque de A, alors a + b est dans A ∪ B, où b est
le vecteur de la question b).
d) Montrer que a + b n’est pas dans A, en utilisant la question a).
e) En déduire que a + b est dans B, et que a est dans B en utilisant la
question a).
f ) En déduire que A est inclus dans B.
g) En déduire que si la réunion de deux sous-espaces est un sous-espace,
alors l’un est inclus dans l’autre.
18
6.3 Intersection de sous-espaces et systèmes d’équations
linéaires
Rappelons que si F, G sont ensembles, leur intersection est l’ensemble
des éléments de F qui sont aussi dans G.
Proposition 6.4. L’intersection de deux sous-espaces d’un espace vectoriel
en est un sous-espace.
Démonstration. Si x, y ∈ F ∩ G, alors x ∈ F et y ∈ F ; donc x + y ∈ F . De
même, x + y ∈ G. Donc x + y ∈ F ∩ G.
Si x ∈ F ∩ G et a ∈ R, alors x ∈ F , donc ax ∈ F . De même ax ∈ G.
Donc ax ∈ F ∩ G.
19
Exercice 6.10. Montrer que l’intersection d’un ensemble quelconque de
sous-espaces d’un espace vectoriel E est un sous-espace de E.
7 Bases et dimension
7.1 Dépendance et indépendance linéaire
Définition 7.1. On dit que des vecteurs v1 , . . . , vn d’un espace vectoriel
V sont linéairement dépendants s’il existe des scalaires a1 , . . . , an tels que
(a1 , . . . , an ) 6= 0 et que a1 v1 + · · · + an vn = 0. On dit aussi que v1 , . . . , vn
sont liés.
a1 v1 + · · · + an vn = 0 ⇒ a1 = . . . = an = 0.
Ceci donne la recette suivante : si vous voulez prouver que des vecteurs
v1 , . . . , vn sont linéairement indépendants, vous considérez des scalaires quel-
conques a1 , . . . , an et vous devez prouver l’implication ci-dessus.
3. Cette condition est essentielle, car si on l’omet, la définition précédente n’a pas de
sens (puisque pour tous vecteurs v1 , . . . , vn on a 0v1 + . . . + 0vn = 0).
20
Exemple 7.1. Prouvons que les vecteurs (1, 2) et (2, 3) sont linéairement
indépendants. Soient a, b des réels quelconques ; écrivons qu’on a le côté
gauche de l’implication ci-dessus : a(1, 2) + b(2, 3) = 0. On obtient (a +
2b, 2a + 3b) = (0, 0), donc a + 2b = 0 et 2a + 3b = 0. On résout ce système
d’équations linéaires, et on trouve a = b = 0 ; cqfd.
21
Proposition 7.3. Si des vecteurs v1 , . . . , vn d’un espace vectoriel dépendent
linéairement de vecteurs x1 , . . . , xp et si n > p, alors v1 , . . . , vn sont
linéairement dépendants.
22
(ii) Si v1 , . . . , vn sont linéairement indépendants, alors v1 , . . . , vn−1 sont
linéairement indépendants.
(iii) Si l’un des vecteurs vi est nul, alors v1 , . . . , vn sont linéairement
dépendants.
(iv) Si v1 , . . . , vn sont linéairement dépendants, alors v1 , . . . , vn+1 le sont
aussi.
(v) Si v dépend linéairement de v1 , . . . , vn , alors v, v1 , . . . , vn sont
linéairement dépendants.
Exercice 7.6. Montrer que les résultats de cette section impliquent les
énoncés suivants :
a) Soit 0 ≤ p < n. Si v1 , . . . , vp sont linéairement indépendants et si
v1 , . . . , vn sont linéairement dépendants, alors il existe j ∈ {p + 1, . . . , n} tel
que vj ∈ Vect({vk | k ∈ {1, . . . , n} \ j}).
b) Si n vecteurs sont linéairement dépendants et n ≥ 1, alors l’un de ces
vecteurs est linéairement dépendants des autres.
c) Si v1 , . . . , vp sont linéairement indépendants et si v1 , . . . , vp+1 sont
linéairement dépendants, alors vp+1 est linéairement dépendant de v1 , . . . , vp .
d) Si vn ∈ Vect(v1 , . . . , vn−1 ), alors Vect(v1 , . . . , vn ) =
Vect(v1 , . . . , vn−1 ).
e) Si v1 , . . . , vn ∈ Vect(x1 , . . . , xp ) et si n > p, alors v1 , . . . , vn sont
linéairement dépendants.
23
Ceci signifie donc que tout vecteur dans V est combinaison linéaire de
v1 , . . . , v n .
Ceci signifie donc que tout vecteur dans V est combinaison linéaire de
v1 , . . . , vn , de manière unique (voir l’exercice 7.7).
Un exemple typique est l’espace vectoriel Mnp (R) et sa base canonique.
Celle-ci consiste en les np matrices Eij : cette matrice a tous ses coefficients
nuls, sauf celui en position i, j, qui vaut 1.
24
Corollaire 7.3. (théorème dit de la “base incomplète”) Soient v1 , . . . , vp
des vecteurs linéairement indépendants dans un espace vectoriel finiment en-
gendré V . Il existe alors des vecteurs vp+1 , . . . , vn tels que v1 , . . . , vn forment
une base de E.
Il peut paraı̂tre bizarre que (ii) ou (iii) suffise. Mais c’est parce que le
nombre des vecteurs est égal à la dimension de l’espace. Pour appliquer le
théorème, il ne faut pas oublier de vérifier cette condition, qui suppose entre
autres qu’on connaisse la dimension.
Nous finissons cette section par un critère pour les bases d’un espace
vectoriel. Il utilise les matrices.
25
Corollaire 7.4. Soit E un espace de dimensionPn avec base e1 , . . . , ep . Soit
v1 , . . . , vp des vecteurs dans E tels que vj = i aij ei . Alors les vecteurs
v1 , . . . , vn forment une base de E si et seulement si la matrice [aij ] est in-
versible.
Exercice 7.9. Montrer que toutes les bases de R, qui est de dimension 1,
sont formées par un seul élément a, a 6= 0.
Exercice 7.10. Montrer que les deux vecteurs (a, b), (c, d) forment une base
de R2 si et seulement si ad − bc 6= 0.
26
Soient alors p vecteurs v1 , . . . , vp dans F , linéairement indépendants.
Montrons qu’ils engendrent F (et on en conclura qu’ils forment une base de
F , qui est donc de dimension finie p). Soit v un vecteur quelconque dans F .
Alors v1 , . . . , vp , v sont linéairement dépendants, par maximalité de p. Donc
v est linéairement dépendant de v1 , . . . , vp , d’après la proposition 7.1.
27
Par une opération de ligne l2 − l1 , on la transforme en
1 −1 0
0 1 −1
0 1 −1
qui, par une transformation l3 − l2 devient
1 −1 0
0 1 −1
0 0 0
On peut encore par une opération l1 +l2 transformer cette matrice la matrice
réduite-échelonnée
1 0 −1
0 1 −1
0 0 0
Les deux vecteurs (1, 0, −1), (0, 1, −1) forment une base de F .
II. Considérons maintenant un espace vectoriel E avec base e1 , . . . , en
et un sous-espace F engendré par des vecteurs v1 , . . . , vk . On considère la
matrice M ∈ Mkn (R) dont la i-ème ligne est formée des coefficients de
vi dans la base donnée. Par l’algorithme de Gauss-Jordan, on obtient une
matrice réduite-échelonnée, dont on supprime les lignes nulles ; les ` lignes
restantes sont utilisées pour former des combinaisons linéaires de la base, et
ces ` vecteurs forment une base de F . Les calculs sont donc les mêmes que
en I.
28
Exercice 7.18. Soit E l’ensemble des suites réelles (an )n∈N . Soit a un réel.
Soit F le sous-ensemble E constitué des suites qui satisfont ∀n ∈ N, an+1 =
aan . Montrer que F est un sous-espace de E. Montrer que toute suite (an )
dans F satisfait ∀n ∈ N, an+1 = an+1 a0 . Montrer que F est de dimension
1.
8 Applications linéaires
8.1 Exemples
Les exemples sont très nombreux.
Exemple 8.4. La dérivation, qui envoie toute fonction sur sa dérivée, est
une application linéaire de l’espace vectoriel des fonctions dérivables I → R
dans l’espace des fonctions de I dans R (I est un intervalle de R).
29
Exercice 8.2. Montrer que toute application linéaire f : R → E est de la
forme ci-dessus (prendre e = f (1)).
Exercice 8.3. Montrer que la fonction Mnp (R) dans R qui à la matrice M
associe la somme de tous ses coefficients est une application linéaire.
8.2 Propriétés
Proposition
P 8.1. P Soit f une application linéaire de E vers F . On a f (0) =
0 et f ( i ai xi ) = i ai f (xi ) quels que soient les vecteurs x1 , . . . , xn dans
E les scalaires a1 , . . . , an .
Autrement dit, f envoie le vecteur nul (de E) sur le vecteur nul (de F ).
La seconde propriété exprime que f préserve les combinaisons linéaires.
Un cas particulier de la deuxième propriété est que f (x − y) = f (x) −
f (y) : on dit que f préserve la soustraction.
30
Preuve. Dans cette preuve, nous abandonnons les abus de notations, et nous
allons différencier les notations de l’addition dans E, celle dans F et celle
dans L(E, F ). Elles seront notées respectivement +E , +F et +L . On a donc
par définition ∀f, g ∈ L(E, F ), ∀x ∈ E,
31
8.3 Applications linéaires et sous-espaces
Si f est une fonction de E dans F , et X est une partie de E, alors...
Définition 8.2. Le noyau d’une application linéaire est l’ensemble des vec-
teurs qu’elle envoie sur 0.
32
Ce théorème s’appelle théorème du rang car on appelle rang de f la
dimension de =(f ). Notation rg(f ).
33
Alors le noyau de f est égal à l’ensemble des (x1 , . . . , xp ) ∈ Rp qui sont
les solutions de ce système d’équations linéaires. Nous pouvons donc, pour
calculer le noyau de f , remplacer le système par un système équivalent.
Pour ce faire, nous pouvons transformer la matrice du système, à savoir
M , par des opérations de lignes, ce qui nous donnera des matrices dont
les sytème associés sont tous équivalents. Nous appliquons l’algorithme de
Gauss-Jordan.
Par l’algorithme de Gauss-Jordan, on met la matrice M sous forme
réduite-échelonnée, et on obtient une matrice N . Celle-ci correspond à un
système d’équations linéaires en les variables x1 , . . . , xp . Parmi celles-ci,il y a
des variables libres, et des variables liées (voir la section 12.7). La matrice N
permet d’exprimer chaque variable liée comme une combinaison linéaire des
variables libres. On considère alors le vecteur x = (x1 , . . . , xp ), et l’on y rem-
place les variables liées par leur combinaisons linéaires de variables libres,
et finalement, on exprime le vecteur x comme une combinaison linéaire de
vecteurs dont les coefficients sont les variables libres. Ces derniers vecteurs
forment une base du noyau.
Regardons un exemple : supposons que p = 6, n = 3 et que N soit de la
forme
0 1 0 a 0 b
N = 0 0 1 c 0 d
0 0 0 0 1 e
Ici, a, b, c, d, e sont des scalaires. Les variables liées (qui correspondent aux
colonnes-pivots) sont donc x2 , x3 , x5 et les autres, x1 , x4 , x6 , sont libres. Les
équations exprimant les variables liées comme combinaison linéaires des va-
riables libres sont
x2 = −ax4 − bx6
x3 = −cx4 − dx6
x5 = −ex6
On obtient
(1, 0, 0, 0, 0, 0), (0, −a, −c, 1, 0, 0), (0, −b, −d, 0, −e, 1).
34
culer l’ensemble des solutions d’un système de n équations linéaires ho-
mogènes en p inconnues. On met cet ensemble sous forme paramétrée (les pa-
ramètres sont x1 , x4 , x6 dans l’exemple), puis on exprime la solution générale
comme une combinaison linéaire de vecteurs, dont les coefficients sont ces
paramètres ; les vecteurs de la combinaison linéaire forment alors une base
du noyau. Le fait que les vecteurs obtenus sont linéairement indépendants
se montre facilement (voir l’exemple).
Exercice 8.8. Déterminer une base des noyaux des applications linéaires
Rp → Rn données par leur matrices :
1 1 1 1 2
1 1 1 1 1
a) ; b) ; c) 1 1 ; d) 1 1 1
1 1 1 1 1
1 1 0 0 1
35
Proposition 8.7. Soient E, F des espaces vectoriels de dimension finie
et f : E → F une application linéaire. Les conditions suivantes sont
équivalentes :
(i) f est un isomorphisme ;
(ii) toute base de E est envoyée par f sur une base de F ;
(iii) il existe une base de E qui est envoyée par f sur une base de F .
Nous notons L(E, F ) l’ensemble des applications linéaires de l’espace
vectoriel E vers l’espace vectoriel F .
Lemme 8.1. Soit f ∈ L(E, F ).
1. Si f est injective, et si e1 , . . . en dans E sont linéairement
indépendants, alors f (e1 ), . . . , f (en ) sont linéairement indépendants.
2. Si f est surjective et si e1 , . . . en engendrent E, alors f (e1 ), . . . , f (en )
engendrent F .
Démonstration. 1. Soient e1 , . . . , en linéairement indépendants dans E.
Montrons que f (e1 ), . . . , f (en ) sont linéairement indépendants. Supposons
qu’il existe a1 , . . . , an dans R tels que a1 f (e1 ) + · · · + an f (en ) = 0. Alors
f (a1 e1 + · · · + an en ) = 0. Donc a1 e1 + · · · + an en ∈ Ker(f ). Comme f est
injective, on a a1 e1 + · · · + an en = 0. Par suite, les ai sont tous nuls, car
les ei sont linéairement indépendants. On conclut donc que les f (ei ) sont
linéairement indépendants.
2. Soient e1 , . . . en qui engendrent E. Soit y dans F ; comme f est sur-
jective, il existe x ∈ E tel que y = f (x). Il existe alors a1 , . . . , an dans R
tels que x = a1 e1 + · · · + an en . Alors y = f (x) = f (a1 e1 + · · · + an en ) =
a1 f (e1 ) + · · · + an f (en ) et par suite f (e1 ), . . . , f (en ) engendrent F .
36
Démonstration. Nous savons que le produit de deux applications linéaires
est une application linéaire. Et aussi que le produit de deux bijections est
une bijection.
37
Rappelons que L(E, V ) est un espace vectoriel (proposition 8.2)
Exercice 8.15. A quelle condition sur n les espaces vectoriels R4 et Mnn (R)
sont-ils isomorphes ? Même question pour Rk et Mnp (R). Même question
pour L(E, F ) et Mnp (R), avec l’hypothèse que n0 = dim(E) et p0 = dim(F ).
Remarquez que la matrice est bien définie, car f (ej ) est de manière
unique combinaions linéaire des vi . Aussi que la taille de la matrice est n × p
car les lignes correspondent aux éléments de la base vj et les colonnes à ceux
de la base ei .
38
Démonstration. Il faut vérifier que la fonction f 7→ [aij ] ainsi définie est
une application linéaire de l’espace vectoriel L(E, V ) dans l’espace vectoriel
Mn,p (R), et qu’elle est bijective. Pour cette dernière assertion, on remarque
que la fonction fi,j qui apparaı̂t dans la preuve du corollaire 8.4 est envoyée
sur la matrice élémentaire Eij qui a des 0 partout , sauf en position i, j où il
y a un 1. Donc notre fonction est un isomorphisme, car elle envoie une base
sur une base, voir Proposition 8.7.
Proposition 8.10. Soit α ∈ L(E, F ), β ∈ L(F, G), et (ek ), (fj ), (gi ) des
bases de E, F, G respectivement. Soient A la matrice de α dans les bases
(ek ), (fj ), et B la matrice de β dans les bases (fj ), (gi ). Alors la matrice de
β ◦ α dans les bases (ei ), (gk ) est BA.
On peut même dire que le produit des matrices a été défini pour que ce
résultat soit vrai. Dans nos notations, cela s’écrit
39
8.8 Changement de base : matrice de passage
Définition 8.7. Soient deux bases (ei ), (e0i ) d’un espace vectoriel E. La
matrice de passage de la basePde (ei ) vers la base (e0i ) est la matrice, notée
Pee0 = [pij ], définie par e0j = i pij ei .
Proposition 8.11. Soient (ei ), (e0i ) deux bases de E.
1. Si C, C 0 sont les matrices d’un vecteur x de E dans les bases (ei ) et
(e0i ) respectivement, alors C = Pee0 C 0 .
2. L’inverse de Pee0 est Pe0 e .
3. Soient v, v 0 deux bases de F . Soit f ∈ L(E, F ) et A, A0 ses matrices
dans les bases e, v d’une part, et e0 , v 0 d’autre part. Alors A0 = Pv0 v APee0 .
Démonstration. En comparant les définitions 8.7 et 8.5, on observe que Pee0
est égal à la matrice de l’identité de E dans les bases (e0i ), (ei ) (dans cet
ordre !). L’assertion 2. découle donc de cette observation et du corollaire 8.7.
Pour 1. on applique cette observation et le corollaire 8.5.
Pour 3. la même observation et la proposition 8.10 s’appliquent : la
matrice Pv0 v APee0 est la matrice (dans les bases appropriées) de l’application
linéaire composée de trois applications linéaires : idF ◦f ◦ idE .
40
Deux matrices A, B carrées de même ordre sont conjuguées s’il existe
une matrice P inversible de même ordre telle que
B = P −1 AP.
41
Exercice 8.20. Avec les notations du Corollaire 8.5. Montrer que résoudre
les sytème d’équations linéaires Y = M X revient à déterminer l’ensemble
des vecteurs colonnes, dans la base donnée de E, des vecteurs x de E tels
que α(x) = y. A quelle condition sur α ce système a-t-il une solution unique,
pour tout Y ?
9 Diagonalisation
9.1 Valeurs et vecteurs propres d’un endomorphisme
Définition 9.1. Soit f un endomorphisme de l’espace vectoriel V . On dit
que λ ∈ R est une valeur propre de f s’il existe un vecteur v non nul dans
V tel que f (v) = λv. Un tel vecteur est alors appelé vecteur propre, et on
dit qu’il est attaché à la valeur propre λ.
Remarquez qu’un vecteur propre est, par définition, toujours non nul.
Proposition 9.1. Si le vecteur v non nul est dans le noyau de f , alors v est
un vecteur propre, attaché à la valeur propre 0. De plus, f est non injective
si et seulement si 0 est valeur propre de f .
42
confusion commune. Par exemple, l’endomorphisme de R2 : f (a, b) = (a, 2a)
n’est pas injectif, puisque (0, 1) est dans le noyau, et ce vecteur est un vecteur
propre attaché à la valeur propre 0 : f (0, 1) = 0(0, 1) (= (0, 0)).
43
Exercice 9.3. Soit M la matrice d’un endomorphisme de V dans la base
v1 , . . . , vn de V . Montrer que v1 + · · · + vn est un vecteur propre pour la
valeur propre 1 de f si et seulement si la somme de chaque ligne de M est
égale à 1.
Définition 9.2. Soit A = [aij ] une matrice carrée d’ordre n. Son polynôme
caractéristique est le déterminant de la matrice xIn − A.
Notons que xIn désigne la matrice dont tous les coefficients diagonaux
valent x, et les autres sont nuls. On remarque aussi que le degré du polynôme
caractéristique est n, et que le coefficient de xn est 1.
44
1 2
Exemple 9.2. Le polynôme caractéristique de la matrice est x2 −
3 4
5x − 2, conformément à l’exemple précédent.
45
Exercice
9.12. Quel est le polynôme caractéristique de la matrice
0 1 1
1 0 1 ?
1 1 0
On a donc la
46
Ecrivons, par l’absurde, qu’une combinaison linéaire non triviale des ei
est nulle. En se restreignant aux ei dont le coefficient est non nul, on peut
écrire a1 ei1 + · · · ak eik = 0, avec des coefficients non nuls a1 , . . . , ak et des
indices ij dans {1, . . . , n} et de plus i1 < . . . < ik . On peut supposer que k
est le plus petit possible. On ne peut avoir k = 1, car les vecteurs propres
sont non nuls. On a donc k ≥ 2. Appliquons f à la relation précédente. Ça
donne a1 λi1 ei1 + a2 λi2 ei2 + · · · ak λik eik = 0. Si λi1 est nul, on obtient une
relation plus courte (car les autres λj sont alors non nuls), ce qui contredit
la minimalité de k. Si λi1 est non nul, divisons par λi1 : ça donne a1 ei1 +
λ λi
a2 λii2 ei2 +· · ·+ak λik eik = 0. Soustrayons la relation ci-dessus : nous obtenons
1 1
λ λi
a2 ( λii2
− 1)ei2 + · · · + ak ( λik − 1)eik = 0. C’est une relation plus courte (car
1 1
les λj sont distincts, donc les nouveaux coefficients sont non nuls), ce qui
contredit la minimalité de k aussi.
47
9.5 Calcul d’une base d’un sous-espace propre et diagonali-
sation effective
9.6 Applications de la diagonalisation
9.6.1 Puissance d’une matrice
9.6.2 Une équation différentielle matricielle
On peut ramener les équations différentielles linéaire à coefficients
constants, d’ordre plus grand que 1, à des équations différentielles matri-
cielles d’ordre 1. Nous l’illustrons par un exercice.
Exercice 9.15. 1. L’équation du mouvement d’une masse m de posi-
tion x attachée à un ressort est donnée par
d2 x k γ dx
2
=− x− (2)
dt m m dt
où k est la constante de Hooke du ressort et γ est la constante don-
nant la force de friction.
k γ
(a) Supposons que m = 16 et m = 10 et posons
x(t)
~u(t) = dx .
dt (t)
où {~v1 , ~v2 } dénote une base de vecteurs propres (de valeurs propres
λ1 et λ2 respectivement) et A1 , A2 ∈ R sont des constantes. Après
avoir choisi une telle base de vecteurs propres {~v1 , ~v2 }, déterminer
les constantes A1 et A2 pour qu’au temps t = 0, on ait x(0) = 0
et dx
dt (0) = 6.
(e) Écrire la solution correspondante pour x(t).
48
10 Espaces euclidiens
10.1 Produits scalaires et bases othonormales
Définition 10.1. Soit E une espace vectoriel. Un produit scalaire sur E est
une fonction de E × E vers R, qu’on note (x, y) 7→ hx, yi, avec les propriétés
suivantes :
— si on fixe x ∈ E, la fonction y 7→ hx, yi est linéaire ;
— si on fixe y ∈ E, la fonction x 7→ hx, yi est linéaire ;
— ∀x, y ∈ E, hx, yi = hy, xi ;
— ∀x ∈ E, hx, xi ≥ 0 ;
— ∀x ∈ E, hx, xi = 0 si et seulement si x = 0.
Un espace euclidien est un espace vectoriel de dimension finie avec un
produit scalaire.
Exemple 10.1. Avec E = Rn , on définit pour x = (x1 , . . . , xn ), y =
(y1 , . . . , yn ), hx, yi = x1 y1 + · · · + xn yn . C’est un produit scalaire sur E,
appelé produit scalaire canonique de Rn .
Exercice 10.1. Avec E = Mnp (R), montrer que la fonction (A, B) 7→
Tr(At B) est un produit scalaire.
Exercice 10.2. Avec E = l’espace vectoriel
R1 des fonctions continues [0, 1] →
R, montrer que la fonction (f, g) 7→ 0 f (x)g(x)dx est un produit scalaire.
Exercice 10.3. Dans un espace euclidien calculer hu + v, u − vi et hu +
v, u + vi en fonction de hu, ui, hu, vi, hv, vi.
49
La notation V ect(e1 , . . . , ej ) désigne le sous-espace de E engendré par
e1 , . . . , e j .
50
est unique au signe près. Mais on a aussi vj = bj ej + cj−1 ej−1 + · · · + c1 e1 ,
donc 0 < hvj , ej i = bj et bj est positif.
Exercice 10.8. Soient e1 , . . . , en des vecteurs non nuls et deux à deux or-
thogonaux d’un espace euclidien (on a donc hei , ej i = δij , où le symbole de
6= j). Montrer que ces vecteurs sont
Kronecker δij signifie 1 si i = j et 0 si i P
linéairement indépendants (calculer hej , i ai ei i). En déduire que la dimen-
sion de l’espace est au moins n. En déduire que la dimension de l’espace est
égale au nombre maximum de vecteurs deux à deux orthogonaux.
51
Théorème 10.3. Soit u un endomorphisme d’un espace euclidien E. Il
existe un unique endomorphisme u∗ de E tel que : ∀x, y ∈ E, hu(x), yi =
hx, u∗ (y)i. Dans toute base othonormale de E, la matrice de u∗ est la trans-
posée de celle de u
52
Pour démontrer ce théorème concernant des matrices à coefficients réels,
on passe par les matrices à coefficients complexes. Il nous faut donc parler
brièvement des nombres complexes.
z = a + bi,
53
Il découle ceci que si M est une matrice à coefficents complexes, elle a
au moins une valeur propre complexe.
54
trer que le discriminant du polynôme caractéristique de la matrice est ≥ 0.
Indication : utiliser l’identité (a + d)2 − 4ad = (a − d)2 .
Exercice
P P10.14. Avec P f comme dans l’exercice 10.9, montrer que
f ( i ai xi , j bj yj ) = i,j ai bj f (xi , y) , où les xi , yj sont des vecteurs dans
E, et les ai , bj des scalaires.
55
Troisième partie
Appendice : rappels du cours de
CEGEP
11 Système d’équations linéaires : résolution par
la méthode d’élimination des variables, ou de
substitution
Cette méthode est peut-être la plus naturelle. On choisit une des va-
riables du système, on l’exprime en fonction des autres en utilisant une des
équations ; puis on remplace dans toutes les autres équations cette variable
par l’expression obtenue. Cela donne un nouveau système, avec moins de va-
riables, et moins d’équations ; il se peut que des équations soient identiques,
auquel cas on supprime les équations redondantes. On continue jusqu’à obte-
nir des variables sujettes à aucune équation : elles sont libres. En remontant
le calcul à l’envers, on exprime toutes les variables non libres en fonctions
des variables libres ; celle-ci peuvent prendre des valeurs arbitraires, et ça
donne pour chaque choix une solution du système. Il y a alors une infinité
de solutions, qui sont paramétrisées par les variables libres.
Il peut arriver qu’on ne trouve aucune variable libre : il y aura alors une
solution unique.
Il peut arriver aussi qu’on arrive à une équation contradictoire (comme
0=1), et dans ce cas le système n’a aucune solution.
Ces trois alternatives, qui sont les seules possibles, sont illustrées dans
les trois exemples très simples suivants.
Exemple 11.1.
a + 2b − c + 3d = 0, 2a − b − c − 2d = 0, 3a + b − 2c + d = 0.
Exprimons c en fonction des autres variables, en utilisant la première
équation : c = a + 2b + 3d. Remplaçons c par l’expression a + 2b + 3d dans
les autres équations : 2a − b − a − 2b − 3d − 2d = 0, 3a + b − 2a − 4b − 6d + d =
0. Ces deux équations se simplifient toutes les deux en la même équation
a − 3b − 5d = 0. Celle-ci permet d’exprimer a : a = 3b + 5d. Il n’y a plus
d’autres équations ; les variables libres sont b et d.
On remonte : c = a + 2b + 3d = 3b + 5d + 2b + 3d = 5b + 8d. On obtient
donc
a = 3b + 5d, c = 5b + 8d,
56
avec des valeurs arbitraires pour b et d. Il y a une infinité de solutions.
Exemple 11.2.
x + 3y = 8, 3x + y = 0.
x = −1, y = 3.
Exemple 11.3.
u − v = 1, u + v + w = 2, 2u + w = 0.
12 Matrices
12.1 Définitions (rappels)
Nous notons Mnp (R) l’ensemble des matrices de taille n × p sur R.
Une telle matrice a donc n lignes et p colonnes. On note une telle matrice
[aij ]1≤i≤n,1≤j≤p , où aij désigne le coefficient (ou élément) en position i, j
(ligne i, colonne j) de la matrice. On note la matrice aussi plus simplement
[aij ] si aucune confusion n’est à craindre.
Une matrice-ligne (resp. matrice-colonne) est un élément de M1p (R)
(resp. Mn1 (R)). On dit aussi vecteur-ligne ou vecteur-colonne. Nous écrirons
aussi Rp pour M1p (R).
57
Les lignes d’une matrice sont des matrices-lignes. Les colonnes d’une
matrice sont des matrices-colonnes.
Deux matrices sont égales si elles ont la même taille et si pour tous i, j
leur élément en position i, j sont égaux.
La matrice nulle de taille n × p est la matrice dont tous les coefficients
sont nuls. On la note 0np et plus souvent simplement 0 (c’est ce qu’on appelle
un abus de notation).
Une matrice carrée d’ ordre n est un élément de Mn (R) = Mnn (R).
Les éléments diagonaux d’une matrice carrée [aij ] sont les éléments aii . On
appelle diagonale d’une matrice les positions des éléments diagonaux. Une
matrice carrée [aij ] est dite triangulaire supérieure (resp. inférieure) si pour
tous i, j, i > j ⇒ aij = 0 (resp. i < j ⇒ aij = 0). Une matrice diagonale est
une matrice qui est triangulaire à la fois supérieure et inférieure ; autrement
dit, les éléments d’une matrice diagonale, qui sont en dehors de la diagonale,
sont nuls.
Ce vocabulaire est très intuitif : voici des exemples de matrice triangu-
laire supérieure, triangulaire inférieure, diagonale (de gauche à droite) :
a b c a 0 0 a 0 0
0 d e , b c 0 , 0 b 0
0 0 f d e f 0 0 c
On note In (ou simplement I) la matrice carrée d’ordre n, qui est dia-
gonale, avec des des 1 comme éléments diagonaux. On l’appelle la matrice
identité d’ordre n.
La transposée d’une matrice A = [aij ], de taille n × p, est la matrice,
notée t A, de taille p × n, telle que son élément en ligne i, colonne j, est
l’élément de A en colonne j, ligne i. Ecrivant t A = [bij ], ceci s’exprime par
bij = aji .
58
1. X + Y = Y + X (commutativité de la somme) ;
2. (X + Y ) + Z = X + (Y + Z) (associativité de la somme) ;
3. X + 0 = 0 (0 est élément neutre pour l’addition) ;
4. Il existe une matrice X 0 telle que X + X 0 = 0 (existence de la matrice
opposée) ;
5. 1X = X (le produit externe de 1 ∈ R avec X est égal à X) ;
6. (a + b)X = aX + bX (distributivité) ;
7. a(X + Y ) = aX + aY (distributivité) ;
8. (ab)X = a(bX) (associativité).
L’associativité de la somme permet d’omettre les parenthèses : on écrit
A + B + C au lieu de (A + B) + C. Plus généralement, A1 + . . . + Ak
désigne la somme des ces k matrices (de même taille !) avec n’importe quel
parenthésage.
Soient A1 , . . . , Ak ∈ Mnp (R) et a1 , . . . , ak ∈ R. On appelle a1 A1 + · · · +
ak Ak une combinaison linéaire des matrices A1 , . . . Ak . Les ai s’appellent les
coefficients de cette combinaison linéaire ; plus précisément ai est le coeffi-
cient de Ai .
S’il existe une combinaison linéaire telle que a1 A1 +· · ·+ak Ak = 0 et que
les coefficients ai ne sont pas tous nuls, on dit que les matrices A1 , . . . , Ak
sont linéairement dépendantes.
Exercice 12.1. Calculer la combinaison linéaire dans M2 (R) :
1 0 y+z 0 1 z − y 0 −1 0 0
x + + +t .
0 0 2 1 0 2 1 0 0 1
59
Le produit des matrices jouit des propriétés suivantes : soient A, A0 ∈
Mnp (R), B ∈ Mpq (R), C ∈ Mqr (R), on a :
1. (AB)C = A(BC) (associativité du produit)
2. (A + A0 )B = AB + A0 C (distributivité) ;
3. A(B + B 0 ) = AB + AB 0 (distributivité) ;
4. In A = A, BIp = B (élément neutre pour le produit) ;
5. a(AB) = (aA)B = A(aB) ;
Comme pour l’addition, l’associativité permet d’omettre les parenthèses :
on écrit simplement ABC au lieu de (AB)C. Plus généralement A1 · · · Ak
désigne le produit de ces k matrices, avec n’importe quel parenthésage.
Comme conséquence immédiate de la formule du produit de deux ma-
trices, on note que le produit d’une matrice nulle par une matrice quel-
conque, à gauche ou à droite est toujours une matrice nulle.
Pour un entier naturel k > 0, on définit la puissance k-ème d’une matrice
carrée A ∈ Mn (R) : An = AA · · · A, avec n facteurs A.
Proposition 12.1. La transposée d’un produit est égal au produit des trans-
posées dans l’autre sens.
60
Exercice 12.7. Soit L = (a1 , . . . , an ) une matrice ligne et M une matrice de
taille n × p dont les lignes sont L1 , . . . , Ln . Montrer que LM est la matrice-
ligne égale à la combinaison linéaire a1 L1 + · · · + an Ln .
Exercice 12.8. Enoncer un analogue du résultat de l’exercice précédent
avec une matrice-colonne et avec les colonnes d’une matrice.
Exercice 12.9. La trace d’une matrice carrée M , notée Tr(M ), est la
somme de ses éléments diagonaux. a) Montrer que si A ∈ Mnp (R) et
B ∈ Mpn (R), alors AB et BA sont des matrices carrées et Tr(AB) =
Tr(BA). b) Montrer qu’il n’existe pas de matrices A, B ∈ Mn (K) telles
que AB − BA = In (n ≥ 1).
Exercice 12.10. Montrer que si M est une matrice, alors M t M est une
matrice carrée, dont la trace est égale à la somme des carrés de tous les
coefficients de M .
Exercice 12.11. Soit A une matrice carrée et k un entier naturel > 0.
Montrer par récurrence sur k que (I − A)(I + A + A2 + · · · + Ak ) = I − Ak+1 .
En déduire que si A est nilpotente (c’est-à-dire : il existe une puissance de
A qui est nulle), alors I − A est inversible à droite ; de manière analogue,
qu’elle est inversible à gauche.
Exercice 12.12. Soient A, B des matrices triangulaires supérieures d’ordre
n, dont les éléments diagonaux sont repectivement a1 , . . . , an et b1 , . . . , bn .
Montrer que les éléments diagonaux de la matrice AB sont a1 b1 , . . . , an bn .
Exercice 12.13. Soient A, B des matrices
Pi=n carrées
i den−i
même taille. Montrer
n
que la formule du binôme (A + B)n = i=1 i A B est vraie si AB =
BA. Montrer par un contre-exemple qu’elle n’est pas vraie en général (n = 2
suffira).
61
Il découle de cette proposition que si l’inverse d’une matrice A existe,
cette matrice inverse est unique. On note A−1 l’inverse de la matrice A.
62
Exercice 12.18. Soient A ∈ Mn (R), On suppose que A et In + A sont
inversibles. a) Montrer que In +A−1 a pour inverse A(In +A)−1 . b) Montrer
que (In + A−1 )−1 + (In + A)−1 = In .
Exercice 12.22. On suppose que A est une matrice carrée non nulle telle
que A2 = A. Pour r, s ∈ R, montrer que (I + rA)(I + sA) = (I + sA)(I + rA)
est une combinaison linéaire de I et A. En déduire que I + rA est inversible
sauf si r = −1.
63
(ij)
2. A −→ B, qui signifie qu’on a échangé les lignes i et j dans A (i 6= j).
ali
3. A −→ B, qui signifie qu’on a multiplié par a la ligne i de A (a ∈ R,
a 6= 0).
Définition 12.4. Une matrice élémentaire est une matrice obtenue à partir
d’une matrice identité par une opération de ligne.
64
B = P 0 B 0 = P 0 P A = (P 0 P )A est l’assertion pour n + 1 s’ensuit, car P 0 P
est un produit de n + 1 matrices élémentaires.
Pour conclure la preuve, il suffit d’appliquer la proposition 12.3.
Définition 12.5. Une matrice est dite échelonnée si elle a les propriétés
suivantes :
— si une ligne est nulle, toutes les nulles plus basses sont nulles ;
— si une ligne est non nulle, le premier coefficient non nul dans cette
ligne est 1 (on appellera pivot un tel élément) ;
— si une ligne est non nulle, avec le premier coefficient non nul en
colonne j, alors la ligne suivante a son premier coefficient non nul
en colonne > j.
Une matrice échelonnée a l’allure suivante :
0 ... 0 1 × ... ... ... ... ... ... ... ... ... ×
0 ... ... ... ... ... 0 1 × ... ... ... ... ... ×
.. .. .. .. .. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . . . . .
0 ... ... ... ... ... ... ... ... ... 0 1 × ... ×
0 ... ... ... ... ... ... ... ... ... ... ... ... ... 0
.. .. .. .. .. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . . . . .
0 ... ... ... ... ... ... ... ... ... ... ... ... ... 0
Théorème 12.2. (Algorithme de Gauss-Jordan) On peut par une suite
d’opérations de lignes transformer toute matrice en une matrice échelonnée.
Preuve et algorithme. On va raisonner de manière un peu littéraire.
Etape 1. Si la matrice a sa première colonne nulle, on travaille sur la
matrice obtenue en la supprimant, et on la rétablit à la fin. On obtient bien
une matrice échelonnée, car si on rajoute une colonne nulle à gauche d’une
matrice échelonnée, on obtient une matrice échelonnée.
Etape 2. On peut donc supposer que la première colonne comporte un
élément non nul. On en choisit un (de préférence le plus petit possible, 1 si
c’est possible). Par une opération (1i), on le ramène en haut à gauche. Par
une opération al1 , on le change en 1. Puis par des opérations li + al1 , on
annule tous les autres éléments de la première colonne (donc avec i ≥ 2).
Etape 3 : On a maintenant une matrice de la forme.
1 × ... ×
0 × ... ×
.. .. .. ..
. . . .
0 × ... ×
65
On retourne à l’étape 1 pour la matrice obtenue en supprimant la première
ligne et la première colonne. On les rétablira à la fin, et on obtiendra une
matrice échelonnée.
Corollaire 12.2. Si une matrice a plus de lignes que de colonnes, ses lignes
sont linéairement dépendantes.
Autrement dit : soit M ∈ Mnp (K] avec n > p ; soient l1 , . . . , ln ses
lignes (chacune d’elles est une élément de M1p (R)) ; alors il existe des réels
a1 , . . . , an tels que a1 l1 + . . . + a)nln = 0 et que (condition essentielle !)
(a1 , . . . , an ) 6= (0, . . . , 0).
Par exemple, pour
1 2
M = 3 4 ,
5 6
on a (1, 2) − 2(3, 4) + (5, 6) = (0, 0) (autrement dit les réels a1 , a2 , a3 sont ici
1, −2, 1).
66
Exercice 12.23. Soit A ∈ Mn (R). Montrer que si on transforme par des
opérations de lignes la matrice [A, In ] (c’est une matrice de taille n × 2n
obtenue en plaçant In à la droite de A) en la matrice [B, P ], alors B = P A
(indication : montrer d’abord que Q[A, B] = [QA, QB]).
Exercice 12.24. Pour des matrices A, B de même taille, on écrit A ∼ B si
on peut obtenir B à partir de A par une suite d’opérations de lignes. Montrer
que ∼ est relation d’équivalence, c’est-à-dire qu’on a les trois propriétés
(A, B, C sont quelconques, mais de même taille) : (i) A ∼ A ; (ii) A ∼ B
implique B ∼ A ; (iii) A ∼ B et B ∼ C implique A ∼ C.
Exercice 12.25. Montrer que certaines opérations de lignes commutent.
li +alj l +bl l +bl li +alj
Par exemple que si A −→ B i−→k C et A i−→k B 0 −→ C 0 , alors C =
C 0 . En déduire que les matrices élémentaires correspondant aux opérations
li +alj et li +blk commutent. Montrer que ce n’est pas vrai pour les opérations
l1 + l2 et l2 + l1 , ni pour les matrices élémentaires correspondantes.
Exercice 12.26. Prouver le corollaire 12.2 en utilisant la proposition 7.3.
Exercice 12.27. * Pour n, p fixé, quel est le nombre de formes possibles de
matrice échelonnées ?
67
Pour résoudre ce système, on transforme la matrice en une matrice
échelonnée réduite. Le système correspondant à cette nouvelle matrice est
équivalent au précédent (c’est-à-dire, a les mêmes solutions). Alors les va-
riables correspondant aux pivots (c’est-à-dire, les xj avec un pivot en colonne
j) sont appelées liées et les autres sont libres 4 . Le nouveau système permet
d’exprimer les variables liées en fonction des variables libres, qui peuvent
prendre des valeurs arbitraires.
Pour un système général, où les seconds membres sont b1 , . . . , bn (en
place des 0 ci-dessus), la matrice du système est la même que ci- dessus sauf
qu’on y rajoute à droite la colonne (b1 , . . . , bn )t . On transforme cette matrice
en une matrice échelonnée réduite. Le nouveau système est équivalent au
précédent. S’il y a une ligne de la forme [0, . . . , 0, c], alors on a une équation
du type 0x1 + · · · + 0xp = c ; s’il y en a une avec c 6= 0, le sytème n’a
pas de solution. Sinon, on obtient comme ci-dessus des expressions pour les
variables liées en fonction des variables libres. S’il n’y a pas de variable libre,
il y a une solution unique. Sinon, il y a une infinité de solutions obtenues en
donnant des valeurs arbitraires aux variables libres.
Un examen attentif de la méthode de substitution et de la méthode ci-
dessus révèle qu’elles sont essentiellement équivalentes : à condition, pour
la méthode de substitution, de se donner un ordre sur les variables, qu’on
éliminera dans cet ordre.
Une autre conséquence de l’existence de la matrice échelonnée réduite
est la caractérisation suivante des matrices inversibles.
68
I = P A à gauche par P −1 , on trouve A = P −1 : donc A est un produit de
matrices élémentaires par la proposition 12.3 et le corollaire 12.6.
13 Déterminants
13.1 Développement selon la première colonne
Définition 13.1. Soit A = [aij ] une matrice carrée d’ordre n. Le
déterminant de A, noté det(A) ou aussi |A|, est défini récursivement
comme suit : si n = 1, c’est a11 ; si n ≥ 2, c’est a11 ∆11 − a21 ∆21 +
. . . + (−1)n+1 an1 ∆n1 , où ∆ij est le déterminant de la matrice (de taille
n − 1 × n − 1)obtenue en supprimant dans A la i-ème ligne et la j-ème
colonne.
69
hypothèse de récurrence sur n, ∆0k1 = a∆k1 si k 6= i. De plus a0k1 = ak1 si
k 6= i, a0i1 = aai1 et ∆0i1 = ∆i1 . Donc det(A0 ) = a det(A).
70
Corollaire 13.1. Soit E une matrice élémentaire, obtenue en appliquant
à la matrice identité une opération de ligne (voir la définition 12.4). Alors
son déterminant est 1 si c’est une opération li + alj , a si c’est une opération
ali , et −1 si c’est une opération (ij).
1 1 1
Exercice 13.1. Montrer que le déterminant de la matrice a b c
a2 b2 c2
est égal à (b − a)(c − a)(c − b). Généraliser à des tailles plus grandes.
71
et que son déterminant est le produit de leurs déterminants (par 2.), qui
sont non nuls par le corollaire 13.1. Donc det(A) = 0 = det(AB). D’où
det(AB) = det(A) det(B).
j+k a ∆
P
Lemme 13.3. j (−1) ij kj = δik det(A).
Démonstration.
72
13.4 Développement du déterminant selon une ligne ou co-
lonne quelconque
Les formules qui suivent s’appellent “formules de Laplace”.
det(A) = (−1)i+1 ai1 ∆i1 + (−1)i+2 ai2 ∆i2 + · · · + (−1)i+n ain ∆in
det(A) = (−1)j+1 a1j ∆1j + (−1)j+2 a2j ∆2j + · · · + (−1)j+n anj ∆nj
14 Solutionnaire (esquisses)
Exercice 2.1 A × B = {(1, 4), (1, 5), (2, 4), (2, 5), (3, 4), (3, 5)} ; P(A) =
{∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}, } ; P(B) = {∅, {3}, {4}, B} ;
P(P(B)) = {∅, {∅}, {{3}}, {{4}}, {B}, {{3}, {4}}, {{3}, B}, {{4}, B}, etc...}
(16 éléments).
Exercice 2.3 Tous vrais sauf e) qui est faux.
Exercice 2.4 C’est l’ensemble des nombres entiers naturels composés,
c’est-à-dire produit de deux entiers naturels ≥ 2 ; autrment dit, c’est l’en-
semble des entiers naturels, distincts de 0 et 1, et qui ne sont pas premiers.
Exercice 2.5 Soit a un élément de A est B = A \ {a}. Alors |B| = n − 1
et on peut admettre (hypothèse de récurrence) que la cardinalité de P(B)
est 2n−1 . A toute partie E de A, on associe la partie F = E ∩ B de B.
Pour une partie F de B donnée, il y a exactement deux parties de A qui lui
correspondent ainsi ; à savoir F et F ∪ {a}. On en déduit que la cardinalité
de P(A) dux fois celle de P(B).
Exercice 2.6 a) x ∈ (A ∪ B) \ (A ∩ B) ⇔ x ∈ A ∪ B et x ∈ / A∩B ⇔ x
appartient à l’un des ensembles, mais pas aux deux ⇔ x ∈ A \ B ou x ∈
B \ A ⇔ x ∈ (A \ B) ∪ (B \ A) .
73
b) x ∈ A ∩ B ⇔ x ∈ A et x ∈ B ⇔ x ∈ A et non(x ∈ / B) ⇔ x ∈ A et
non(x ∈ A \ B) ⇔ x ∈ A \ (A \ B).
Exercice 3.1 R n’est pas fonctionnelle car (1, 2) et (1, 3) sont tous deux
dans R. L’autre relation est fonctionnelle ; en effet il n’y a pas de a, b, c tels
que (a, b) et (a, c) sont dans cette relation et que de plus b 6= c.
Exercice 3.2 Ces égalités découlent de la définition d’une fonction au
début de la section 3.1.
Exercice 3.3 Faux. On a en effet le contre-exemple suivant f (1) = f (2) =
1, X = {1, 2}, Y = {2}. Alors X \Y = {1}, f (X \Y ) = {1} et f (X)\f (Y ) =
{1} \ {1} = ∅.
Exercice 3.4 Si z ∈ g ◦ f (X), alors il existe x ∈ X tel que z = g ◦ f (x) =
g(f (x) ; alors y = f (x) ∈ f (X), donc z = g(y) ∈ g(f (X)). Réciproquement,
si z ∈= g(f (X), alors il existe y ∈ f (X) tel que z = g(y) ; alors il existe
x ∈ X tel que y = g(x), donc z = g(f (x)) = g ◦ f (x) ∈ g ◦ f (X).
Si x ∈ (g ◦ f )−1 (Y ), alors (g ◦ f )(x) ∈ Y , donc g(f (x) ∈ Y , donc f (x) ∈
g −1 (Y ), donc x ∈ f −1 (g −1 (Y )). Réciproquement, si x ∈ f −1 (g −1 (Y )), alors
f (x) ∈ g −1 (Y ), donc g(f (x)) ∈ Y , donc (g◦f ()x) ∈ Y , donc x ∈ (g◦f )−1 (Y ).
Exercice 3.5 (i) Si g ◦ f (a) = g ◦ f (a0 ), alors g(f (a)) = g((a0 )), donc g
étant injective f (a) = f (a0 ), donc f étant injective, a = a0 .
(ii) Si f (a) = f (a0 ), alors g(f (a)) = g(f (a0 )), donc g ◦ f (a) = g ◦ f (a0 ),
donc g ◦ f étant injective a = a0 .
(iii) Soit c ∈ C ; comme g ◦ f est injective, il existe a ∈ A tel que
c = g ◦ f (a) ; on a donc c = g(f (a) et c est donc dans l’image de g.
Exercice 3.6
Exercice 5.4 (i) On a u = 3v − w + x, donc 3v = u + w − x et enfin
v = 13 u + 31 w − 13 x. (ii) On a au = −bv − cw, et comme a 6= 0, on peut
multiplier les deux côtés par le scalaire a1 et on obtient u = − ab v − ac w.
Si u était nul, la preuve ci-dessus ne marcherait pas, car on ne pourrait
pas multiplier par ce scalaire. Plus précisément voici un contre-exemple :
u = (1, 0, 0), v = (0, 1, 1), w = (0, −1, −1) ; on a au + bv + cw = 0, avec
a = 0, b = 1, c = 1 mais u n’est pas combinaison linéaire de v et w (prouvez-
le). (iii) u = 3v − w = 3(x + y) − (y − z)) = 3x + 3y − y + z = 3x + 2y + z.
(iv) On a u = av + bw, v = cx + dy, w = ex + f y (où a, b, c, d, e, f sont des
scalaires), donc u = a(cx + dy) + b(ex + f y) = acx + ady + bex + bf y =
(ac + be)x + (ad + bf )y.
Exercice 5.5 On peut écrire x = ay + bz pour des scalaires a et b. Alors
a et b ne sont pas simultanément nuls, car sinon x = 0. Si a 6= 0, on obtient
y = (1/a)x−(b/a)z et y est combinaison linéaire de x, z. Si b 6= 0, on obtient
de manière analogue que z est combinaison linéaire de x, y.
74
Exercice 5.6 On vérifie que la fonction satisfait aux deux conditions de
la définition 5.3.
Exercice 5.7 Si la condition est réalisée, le polynôme est a1 x et on vérifie
qu’il définit une application linéaire. Réciproquement, si l’application est
linéaire, Palors pour P a, αi ∈ R, on doit avoir PP
tous (αa) = αP (a)
P ; c’est-
à-dire i ai (αa) = α i ai a , ce qui se réécrit en i ai α a = i ai αai .
i i i
75
v1 , . . . , vn , alors tout vecteur est combinaison linéairePde v1 , . . . , vn , et
par suite
P ces P vecteurs engendrent l’espace. Si l’on a i ai vi = 0, alors
0 = i 0vi = i ai vi ; par unicité, on doit avoir ai = 0 pour tout i. Donc
v1 , . . . , vn sont linéairement indépendants, et ils forment donc une base.
Exercice 7.12 Définissons Eij , matrice carrée d’ordre n, par : son co-
efficient i, j est 1, et les autres sont nuls. Alors l’espace des matrices
carrées triangulaires supérieures d’ordre n a pour base les matrices Eij avec
1 ≤ i ≤ j ≤ n. Sa dimension est donc n + (n − 1) + · · · + 2 + 1 = n(n+1) 2 .
Exercice 7.15 Soit f1 , . . . , fp une base de F et g1 , . . . , gq une base de G.
Supposons que F, G soient des sous-espaces supplémentaires dans E.
Alors tout vecteur e de E est une somme f +g ; comme f est une combinaison
linéaire des fi et g une combinaison linéaire des gj , e est une combinaison
linéaire de f1 , . . . , fp , g1 , . . . , gq . Donc ces p + q vecteurs
P engendrent
P E. Ils
sont aussiP linéairement
P indépendants : en effet, si a f
i i i + j j j = 0,
b g
alors i ai fi = j (−bj )gj ; le membre gauche est dans F et le membre
droit dans G ; donc ils sont nuls tous deux ; comme les fi sont linéairement
indépendants, de même que les gj , on déduit que tous les coefficients ai et
bj sont nuls. Conclusion : f1 , . . . , fp , g1 , . . . , gq est une base de E.
Réciproquement, ....
Exercice 7.16 Tout polynôme s’écrit de manière unique comme une
somme P + Q, où P (resp. Q) est une combinaison linéaire de monômes
xn avec n multiple de 3 (resp. avec n pas multiple de 3).
Exercice 7.17 La dimension de G est 2, d’après l’exercice 7.15. Montrons
que u+f 0 , v +f 0 sont linéairement indépendants : si a(u+f 0 )+b(v +f 0 ) = 0,
alors au + bv = −(a + b)f 0 ; le membre gauche est dans G et le droit dans
F ; comme ces espaces sont supplémentaires, les deux membres doivent être
nuls, et il s’ensuit que a = b = 0, car u, v sont linéairement indépendants.
Conclusion : u + f 0 , v + f 0 forment une base de G0 , qui est donc de dimension
2.
Soit e ∈ E. Alors e = f + g, f ∈ F, g ∈ G ; de plus, g = au + bv, donc
e = (f − af 0 − bf 0 ) + (a(u + f 0 ) + b(v + f 0 )). Le premier terme est dans F
est le second dans G0 ; donc E = F + G0 . Soit maintenant un e ∈ F ∩ G0 ;
alors e = f = a(u + f 0 ) + b(v + f 0 ) ; donc f − af 0 − bf 0 = au + bv ; le membre
gauche est dans F et celui de droite dans G ; donc ils sont nuls et l’on en
tire que a = b = 0 et enfin e = 0. Conclusion : F et G sont supplémentaires
dans E.
Exercice 7.18 La suite nulle est dans F . Si (an ) et (bn ) sont dans F , alors
leurs somme (an + bn ) aussi, car an+1 + bn+1 = aan + abn = a(an + bn ). De
même, λ(an ) = (λan ) est dans F , car λan+1 = λaan = a(λan ).
76
Supposons (an ) ∈ F . On a0 = a0 a0 . Supposons que an = an a0 ; alors
an+1 = aan = aan a0 = an+1 a0 .
L’espace F est de dimension1 : il a pour base la suite (an ).
Exercice 7.19 Une base de ce sous-espace est formée par les deux suites
(un ) et (vn ), satisfaisant la récurrence considérée, et les conditions initiales :
u0 = 1, u1 = 0, v0 = 0, v1 = 1.
Supposons que la suite (1, r, r2 , r3 , . . .) soit dans G ; en appliquant la
récurrence, on trouve r2 = ar + b.
1 1
Exercice 8.8 a) La matrice réduite-échelonnée N associée est .
0 0
Le système est x + y = 0, x = −y et (x, y) = (−y, y) = y(−1, 1). La base est
(−1, 1) (Noyau de dimension
1).
1 1 1
b) N = . Système : x + y + z = 0, x = −y − z ; (x, y, z) =
0 0 0
(−y − z, y, z) = y(−1, 1, 0) + z(−1, 0, 1). Base : (−1, 1, 0), (−1, 0, 1).
1 1
c) N = 0 0 . La suite comme en a).
0 0
1 1 0
d) N = 0 0 1 . Système : x + y = 0, z = 0. De manière
0 0 0
équivalente : x = −y, z = 0. (x, y, z) = (−y, y, 0) = y(−1, 1, 0). Base :
(−1, 1, 0).
Exercice 8.9 Si (a, a + b, b, a − b) = 0 (c’est-à-dire = (0, 0, 0, 0)), alors
a = b = 0. Le noyau est donc nul. La fonction est injective.
Exercice 8.10 Le dérivé du polynôme constant 1 est 0. La fonction
“dérivation” n’est donc pas injective. Elle est surjective, car pour tout po-
lynôme an xn + · · · + a1 x + a0 , il est le dérivé de an xn+1 /(n + 1) + · · · +
a1 x2 /2 + a0 x
Exercice 8.11 Si a est un scalaire, il est la trace de la matrice (a/n)In .
Exercice ?? Soit u cette fonction. On a u(x, y) = x+y. Elle est surjective
car tout vecteur dans E est somme d’un vecteur dans F et d’un vecteur dans
G. Si (x, y) ∈ Ker(u), alors x+y = 0 ; comme 0+0 = 0 et que les espaces sont
supplmentaires, on doit avoir, par unicité, x = 0 = y. Donc u est injective.
Exercice 8.12 Supposons que f envoie toute famille de vecteurs
linéairement indépendants sur une famille de vecteurs linéairement
indépendants. Si e ∈ Ker(f ), alors e doit être nul, sinon e est non nul,
il est linéairement indépendant, mais son image n’est pas linéairement
indépendant. Conclusion : f est injectif.
Supposons que f envoie toute famille génératrice sur une famille
77
P
génératrice. Si v ∈ F , nous Ppouvons écrire v = ai f (ei ), où e1 , . . . , en
engendrent E. Donc v = f ( ai ei ) et f est surjective.
Exercice 8.13 ((1, 0, 1), (2, −1, 1)).
Exercice 8.14 g(e1 ) = (1, 2, 3), g(e2 ) = (0, 1, 0), g((1, 1)) = (1, 3, 3).
Exercice 8.15 n = 2 ; np = k ; np = n0 p0 .
Exercice 8.16 6
1 2
Exercice 8.17 0 −1 . Cas général : soit v = (x, y) ; alors v = xe1 +
1 1
ye2 , donc f (v) = xf (e1 ) + yf (e2 ) = x(1, 0, 1) + y(2, −1, 1) = (x, 0, x) +
(2y, −y, y) = (x + 2y, −y, x + y). Par ailleurs
1 2 x + 2y
0 −1 x = −y .
y
1 1 x+y
Exercice 8.18 p = 2, n = 3 ; f (e1 ) = (1, 3, 5), f (e2 ) = (2, 4, 6) ;
f ((−1, 1)) = f (−e1 + e2 ) = −f (e1 ) + f (e2 ) = −(1, 3, 5) + (2, 4, 6) = (1, 1, 1) ;
1 2 1
3 4 −1
= 1 .
1
5 6 1
Exercice 8.19 Soit v = t (1, 1, . . . , 1). Alors v est dans le
Pnoyau de f si et
seulement si M v = 0. Ceci signifie que pour tout i, on a j mij = 0.
Exercice 8.20 Y = M X est équivalent à y = α(x), où x, y sont représentés
pas les matrices-colonnes X, Y . Il y a une solution unique si et seulement si
α est un isomorphisme.
Exercice 8.21 Notons pour commencer que la matrice de la fonction iden-
tité dans une base donnée de V est la matrice identité. Et réciproquement :
si la matrice d’un endomorphisme de V dand une base de V est la matrice
identité, alors cet endomporphisme est la fonction identité.
Si f est bijective, la fonction réciproque g de V dans V est aussi une
application linéaire. Soit P la matrice de g dans la même base. La matrice
de g ◦ f est donc P M , par le Corollaire 8.6. Mais g ◦ f est la fonction identité
de V , donc sa matrice est la matrice identité I. Donc P M = I. De manière
analogue, M P = I.
Réciproquement, si M est inversible, soit P son inverse. Soit g l’endo-
morphisme de V dont la matrice (toujours dans la même base) est P : g
existe par la Proposition 8.9. Alors la matrice de g ◦ f est P M = I ; donc
g ◦ f est la fonction identité. De manière analogue, f ◦ g = idV . Donc f a
une fonction réciproque : c’est donc une bijection.
78
Exercice 9.1 f n’a pas la valeur propre 0 car f est injective. Si f (v) = λv,
alors f −1 (λv) = v, donc λ−1 v = λ−1 f −1 (λv) = λ−1 λf −1 (v) = f −1 (v).
Exercice 9.2 On a D(eλt ) = λeλt .
P Exercice 9.3 Soit P(aij ) la matrice
P de f dans Pcette
P base. On P a donc
P f (vj ) =
Pi P a v
ij i . Donc f ( v
jPj ) = j f (v j ) = j a v
i ij i = i j aij vi =
i ( j aij )vi . Donc j vj est vecteur propre pour la valeur propre P 1 si
et seulement si cette dernière somme est égale, quel que soit j, à j vj .
Comme
P les v j forment une base de V , ceci est équivalent à : quel que soit i,
j aij = 1, ce qu’on voulait démontrer.
Exercice 10.2 Posons A = (aij ), B = (bij , P C = At B = (cik ) ; cette
dernière matrice est de taille n × n. Alors cik = 1≤j≤p aij bkj et par suite
Tr(At B) = 1≤i≤n cii = 1≤i≤n,1≤j≤p aij bij . Cet exercice se traite donc de
P P
manière analogue à l’exemple 10.1. p
Exercice 10.16 On a N (v) = hu, ui ≥ 0. De plus N (0) = 0 et si
N (u) = p u, alors hu, ui√= 0,pdonc u = 0. On a encore hau, aui = a2 hu, ui, donc
(au) = a2 hu, ui = a2 hu, ui = |a|N (u). On a enfin p N (u +p v)2 = hu +
2
v, u+vi = hu, ui+2hu, 2 2
p p vi et (N (u)+N (v)) = ( hu, ui+ hv, vi) =
vi+hv,
N (u) + N (v) + 2 hu, ui hv, vi, donc l’inégalité N (u + v) ≤ N (u) + N (v)
découle de l’exercice précédent.
Exercice 10.17 On a d(u, v) = N (u − v) ≥ 0. Si d(u, v) = 0, alors N (u −
v) = 0, donc u − v = 0 et u = v. De plus d(u, u) = N (u − u) = N (0) = 0. De
plus d(u, w) = N (u − v + v − w) ≤ N (u − v) + N (v − w) = d(u, v) + d(v, w).
Exercice 11.1 x = 4 − 2y, donc 3(4 − 2y) + 7y = 2, donc y = −10 et enfin
x = 24. Il y a une solution unique.
Exercice 11.2 x = 1 + y + z. Donc 2 + 2y + 2z + 3y − 2z = 7 et 3 + 3y +
3z + 2y − 3z = 8 ; c’est-à-dire 5y = 5 (les deux équations donnent la même
chose). Solution : z est une variable libre et on a y = 1, x = 2 + z.
Exercice 11.3 a = 1 + b − c. Donc 2 + 2b − 2c + 3b + 4c = 4 et 3 + 3b −
3c + 2b + 5c = 8 ; c’est-à-dire 5b + 2c = 2 et 5b + 2c = 2. Pas de solution.
Exercice 11.4 i = −j − k − l. Donc −j − k − l + j + k − l = 4, −j − k −
l + j − k + l = −4, et −j − k − l − j + k + l = 2. Donc −2l = 4, −2k = −4,
−2j = 2. Donc l = −1, k = 2, j = −1. Enfin i = 1. Solution unique.
x y
Exercice 12.1
z t
1 0 0 1
Exercice 12.2 Prendre et .
0 0 0 0
Exercice 12.3 0
Exercice 12.4 Faire le calcul pour n = 0, 1, 2, 3 et puis montrer que la
puissance n-ème ne dépend que du reste de la division entière de n par 4.
79
Exercice 12.5 3n−1 .
Exercice 12.9 b) La trace de I est non nulle.
Exercice
12.13 Récurrence
sur n. Pour le contre-exemple, on peut prendre
1 0 0 1
n = 2 et et .
0 0 0 0
Exercice 12.14 Si C est un inverse à droite de AB, alors ABC = I et
donc BC est un inverse à droite de A.
Exercice 12.15 Comme BA = 0, on obtient en multipliant à droite par
l’inverse à droite C de A : BAC = 0C = 0 ; donc BI = 0 et enfin B = 0.
Exercice 12.16 b) L’inverse est R(−t).
Exercice 12.17 AB = BA implique par multiplication à gauche et à droite
par B −1 : B −1 ABB −1 = B −1 BAB −1 . Ceci implique B −1 AI = IAB −1 et
enfin B −1 A = AB −1 . Donc A et B −1 commutent. Pour montrer que A−1
et B −1 commutent, on multiplie la dernière égalité à gauche et à droite par
A−1 .
Exercice 12.18 a) (I +A−1 )A(I +A)−1 = (A+I)(I +A)−1 = I. Le produit
de l’autre côté est analogue et donne aussi I. b) (I + A−1 )−1 + (I + A)−1 =
A(I + A)−1 + (I + A)−1 = (A + I)(I + A)−1 = I.
Exercice 12.19 On a 0 = A − A2 = A(I − A). Si I − A était inversible,
on obtient A = 0 en multipliant à droite par l’inverse de I − A.
Exercice 12.20 On vérifie que J 2 = J. Donc (I − J)J = J − J 2 = 0.
Si J était inversible, on aurait I − J = 0, ce qui n’est pas. Si I − J était
inversible, on aurait J = 0, ce qui n’est pas.
Exercice 12.21 On a A = P.P −1 A et par suite Tr(A) = Tr(P −1 AP , en
utilisant que Tr(BC) = Tr(CB).
Exercice 12.22 (I + rA)(I + sA) = I + (r + s + rs)A. Si r 6= −1, soit
−r
s = r+1 . Alors r + s + rs = 1, donc I + sA est l’inverse de I + rA. Cas où
r = −1 : I − A n’est pas inversible, voir exercice refA2=A.
Exercice 12.23
Exercice 12.23 Montrons que M := Q[A, B] est égal à [QA, QB]. NB :
Q, A, B sont de taille n × n et [A, B] est de taille n × 2n.P Supposons k ≤ n ;
alors le coefficient j, k de [A, B] est ajk ; donc mik = j qij ajk = (QA)ik ,
qui est égal au coefficient i, k de QA. Supposons
P k > n ; alors le coefficient
j, k de = [A, B] est bj,k−n ; alors mik = j qij bj,k−n = (QB)i,k−n , qui est
égal au coefficient i, k de [QA, QB].
Supposons que [A, I] soit transformé en [B, P ]. Il existe alors une ma-
trice inversible (car produit de matrices élémentaires) Q telle que [B, P ] =
Q[A, I]. Donc B = QA et P = Q. Donc B = P A.
Exercice 12.24 Pour (ii), on utilise le fait qu’on peut inverser les
opérations de lignes.
80
Exercice 12.25 Montrons que C = C 0 : en effet C s’obtient en ajoutant
à la ligne i la ligne j multipliée par a, puis la ligne k multipliée par b. De
plus, C 0 s’obtient en ajoutant à la ligne i la ligne k multipliée par b, puis
la ligne j multipliée par a. Notons Li la ligne i de A. Dans les deux cas,
on obtient la matrice obtenue à partir de A en y remplaçant la ligne Li par
Li + aLj + bLk .
Soient P, Q les matrices élémentaires correspondant aux opérations li +
alj , l+ blk respectivement. Alors B = P A, C = QB, B 0 = QA, C 0 = P B 0 .
Donc C = QP A et C 0 = P QA. Comme C = C 0 , et qu’on peut choisir
A = I, on obtient QP = P Q.
Exercice 13.2 Si les deux vecteurs sont nuls, les trois déterminants sont
sûrement nuls. Supposons que v est un multiple scalaire de v 0 ; alors dans
chacune de ces trois matrices, la première ligne est un multiple scalaire
de la deuxième ; son déterminant est donc nul. Conclusion : si v, v 0 sont
linéairement dépendants, alors les trois déterminants sont nuls
Réciproquement, supposons que ces trois déterminants soient nuls. Si
v = v 0 = 0, il n’y a rien à démontrer. Supposons que v 0 soit non nul, et sans
restreindre la généralité, que a0 6= 0 ; on peut même supposer que a0 = 1.
Alors b = ab0 , c = ac0 , donc v = a(1, b0 , c0 ) = av 0 et les deux vecteurs sont
linéairement indépendants.
a b d/D −b/D
Exercice 13.3 L’inverse de est où D = ad −
c d −c/D a/D
bc.
Références
[1] [A] L. Amyotte, Introduction à l’algbre linéaire et à ses applications,
4ème édition, Pearson ERPI Sciences 2018. 3
[2] [CP] G. Charron, P. Parent, Mathématique 105, Algèbre linéaire et
vectorielle : géométrie. 3
[3] [LR] J. Labelle, C. Reutenauer, cours d’algèbre 1, UQAM.
http ://www.lacim.uqam.ca/ christo/cours.html 3
[4] [L] P. Leroux, Algèbre linéaire, une approche matricielle, Modulo, 1978.
[5] [LM] F. Liret, D. Martinais, Algèbre 1ère année, Dunod, 2003.
81