SMPC2 - El Mehdi Bouba

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 58

Université Mohammed Premier

Faculté Pluridisciplinaire de Nador

Département de Mathématiques

Cours d'Algèbre 2

Filière : SMPC

(Semestre II)

Pr. El Mehdi Bouba

Année universitaire :20202021


Table des matières

Préface 2
1. Matrices et déterminants 3
1.1. Matrices 3
1.2. Déterminant 17
2. Espaces vectoriels 22
2.1. Généralités sur les espaces vectoriels 22
2.2. Les sous-espaces vectoriels 23
2.3. Bases et dimension d'un espace vectoriel 23
2.4. Somme des sous-espaces vecoriels 26
2.5. Rang d'une matrice 26
3. Applications linéaires 29
3.1. Généralités sur les applications linéaires 29
3.2. Image d'une application linéaire 30
3.3. Noyau d'une application linéaire 31
3.4. L'espace vectoriel L(E,F ) 32
3.5. Composition et inverse d'applications linéaires 33
3.6. Matrice d'une application linéaire 35
3.7. Changement de bases 42
4. Diagonalisation, trigonalisation et applications 49
4.1. Matrices semblables 49
4.2. Diagonalisation 49
4.3. Le polynôme caractértique 50
4.4. Compter les vecteurs propres 51
4.5. Résumé 52
4.6. Trigonalisation 53
4.7. Applications 54
Références 57

1
Préface

Ces notes de cours sont destinées en premier lieu aux étudiants de la faculté pluridis-
ciplinaire de Nador, de la lière SMPC semestre 2. C'est une introduction à la notion
d'espace vectoriel qui est une structure fondamentale des mathématiques modernes.
Il s'agit de dégager les propriétés communes que partagent des ensembles pourtant
très diérents. Par exemple, on peut additionner deux vecteurs du plan, et aussi multi-
plier un vecteur par un réel. Mais on peut aussi additionner deux fonctions, ou multiplier
une fonction par un réel. Même chose avec les polynômes, les matrices,...
Le but est d'obtenir des théorèmes généraux qui s'appliqueront aussi bien aux vec-
teurs du plan, de l'espace, aux espaces de fonctions, aux polynômes, aux matrices, ...
Pour ceux qui s'intéressent ou veulent approfondir l'un ou l'autre des sujets traités,
je recommande les références citées à la n de ce polycopié.

2
1. Matrices et déterminants

Dans toute la suite, la lettre K désigne Q, R ou C.


1.1. Matrices.
1.1.1. Généralités sur les matrices.
Dénition 1. Une matrice A est un tableau rectangulaire d'éléments de K.
• Elle est dite de taille m × n si le tableau possède m lignes et n colonnes.
• Les nombres du tableau sont appelés les coecients de A.
• Le coecient situé à la i-ème ligne et à la j -ème colonne est noté aij .
• Deux matrices sont égales lorsqu'elles ont la même taille et que les coecients
correspondants sont égaux.
• L'ensemble des matrices à m lignes et n colonnes à coecients dans K est noté
Mm,n (K).

Un tel tableau est représenté de la manière suivante :


 
a11 a12 . . . a1j . . . a1n
 
 a21 a22 . . . a2j . . . a2n 
 
... ... ... ... ... ... 
ou, ou
 
A= A = aij aij .
 
 1≤i≤m
 ai1 ai2 ... aij . . . ain  1≤j≤n
 
... ... ... ... ... ... 
 
am1 am2 . . . amj . . . amn
Exemple 1. !
1 −2 5
A=
0 3 7
est une matrice 2 × 3 avec, par exemple, a11 = 1 et a23 = 7.
1.1.2. Matrices particulières. Voici quelques types de matrices intéressantes :
• Si m = n (même nombre de lignes que de colonnes), la matrice est dite matrice
carrée. On note Mn (K) au lieu de Mn,n (K).
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 
 . .. . . . 
 . . .. 
 . . 
an1 an2 . . . ann
Les éléments a11 , a22 , . . . , ann forment la diagonale principale de la matrice.

3
• Une matrice qui n'a qu'une seule ligne (m = 1) est appelée matrice ligne ou
vecteur ligne. On la note
 
A = a11 a12 . . . a1n .

• De même, une matrice qui n'a qu'une seule colonne (n = 1) est appelée matrice
colonne. On la note  
a11
 a21 
 
A= .  .
 .. 

am1
• La matrice (de taille m × n) dont tous les coecients sont des zéros est appelée
la matrice nulle et est notée 0m,n ou plus simplement 0. Dans le calcul matriciel,
la matrice nulle joue le rôle du nombre 0 pour les réels.
1.1.3. Addition et multiplication de matrices.

Dénition 2 (Somme de deux matrices). Soient A et B deux matrices ayant la même


taille m × n. Leur somme C = A + B est la matrice de taille m × n dénie par
cij = aij + bij .

En d'autres termes, on somme coecient par coecient.

Exemple 2.
! ! !
3 −2 0 5 3 3
Si A= et B= alors A+B = .
1 7 2 −1 3 6
!
−2
Par contre si B0 = alors A + B0 n'est pas dénie.
8

Dénition 3 (Produit d'une matrice par un scalaire). Le produit d'une matrice A =


aij de Mm,n (K) par un scalaire α ∈ K est la matrice αaij formée en multipliant
 

chaque coecient de A par α. Elle est notée α · A (ou simplement αA).

Exemple 3.
! !
1 2 3 2 4 6
Si A= et α=2 alors αA = .
0 1 0 0 2 0

La matrice (−1)A est l'opposée de A et est notée −A. La diérence A − B est dénie
par A + (−B).

4
Exemple 4.
! ! !
2 −1 0 −1 4 2 3 −5 −2
Si A = et B = alors A − B = .
4 −5 2 7 −5 3 −3 0 −1

L'addition et la multiplication par un scalaire se comportent sans surprises :

Proposition 1. Soient A, B et C trois matrices appartenant à Mm,n (K). Soient α ∈ K


et β ∈ K deux scalaires.
(1) A + B = B + A : la somme est commutative,
(2) A + (B + C) = (A + B) + C : la somme est associative,
(3) A + 0 = A : la matrice nulle est l'élément neutre de l'addition,
(4) (α + β)A = αA + βA,
(5) α(A + B) = αA + αB .

Le produit AB de deux matrices A et B est déni si et seulement si le nombre de


colonnes de A est égal au nombre de lignes de B .

Dénition 4 (Produit de deux matrices). Soient A = (aij ) une matrice m × n et


B = (bij ) une matrice n × p. Alors le produit C = AB est une matrice m × p dont les
coecients cij sont dénis par :

n
X
cij = aik bkj
k=1

On peut écrire le coecient de façon plus développée, à savoir :

cij = ai1 b1j + ai2 b2j + · · · + aik bkj + · · · + ain bnj .

Il est commode de disposer les calculs de la façon suivante.


 
×
 

 × 
 ←B

 × 

×
   
|
   
   | 
A→
    ← AB
 × × × ×

− − − c
 ij

5
Avec cette disposition, on considère d'abord la ligne de la matrice A située à gauche
du coecient que l'on veut calculer (ligne représentée par des × dans A) et aussi la
colonne de la matrice B située au-dessus du coecient que l'on veut calculer (colonne
représentée par des × dans B ). On calcule le produit du premier coecient de la ligne
par le premier coecient de la colonne (ai1 ×b1j ), que l'on ajoute au produit du deuxième
coecient de la ligne par le deuxième coecient de la colonne (ai2 ×b2j ), que l'on ajoute
au produit du troisième . . .

Exemple 5.  
! 1 2
1 2 3
A= B = −1 1
 
2 3 4
1 1
On dispose d'abord le produit correctement (à gauche) : la matrice obtenue est de
taille 2 × 2. Puis on calcule chacun des coecients, en commençant par le premier
coecient c11 = 1 × 1 + 2 × (−1) + 3 × 1 = 2 (au milieu), puis les autres (à droite).

     
1 2 1 2 1 2
−1 1 −1 1 −1 1
     

1 1 1 1 1 1
! ! ! ! ! !
1 2 3 c11 c12 1 2 3 2 c12 1 2 3 2 7
2 3 4 c21 c22 2 3 4 c21 c22 2 3 4 3 11
Un exemple intéressant est le produit d'un vecteur ligne par un vecteur colonne :
 
b1
 b2 
   
u = a1 a2 · · · an  .. 
v= 
.
bn
Alors u × v est une matrice de taille 1 × 1 dont l'unique coecient est
a1 b 1 + a2 b 2 + · · · + an b n .

Ce nombre s'appelle le produit scalaire des vecteurs u et v .


Calculer le coecient cij dans le produit A × B revient donc à calculer le produit
scalaire des vecteurs formés par la i-ème ligne de A et la j -ème colonne de B .

6
Remarques 1. Il faut faire attention aux remarques suivantes :
• Le produit de matrices n'est pas commutatif en général.
• AB = 0 n'implique pas A = 0 ou B = 0.
• AB = AC n'implique pas B = C .

Proposition 2. Le produit des matrices vérie les propriétés suivantes :


(1) A(BC) = (AB)C : associativité du produit,
(2) A(B + C) = AB + AC et (B + C)A = BA + CA : distributivité du produit
par rapport à la somme,
(3) A · 0 = 0 et 0 · A = 0.

Dénition 5. La matrice carrée suivante s'appelle la matrice identité :


 
1 0 ... 0
0 1 ... 0 
 

In =  .. .. . . .. 

 . . . . 

0 0 ... 1

Ses éléments diagonaux sont égaux à 1 et tous ses autres éléments sont égaux à 0.
Elle se note In ou simplement I .

Dans le calcul matriciel, la matrice identité joue un rôle analogue à celui du nombre
1 pour les réels. C'est l'élément neutre pour la multiplication. En d'autres termes :

Proposition 3. Si A est une matrice m × n, alors

Im · A = A et A · In = A.

Dénition 6 (Puissance d'une matrice). Pour tout A ∈ Mn (K), on dénit les puis-
sances successives de A par A0 = In et Ap+1 = Ap × A pour tout p ∈ N. Autrement dit,
Ap = A
| ×A× {z· · · × A}.
p facteurs

 
1 0 1
Exemple 6. On cherche à calculer Ap avec A = 
0 −1 0.

0 0 2
On calcule A , A et A et on obtient :
2 3 4

7
     
1 0 3 1 0 7 1 0 15
A2 = 0 1 0 A3 = A2 × A = 0 −1 0 A4 = A3 × A = 0 1 0  .
     

0 0 4 0 0 8 0 0 16
L'observation
 de ces premières
 puissances permet de penser que la formule est :
p
1 0 2 −1
p
A = 0 (−1) p
0 .
 

0 0 2p
Démontrons ce résultat par récurrence.
Il est vrai pour p = 0 (on trouve l'identité). On le suppose vrai pour un entier p et
on va le démontrer pour p + 1. On a, d'après la dénition,
     
1 0 2p − 1 1 0 1 1 0 2p+1 − 1
Ap+1 = Ap × A = 0 (−1)p 0  × 0 −1 0 = 0 (−1)p+1 0 .
     

0 0 2p 0 0 2 0 0 2p+1
Donc la propriété est démontrée.

1.1.4. Inverse d'une matrice.

Dénition 7 (Matrice inverse). Soit A une matrice carrée de taille n × n. S'il existe
une matrice carrée B de taille n × n telle que
AB = In et BA = In ,

on dit que A est inversible. On appelle B l'inverse de A et on la note A−1 .

L'ensemble des matrices inversibles de Mn (K) est noté GLn (K).

Exemple 7. Soit A = ( 10 23 ). Étudier si A est inversible, c'est étudier l'existence d'une


matrice B = ( ac db ) à coecients dans K, telle que AB = I et BA = I .
Or AB = I équivaut à :
! ! ! ! !
1 2 a b 1 0 a + 2c b + 2d 1 0
AB = I ⇐⇒ = ⇐⇒ =
0 3 c d 0 1 3c 3d 0 1
Cette égalité équivaut au système :



 a + 2c = 1

 b + 2d = 0


 3c = 0

 3d = 1

8
Sa résolution est immédiate :a = 1, b = − 23 , c = 0, d = 13 . Il n'y a donc qu'une seule
1 −2
matrice possible, à savoir B = 0 13 .
3
Pour prouver qu'elle convient, il faut aussi montrer l'égalité BA = I , dont la!véri-
1 − 23
cation est laissée au lecteur. La matrice A est donc inversible et A −1
= 1
.
0 3
!
a b
Exemple 8. La matrice A = ( 35 00 ) n'est pas inversible. En eet, soit B =
c d
une matrice quelconque. Alors le produit
! ! !
a b 3 0 3a + 5b 0
BA = =
c d 5 0 3c + 5d 0
ne peut jamais être égal à la matrice identité I2 .

Proposition 4. Si A est inversible, alors son inverse est unique.

Proposition 5. Soit A une matrice inversible. Alors A−1 est aussi inversible et on a :
(A−1 )−1 = A

Proposition 6. Soient A et B deux matrices inversibles de même taille. Alors AB est


inversible et
(AB)−1 = B −1 A−1

Il faut bien faire attention à l'inversion de l'ordre.

Proposition 7. Soient A et B deux matrices de Mn (K) et C une matrice inversible


de Mn (K). Alors l'égalité AC = BC implique l'égalité A = B .

Nous allons voir une méthode pour calculer l'inverse d'une matrice quelconque de
manière ecace. Cette méthode est une reformulation de la méthode du pivot de Gauss
pour les systèmes linéaires. Auparavant, nous commençons par une formule directe dans
le cas simple des matrices 2 × 2. !
a b
Considérons la matrice 2 × 2 : A = .
c d

Proposition 8. Si ad − bc 6= 0, alors A est inversible et


!
1 d −b
A−1 =
ad − bc −c a

9
Méthode de Gauss pour inverser les matrices
La méthode pour inverser une matrice A consiste à faire des opérations élémentaires
sur les lignes de la matrice A jusqu'à la transformer en la matrice identité I . On fait
simultanément les mêmes opérations élémentaires en partant de la matrice I . On aboutit
alors à une matrice qui est A−1 .
En pratique, on fait les deux opérations en même temps en adoptant la disposition
suivante : à côté de la matrice A que l'on veut inverser, on rajoute la matrice identité
pour former un tableau (A | I). Sur les lignes de cette matrice augmentée, on eectue
des opérations élémentaires jusqu'à obtenir le tableau (I | B). Et alors B = A−1 .
Ces opérations élémentaires sur les lignes sont :
(1) Li ← λLi avec λ 6= 0 : on peut multiplier une ligne par un réel non nul (ou un
élément de K \ {0}).
(2) Li ← Li + λLj avec λ ∈ K (et j 6= i) : on peut ajouter à la ligne Li un multiple
d'une autre ligne Lj .
(3) Li ↔ Lj : on peut échanger deux lignes.
 
1 2 1
Exemple 9. Calculons l'inverse de A = 
4 0 −1 .

−1 2 2
Voici la matrice augmentée, avec les lignes numérotées :
 
1 2 1 1 0 0 L1

(A | I) =  4 0 −1 0 1 0 
 
L2

−1 2 2 0 0 1 L3

On applique la méthode de Gauss pour faire apparaître des 0 sur la première colonne,
d'abord sur la deuxième ligne par l'opération élémentaire L2 ← L2 − 4L1 qui conduit à
la matrice augmentée :
 
1 2 1 1 0 0
 0 −8 −5 −4 1 0 
 
L2 ←L2 −4L1

−1 2 2 0 0 1
Puis un 0 sur la première colonne, à la troisième ligne, avec L3 ← L3 + L1 :
 
1 2 1 1 0 0
 0 −8 −5 −4 1 0 
 

0 4 3 1 0 1 L3 ←L3 +L1

10
On multiplie la ligne L2 an qu'elle commence par 1 :
 
1 2 1 1 0 0
 0 1 85 12 − 18 0 
 
L2 ←− 18 L2

0 4 3 1 0 1
On continue an de faire apparaître des 0 partout sous la diagonale, et on multiplie la
ligne L3 . Ce qui termine la première partie de la méthode de Gauss :
 
1 2 1 1 0 0
5 1
 0 1 − 81 0 
 
8 2
1
0 0 2
−1 12 1 L3 ←L3 −4L2

puis  
1 2 1 1 0 0
 0 1 58 12 − 81 0 
 

0 0 1 −2 1 2 L3 ←2L3

Il ne reste plus qu'à  remonter  pour faire apparaître des zéros au-dessus de la
diagonale :
 
1 2 1 1 0 0
 0 1 0 74 − 34 − 54 
 
L2 ←L2 − 85 L3

0 0 1 −2 1 2
puis  
1 0 0 − 12 1
2
1
2
L1 ←L1 −2L2 −L3

 0 1 0 74 − 43 − 54 
 

0 0 1 −2 1 2
Ainsi l'inverse de A est la matrice obtenue à droite et après avoir factorisé tous les
coecients par 41 , on a obtenu :
 
−2 2 2
1
A−1 =  7 −3 −5

4
−8 4 8
Pour se rassurer sur ses calculs, on vérie que A × A−1 = I .

11
Matrices et systèmes linéaires
Le système linéaire



 a11 x1 + a12 x2 + · · · + a1n xn = b1

 a x + a x + ··· + a x = b
21 1 22 2 2n n 2


 ...

 a x + a x + ··· + a x = b
m1 1 m2 2 mn n m

peut s'écrire sous forme matricielle :


     
a11 . . . a1n x1 b1
 a21 . . . a2n x2   b2 
     
 
 . .. .. 
 .  =  ..  .
   
 . . .  .
 
   
am1 . . . amn xn bm
| {z } | {z } | {z }
A X B

On appelle A ∈ Mm,n (K) la matrice des coecients du système. B ∈ Mm,1 (K) est
le vecteur du second membre. Le vecteur X ∈ Mn,1 (K) est une solution du système si
et seulement si
AX = B.

Nous savons que :

Théorème 1. Un système d'équations linéaires soit il n'a aucune solution, soit une
seule solution, soit une innité de solutions.

Matrices inversibles et systèmes linéaires


Considérons le cas où le nombre d'équations égale le nombre d'inconnues :
     
a11 . . . a1n x1 b1
a21 . . . a2n  x2   b2 
     
 
 .. ..   ..  =  .. 
 
.
. .  .   . 
  
 
an1 . . . ann xn bn
| {z } | {z } | {z }
A X B
Alors A ∈ Mn (K) est une matrice carrée et B un vecteur de Mn,1 (K). Pour tout
second membre, nous pouvons utiliser les matrices pour trouver la solution du système
linéaire.

12
Proposition 9. Si la matrice A est inversible, alors la solution du système AX = B
est unique et est :
X = A−1 B.

La preuve est juste de vérier que si X = A−1 B , alors AX = A A−1 B = AA−1 B =


 

I · B = B . Réciproquement si AX = B , alors nécessairement X = A−1 B .


Nous verrons bientôt que si la matrice n'est pas inversible, alors soit il n'y a pas de
solution, soit une innité.

1.1.5. Matrices diagonales et triangulaires, transposition, trace et symétrie. Soit A une


matrice de taille n × n. On dit que A est triangulaire inférieure si ses éléments au-dessus
de la diagonale sont nuls, autrement dit :

i < j =⇒ aij = 0.

Une matrice triangulaire inférieure a la forme suivante :


 
a11 0 ··· ··· 0
 a21 a22 . . . .. 
. 

 .. .. . . . . .. 
 
 . . . . . 
 .. .. ...
 
 . . 0 

an1 an2 · · · · · · ann

On dit que A est triangulaire supérieure si ses éléments en-dessous de la diagonale


sont nuls, autrement dit :
i > j =⇒ aij = 0.

Une matrice triangulaire supérieure a la forme suivante :


 
a11 a12 . . . . . . . . . a1n
 
0 a22 . . . . . . . . . a2n 
 .. ... ... .. 
 
 . . 
 . .. 
 . ... ...
 . . 

 . . . . . . . .. 
 .. . 
 
0 . . . . . . . . . 0 ann

13
Exemple 10. Deux matrices triangulaires inférieures (à gauche), une matrice trian-
gulaire supérieure (à droite) :
   
4 0 0 ! 1 −1 1
5 0
0 −1 0 0 −1 −1
   
1 −2
3 −2 3 0 0 −1

Une matrice qui est triangulaire inférieure et triangulaire supérieure est dite diago-
nale. Autrement dit : i 6= j =⇒ aij = 0.

Exemple 11. Exemples de matrices diagonales :


 
−1 0 0 !
2 0
 0 6 0 et
 
0 3
0 0 0

Exemple 12 (Puissances d'une matrice diagonale). Si D est une matrice diagonale,


il est très facile de calculer ses puissances Dp (par récurrence sur p) :
   
α1 0 ... ... 0 α1p 0 ... ... 0
α2p
   
0 α2 0 ... 0 0 0 ... 0
. ... ... ... ..  . ... ... ... .. 
D =  .. Dp =  ..
   
 .
=⇒
 . 
0 p
 ... 0 αn−1 0 
0
 ... 0 αn−1 0 
p
0 ... ... 0 αn 0 ... ... 0 αn

La transposition
Soit A la matrice de taille m × n
 
a11 a12 . . . a1n
 a21 a22 . . . a2n
 

 ..
A= .. .. .
 . . .


am1 am2 . . . amn

Dénition 8. On appelle matrice transposée de A la matrice t A (ou AT ) de taille n×m


dénie par :
 
a11 a21 . . . am1
a12 a22 . . . am2 
 
t

A= .. .. .. 
.
. . . 


a1n a2n . . . amn

14
Autrement dit : le coecient à la place (i,j) de t A est aji . Ou encore la i-ème ligne
de A devient la i-ème colonne de t A (et réciproquement la j -ème colonne de t A est la
j -ème ligne de A).

Exemple 13.
   
1 2 3 −7 1 4
t
 4 5 −6 = 2 5 8
  

−7 8 9 3 −6 9
   
0 3 ! 1
t 0 1 −1 t
 1 −5 = (1 − 2 5) = −2
   
3 −5 2
−1 2 5

Théorème 2. L'opération de transposition obéit aux règles suivantes :


(1) t
(A + B) =t A +t B
(2) t
(αA) = αt A
(3) t t
( A) = A
(4) t
(AB) =t B t A
(5) Si A est inversible, alors t A l'est aussi et on a (t A)−1 =t (A−1 ).

Notez bien l'inversion : t (AB) =t B t A, comme pour (AB)−1 = B −1 A−1 .


La trace
Dans le cas d'une matrice carrée de taille n × n, les éléments a11 , a22 , . . . , ann sont
appelés les éléments diagonaux. Sa diagonale est la diagonale (a11 , a22 , . . . , ann ).
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 
 . .. . . .. 
 . . . 
 . . 
an1 an2 . . . ann

Dénition 9. La trace de la matrice A est le nombre obtenu en additionnant les


éléments diagonaux de A.
Autrement dit,
tr(A) = a11 + a22 + · · · + ann .

Exemple 14. On a :
• Si A = ( 20 15), alors tr(A)
 = 2 + 5 = 7.
1 1 2
• Pour B = 11 5 2 8
0 −10
, tr(B) = 1 + 2 − 10 = −7.

15
Théorème 3. Soient A et B deux matrices n × n. Alors :
(1) tr(A + B) = tr(A) + tr(B),
(2) tr(αA) = α tr(A) pour tout α ∈ K,
(3) tr(t A) = tr(A),
(4) tr(AB) = tr(BA).

Matrices symétriques

Dénition 10. Une matrice A de taille n × n est symétrique si elle est égale à sa
transposée, c'est-à-dire si
A =t A,

ou encore si aij = aji pour tout i, j = 1, . . . , n. Les coecients sont donc symétriques
par rapport à la diagonale.

Exemple 15. Les matrices suivantes sont symétriques :


 
! −1 0 5
0 2
0 2 −1
 
2 4
5 −1 0

Exemple 16. Pour une matrice B quelconque, les matrices B ·t B et t B · B sont


symétriques.
En eet, t (B t B) =t (t B)t B = B t B . Idem pour t BB .

Matrices antisymétriques

Dénition 11. Une matrice A de taille n × n est antisymétrique si


t
A = −A,

c'est-à-dire si aij = −aji pour tout i, j = 1, . . . , n.

Exemple 17.
 
! 0 4 2
0 −1
−4 0 −5
 
1 0
−2 5 0

Remarquons que les éléments diagonaux d'une matrice antisymétrique sont toujours
tous nuls.

16
1.2. Déterminant. Dans cette partie, on cherche à associer à toute matrice carrée
un nombre, son déterminant, qui soit facile à calculer et qui permette de décider si la
matrice est inversible ou non.

Théorème 4. Il existe une unique fonction


det : Mn (K) → K
.
A 7→ det(A)

ayant les propriétés suivantes :


(1) Si A1 est obtenue à partir de A en multipliant une ligne par λ ∈ K, alors
det(A1 ) = λ det(A).
(2) Si A2 est obtenue à partir de A en échangeant deux lignes, alors det(A2 ) =
− det(A).
(3) Si A3 est obtenue à partir de A en ajoutant à une ligne un multiple d'une autre
ligne, alors det(A3 ) = det(A).
(4) det(In ) = 1.
De plus, pour toute matrice A, on a det(A) = det(t A). Par suite, on peut remplacer
ligne par colonne dans ce qui précède.

Proposition 10. Une matrice carrée est inversible si et seulement si son déterminant
est non-nul.
!
cos(θ) − sin(θ)
Exemple 18. Soit θ un paramètre réel. Quand est-ce que la matrice
sin(θ) cos(θ)
est inversible ? En prenant le déterminant, on obtient cos(θ) + sin(θ) = 1, donc la ma-
2 2

trice est toujours inversible.

Proposition 11. Soient A et B deux matrices carrées de même taille. Alors :

det(AB) = det(A) det(B).

De plus si A est inversible alors :


1
det(A−1 ) = .
det(A)
Dénition 12. Soit A une matrice n × n. On appelle mineur en i, j , et on note ∆ij ,
le déterminant de la matrice (n − 1) × (n − 1) obtenue en supprimant la ligne i et la
colonne j de A.

17
Exemple 19. Soit
 
1 2 3
A = 4 5 6 .
 

7 8 9
Alors
5 6 1 3 1 2
∆11 = , ∆22 = , ∆23 = .
8 9 7 9 7 8

Dénition 13. Notons A = (aij ). Le développement de det(A) par la ligne i est


n
X
deti (A) = (−1)(i+j) aij ∆ij .
j=1

Le développement de det(A) par la colonne j est


n
X
j
det (A) = (−1)(i+j) aij ∆ij .
i=1

Exemple 20. Prenons


 
−1 −1
0
A = −2 0 5 .
 

−3 0 −1
Pour gérer le signe (−1)i+j , le plus simple est de former un tableau :
 
+ − +
− + − .
 

+ − +
Pour développer par rapport à la première ligne, disons, on prend les mineurs et les
coecients dans la matrice, les signes dans le tableau, et on ajoute :

0 5 −2 5 −2 0
det1 (A) = +0 × − (−1) × + (−1) ×
0 −1 −3 −1 −3 0
0 + 17 + 0 = 17.
Par rapport à la troisième colonne, on a :
−2 0 0 −1 0 −1
det3 (A) = +(−1) × −5× + (−1) ×
−3 0 −3 0 −2 0
0 − 5 × (−3) − (−2) = 17.
Ce n'est pas un hasard si on trouve le même résultat.

18
Proposition 12. Pour tout i et tout j , on a :

deti (A) = detj (A) = det(A).

En d'autre termes, le développement donne une formule pour calculer le déterminant,


en fonction de déterminants plus petits.

Nous allons maintenant voir une formule pour calculer l'inverse d'une matrice carrée.
Soit A = (aij ) une matrice.
On pose
C = ((−1)i+j ∆ij ).

et on l'appelle la comatrice de A.

Proposition 13. Soit A une matrice inversible. Alors


1 t
A−1 = C.
det(A)
 
1 2 1
Exemple 21. Soit A = 
 4 0 −1 . Le calcul donne que det(A) = −4. La

−1 2 2
comatrice C s'obtient en calculant 9 déterminants 2 × 2 (sans oublier les signes +/−).
On trouve :
   
2 −7 8 −2 2 2
1 1
C = −2 3 −4 et donc A−1 = ·t C =  7 −3 −5
  
det(A) 4
−2 5 −8 −8 4 8

1.2.1. Méthode de Cramer. Le théorème suivant, appelé règle de Cramer, donne une
formule explicite pour la solution de certains systèmes d'équations linéaires ayant autant
d'équations que d'inconnues.
Considérons le système d'équations linéaires à n équations et n inconnues suivant :



 a11 x1 + a12 x2 + · · · + a1n xn = b1

 a x + a x + ··· + a x = b
21 1 22 2 2n n 2


 ...

 a x + a x + ··· + a x = b
n1 1 n2 2 nn n n

19
Ce système peut aussi s'écrire sous forme matricielle AX = B où
     
a11 a12 · · · a1n x1 b1
a21 a22 · · · a2n  x2  b2 
     
et B = 
  
A= .. .. .. 
 ∈ Mn (K), X= ..  .. 
.
. . .  .  . 
   
  
an1 an2 · · · ann xn bn
Dénissons la matrice Aj ∈ Mn (K) par
 
a11 . . . a1,j−1 b1 a1,j+1 . . . a1n
a21 . . . a2,j−1 b2 a2,j+1 . . . a2n 
 

Aj =  .. .. .. .. .. 
. . . . . 
 

an1 . . . an,j−1 bn an,j+1 . . . ann
Autrement dit, Aj est la matrice obtenue en remplaçant la j -ème colonne de A par
le second membre B . La règle de Cramer va nous permettre de calculer la solution du
système dans le cas où det(A) 6= 0 en fonction des déterminants des matrices A et Aj .

Théorème 5 (Règle de Cramer). Soit


AX = B

un système de n équations à n inconnues. Supposons que det(A) 6= 0. Alors l'unique


solution (x1 , x2 , . . . , xn ) du système est donnée par :
det(A1 ) det(A2 ) det(An )
x1 = x2 = ... xn = .
det(A) det(A) det(A)
Exemple 22. Résolvons le système suivant :


 x1 + 2x3 = 6
−3x1 + 4x2 + 6x3 = 30

−x1 − 2x2 + 3x3 = 8.

On a    
1 0 2 6
A =  −3 4 6  B =  30 
   

−1 −2 3 8
     
6 0 2 1 6 2 1 0 6
A1 =  30 4 6  A2 =  −3 30 6  A3 =  −3 4 30 
     

8 −2 3 −1 8 3 −1 −2 8
et
det(A) = 44 det(A1 ) = −40 det(A2 ) = 72 det(A3 ) = 152.

20
La solution est alors :
det(A1 ) 40 10 det(A2 ) 72 18 det(A3 ) 152 38
x1 = =− =− x2 = = = x3 = = = ·
det(A) 44 11 det(A) 44 11 det(A) 44 11

21
2. Espaces vectoriels

On rappelle que la lettre K désigne Q, R ou C.

2.1. Généralités sur les espaces vectoriels.

2.1.1. Dénition. Un K-espace vectoriel est un ensemble non vide E muni :


• d'une loi de composition interne, c'est-à-dire d'une application de E × E dans
E:
E×E → E
(u, v) 7→ u + v
• d'une loi de composition externe, c'est-à-dire d'une application de K × E dans
E:
K×E → E
(λ, u) 7→ λ · u
qui vérient les propriétés suivantes :
(1) u+v =v+u (pour tous u,v ∈ E )
(2) u + (v + w) = (u + v) + w (pour tous u, v, w ∈ E )
(3) Il existe un élément neutre 0E ∈ E tel que u + 0E = u (pour tout u ∈ E )
(4) Tout u ∈ E admet un symétrique u0 tel que u + u0 = 0E . Cet élément u0 est noté
−u.
(5) 1K · u = u (pour tout u ∈ E )
(6) λ · (µ · u) = (λµ) · u (pour tous λ, µ ∈ K, u ∈ E )
(7) λ · (u + v) = λ · u + λ · v (pour tous λ ∈ K, u, v ∈ E )
(8) (λ + µ) · u = λ · u + µ · u (pour tous λ, µ ∈ K, u ∈ E )
On appelle les éléments de E des vecteurs et les éléments de K des scalaires.

2.1.2. Exemples fondamentaux.


• L'exemple le plus fondamental des espaces vectoriel est celui de l'ensemble Kn .
• L'ensemble Mm,n (K) des matrices m × n est aussi un espace vectoriel sur K.
• L'ensemble K[X] des polynômes à coecients dans K est un espace vectoriel
sur K.
• Soit A un ensemble quelconque. Notons l'ensemble des fonctions f : A → K par
F(A, K), c'est un espace vectoriel sur K.

22
2.2. Les sous-espaces vectoriels.
Dénition 14. Soient E un espace vectoriel sur K et F ⊂ E une partie non vide. On
dit que F est un sous-espace vectoriel de E lorsque les deux conditions suivantes sont
remplies : pour u, v ∈ F , on doit avoir u + v ∈ F , et pour λ ∈ K et v ∈ F , on doit avoir
λ.v ∈ F.

2.2.1. Exemples.
• Donnons-nous une matrice A ∈ Mm,n (K) et considérons E = {v ∈ Kn |Av = 0}.
Alors E est un sous-espace de Kn . En eet, si u et v sont dans E , on a :
Au = Av = 0, donc A(u + v) = Au + Av = 0, donc u + v ∈ E. On vérie de
même que A(λv) = λAv = 0 si Av = 0, donc λv ∈ E si v ∈ E.
• On note Kn [X] l'ensemble des polynômes dont le degré est ≤ n. Alors Kn [X]
est un sous-espace vectoriel de l'espace K[X].
• Soit C(I,R) l'ensemble des fonctions continues sur l'intervalle I . On a déja :
C(I,R) ⊂ F(I,R), et c'est un sous-espace vectoriel. On peut remplacer conti-
nue par dérivable.
On peut même considérer
E = {f ∈ F(I,R)| f est dérivable deux fois et 3f 00 − 5f 0 + f = 0}.

On vérie que E est alors un sous-espace vectoriel de F(I,R).


Théorème 6 (Caractérisation d'un sous-espace vectoriel). Soient E un K-espace vec-
toriel et F une partie non vide de E .
F est un sous-espace vectoriel de E si et seulement si

λu + µv ∈ F pour tous u, v ∈ F et tous λ, µ ∈ K.

Proposition 14. Soit E un espace vectoriel. L'intersection d'une famille de sous-


espaces vectoriels de E est un sous-espace de E .
2.3. Bases et dimension d'un espace vectoriel.
2.3.1. Familles génératrices.
Dénition 15. Soit E un espace vectoriel, et soient e1 , e2 , . . . en des éléments de E .
Une combinaison linéaire de ces éléments est une somme de la forme :
λ1 e1 + λ2 e2 + . . . + λn en , avec λi ∈ K.

L'ensemble des combinaisons linéaires de e1 , e2 , . . . en est noté Vect(e1 , e2 , . . . en ).

23
Lemme 1. L'ensemble V ect(e1 , e2 , . . . en ) est un sous-espace vectoriel de E .

Nous dirons que V ect(e1 , e2 , . . . en ) est l'espace engendré par les vecteurs e1 , e2 , . . . en .

Dénition 16. Soient E un espace vectoriel et e1 , e2 , . . . en une famille d'éléments de


E . On dit que c'est une famille génératrice de E lorsque E = V ect(e1 , e2 , . . . en ).
! !
1 0
Exemple 23. Prenons E = R2 , e1 = et e2 =
0 1
Écrivons simplement
! ! !
x 1 0
=x +y = xe1 + ye2 .
y 0 1
On constate bien que tout vecteur de R2 peut s'écrire comme une combinaison linéaire
de e1 et e2 , donc e1 , e2 est une famille génératrice !
de R2 . !
2 1
Il y en a d'autres, par exemple prenons ε1 = et ε2 = . La condition pour
3 1
!
x
qu'un vecteur appartienne à V ect(ε1 , ε2 ) est l'existence de deux nombres λ1 et λ2
y
tels que (
2λ1 + λ2 = x
3λ1 + λ2 = y
Le déterminant du système est 2×1−3×1 = −1 6= 0, donc la matrice correspondante
est inversible, donc le système a une solution unique (λ1 , λ2 ).

2.3.2. Familles libres.

Dénition 17. Soit E un espace vectoriel, et soient e1 , e2 , . . . en une famille d'éléments


de E . On dit que c'est une famille libre lorsque l'équation
λ1 e1 + λ2 e2 + . . . + λn en = 0, avec λi ∈ K,

ne possède qu'une seule solution, à savoir


λ1 = λ2 = · · · = λn = 0.
! !
−5 3
Exemple 24. Prenons E = R2 , e1 = et e2 =
1 7
Pour vérier si la famille est libre, nous devons examiner l'équation λ1 e1 + λ2 e2 = 0,
qui s'écrit comme le système

24
(
−5λ1 + 3λ2 = 0
λ1 + 7λ2 = 0
Le déterminant étant −38 6= 0, le système a une solution unique, qui est bien sûr
λ1 = λ2 = 0. Donc la famille est libre.!
−2
Si maintenant on pose e3 = , la famille e1 , e2 , e3 est-elle libre ? Le système
8
devient : (
−5λ1 + 3λ2 − 2λ3 = 0
λ1 + 7λ2 + 8λ3 = 0
En faisant L1 ← L1 + 5L2 , puis en permutant les lignes, on obtient :
(
λ1 + 7λ2 + 8λ3 = 0
38λ2 + 38λ3 = 0
alors λ1 = λ2 = −λ3 . En particulier, on a la solution λ1 = λ2 = 1, λ3 = −1, et d'ailleurs
on vérie eectivement que e1 + e2 − e3 = 0. La famille n'est donc pas libre.

2.3.3. Base et dimension.

Dénition 18. Lorsqu'une famille est à la fois libre et génératrice, on dit que c'est une
base de l'espace vectoriel considéré.

Exemple 25. Considérons E = Kn [X], l'espace vectoriel des polynômes de degré ≤ n.


Posons ei = X i , pour 0 ≤ i ≤ n. Tout polynôme s'écrit comme combinaison linéaire
des puissances de X , donc la famille est génératrice, de plus si :

λ0 e0 + λ1 e1 + λ2 e2 + · · · + λn en = 0 = λ0 + λ1 X + λ2 X 2 + · · · + λn X n ,

alors on a λ0 = λ1 = · · · = λn = 0 (par dénition du polynôme nul). Donc la famille


est libre. Finalement la famille 1, X, X2 , · · · , Xn est une base, qu'on appelle encore la
base canonique de Kn [X]. Noter qu'elle comprend n + 1 éléments.

Dénition 19. La dimension d'un espace vectoriel est le nombre de vecteurs dans
une base quelconque. La dimension de E est notée dim(E).

Exemple 26. La dimension de Kn [X] est n+1, prendre la base canonique 1, X, X 2 , · · · , X n .

Théorème 7. Soit E un espace vectoriel de dimension nie. On peut extraire de toute


famille génératrice C de E une base B de E .

25
Théorème 8. (de la base incomplète) Soit E un espace vectoriel de dimension nie.
Toute famille libre C = (u1 , · · · , up ) de vecteurs de E peut être complétée en une base
B = (u1 , · · · , up , · · · , un ) de E .

Proposition 15. Dans un espace vectoriel E de dimension n :


(1) Toute famille libre (u1 , · · · , un ) de n vecteurs de E est une base.
(2) Toute famille génératrice (u1 , · · · , un ) de n vecteurs de E est une base.
Proposition 16. (1) Un sous-espace F d'un espace vectoriel E de dimension nie
est de dimension nie.
(2) On a alors dim(F ) ≤ dim(E).
(3) Si dim(F ) = dim(E), on a F = E.
2.4. Somme des sous-espaces vecoriels. Soient E un espace vectoriel, F et G des
sous-espaces vectoriels de F . On appelle somme de F et G le sous-espace V ect(F ∪ G)
engendré par F ∪ G. On le note F + G.
Notons que l'union F ∪ G n'est un espace vectoriel que dans des conditions particu-
lières.
Proposition 17. Soit E un espace vectoriel de dimension nie et soient F et G deux
sous-espaces vectoriels de E . On a :
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).

Dénition 20. Un hyperplan d'un espace E de dimension n est un sous-espace vectoriel


H de dimension n − 1.
Si F est un sous-espace vectoriel de E contenant un hyperplan H , alors F = H ou
F = E.

2.5. Rang d'une matrice.


Rang d'une famille de vecteurs : Soient E un K-espace vectoriel et {v1 , . . . ,vp }
une famille nie de vecteurs de E . Le sous-espace vectoriel V ect(v1 , . . . ,vp ) engendré
par {v1 , . . . ,vp } étant de dimension nie, on peut donc donner la dénition suivante :
Dénition 21 (Rang d'une famille nie de vecteurs). Soit E un K-espace vectoriel et
soit {v1 , . . . ,vp } une famille nie de vecteurs de E . Le rang de la famille {v1 , . . . ,vp }
est la dimension du sous-espace vectoriel V ect(v1 , . . . , vp ) engendré par les vecteurs
v1 , . . . , vp . Autrement dit :

rg(v1 , . . . ,vp ) = dim(V ect(v1 , . . . ,vp )).

26
Calculer le rang d'une famille de vecteurs n'est pas toujours évident, cependant il y
a des inégalités qui découlent directement de la dénition.
Proposition 18. Soient E un K-espace vectoriel et {v1 , . . . , vp } une famille de p vec-
teurs de E . Alors :
(1) 0 ≤ rg(v1 , . . . ,vp ) ≤ p : le rang est inférieur ou égal au nombre d'éléments dans
la famille.
(2) Si E est de dimension nie alors rg(v1 , . . . ,vp ) ≤ dim(E) : le rang est inférieur
ou égal à la dimension de l'espace ambiant E .
Remarque 1. Nous avons :
• Le rang d'une famille vaut 0 si et seulement si tous les vecteurs sont nuls.
• Le rang d'une famille {v1 , . . . , vp } vaut p si et seulement si la famille {v1 , . . . , vp }
est libre.
Exemple 27. Quel est le rang de la famille {v1 , v2 , v3 } suivante dans l'espace vectoriel
R4 ?      
1 0 −1
     
0 1 1
v1 = 
1
 v2 =  
1 v3 = 
0

     
0 1 1
• Ce sont des vecteurs de R4 donc rg(v1 ,v2 ,v3 ) ≤ 4.
• Mais comme il n'y a que 3 vecteurs alors rg(v1 ,v2 ,v3 ) ≤ 3.
• Le vecteur v1 est non nul donc rg(v1 ,v2 ,v3 ) ≥ 1.
• Il est clair que v1 et v2 sont linéairement indépendants donc rg(v1 ,v2 ,v3 ) ≥
rg(v1 ,v2 ) = 2.
Il reste donc à déterminer si le rang vaut 2 ou 3. On cherche si la famille {v1 , v2 , v3 }
est libre ou liée en résolvant le système linéaire :
λ1 v1 + λ2 v2 + λ3 v3 = 0.

On trouve v1 − v2 + v3 = 0. La famille est donc liée.


Ainsi V ect(v1 ,v2 ,v3 ) = V ect(v1 ,v2 ), donc rg(v1 ,v2 ,v3 ) = dim(V ect(v1 ,v2 ,v3 )) = 2.
Rang d'une matrice : Une matrice peut être vue comme une juxtaposition de vec-
teurs colonnes.
Dénition 22. On dénit le rang d'une matrice comme étant le rang de ses vecteurs
colonnes.

27
Exemple 28. Le rang de la matrice
!
1 2 − 12 0
A= ∈ M2,4 (K)
2 4 −1 0
est par dénition le rang de la famille de vecteurs de K2 :
   
− 12
v1 = ( 12 ) , v2 = ( 24 ) , v3 = −1
, v4 = ( 00 ) .

Tous ces vecteurs sont colinéaires à v1 , donc le rang de la famille {v1 , v2 , v3 , v4 } est 1 et
ainsi rg(A) = 1.

Réciproquement, on se donne une famille de p vecteurs {v1 , . . . , vp } d'un espace


vectoriel E de dimension n. Fixons une base B = {e1 , . . . , en } de E . Chaque vecteur vj
se décompose dans la base B : vj = a1j e1 + · · · + aij ei + · · · + anj en , ce que l'on note vj =
 a1j 
.
 .. 
 aij  . En juxtaposant ces vecteurs colonnes, on obtient une matrice A ∈ Mn,p (K).
 . 
..
anj B
Le rang de la famille {v1 , . . . , vp } est égal au rang de la matrice A.

Théorème 9 (Matrice inversible et rang). Une matrice carrée A de taille n est inver-
sible si et seulement si rg(A) = n.

28
3. Applications linéaires

3.1. Généralités sur les applications linéaires.

Dénition 23. Soient E et F deux K-espaces vectoriels. Une application f de E dans


F est une application linéaire si elle satisfait aux deux conditions suivantes :
(1) f (u + v) = f (u) + f (v), pour tous u, v ∈ E ;
(2) f (λ · u) = λ · f (u), pour tout u ∈ E et tout λ ∈ K.

Notation. L'ensemble des applications linéaires de E dans F est noté L(E,F ).

Exemple 29. Voici d'autres exemples d'applications linéaires :


(1) Pour une matrice xée A ∈ Mm,n (R), l'application f : Rn −→ Rm dénie par
f (X) = AX

est une application linéaire.


(2) L'application nulle, notée 0L(E,F ) :
f : E −→ F f (u) = 0F pour tout u ∈ E.
(3) L'application identité, notée idE :
f : E −→ E f (u) = u pour tout u ∈ E.

Proposition 19. Soient E et F deux K-espaces vectoriels. Si f est une application


linéaire de E dans F , alors :
• f (0E ) = 0F ,
• f (−u) = −f (u), pour tout u ∈ E .

Pour démontrer qu'une application est linéaire, on peut aussi utiliser la caractérisa-
tion suivante :

Proposition 20 (Caractérisation d'une application linéaire). Soient E et F deux K-


espaces vectoriels et f une application de E dans F . L'application f est linéaire si et
seulement si, pour tous vecteurs u et v de E et pour tous scalaires λ et µ de K,
f (λu + µv) = λf (u) + µf (v).

Plus généralement, une application linéaire f préserve les combinaisons linéaires :


pour tous λ1 , . . . , λn ∈ K et tous v1 , . . . , vn ∈ E , on a
f (λ1 v1 + · · · + λn vn ) = λ1 f (v1 ) + · · · + λn f (vn ).

29
Vocabulaire.
Soient E et F deux K-espaces vectoriels.
• Une application linéaire de E dans F est aussi appelée morphisme (ou ho-
momorphisme) d'espaces vectoriels. L'ensemble des applications linéaires de E
dans F est noté L(E,F ).
• Une application linéaire de E dans E est appelée endomorphisme de E . L'en-
semble des endomorphismes de E est noté L(E).
3.2. Image d'une application linéaire. Soient E et F deux ensembles et f une
application de E dans F . Soit A un sous-ensemble de E . L'ensemble des images par
f des éléments de A, appelé image directe de A par f , est noté f (A). C'est un sous-
ensemble de F . On a par dénition :

f (A) = f (x) | x ∈ A .

Dans toute la suite, E et F désigneront des K-espaces vectoriels et f : E → F sera


une application linéaire.
f (E) s'appelle l'image de l'application linéaire f et est noté Im(f ).

Proposition 21 (Structure de l'image d'un sous-espace vectoriel). Soient E et F deux


espaces vectoriels.
(1) Si E 0 est un sous-espace vectoriel de E , alors f (E 0 ) est un sous-espace vectoriel
de F .
(2) En particulier, Im(f ) est un sous-espace vectoriel de F .
Remarque 2. On a par dénition de l'image directe f (E) :
f est surjective si et seulement si Im(f ) = F .

Preuve Tout d'abord, comme 0E ∈ E 0 alors 0F = f (0E ) ∈ f (E 0 ). Ensuite on montre


que pour tout couple (y1 ,y2 ) d'éléments de f (E 0 ) et pour tous scalaires λ, µ, l'élément
λy1 + µy2 appartient à f (E 0 ). En eet :
y1 ∈ f (E 0 ) ⇐⇒ ∃x1 ∈ E 0 , f (x1 ) = y1
y2 ∈ f (E 0 ) ⇐⇒ ∃x2 ∈ E 0 , f (x2 ) = y2 .
Comme f est linéaire, on a
λy1 + µy2 = λf (x1 ) + µf (x2 ) = f (λx1 + µx2 ).

Or λx1 + µx2 est un élément de E 0 , car E 0 est un sous-espace vectoriel de E , donc


λy1 + µy2 est bien un élément de f (E 0 ).

30
3.3. Noyau d'une application linéaire.

Dénition 24 (Dénition du noyau). Soient E et F deux K-espaces vectoriels et f


une application linéaire de E dans F . Le noyau de f , noté Ker(f ), est l'ensemble des
éléments de E dont l'image est 0F :

Ker(f ) = x ∈ E | f (x) = 0F .

Autrement dit, le noyau est l'image réciproque du vecteur nul de l'espace d'arrivée :
Ker(f ) = f −1 {0F }.

Proposition 22. Soient E et F deux K-espaces vectoriels et f une application linéaire


de E dans F . Le noyau de f est un sous-espace vectoriel de E .

Preuve Ker(f ) est non vide car f (0E ) = 0F donc 0E ∈ Ker(f ). Soient x1 , x2 ∈
Ker(f ) et λ, µ ∈ K. Montrons que λx1 +µx2 est un élément de Ker(f ). On a, en utilisant
la linéarité de f et le fait que x1 et x2 sont des éléments de Ker(f ) : f (λx1 + µx2 ) =
λf (x1 ) + µf (x2 ) = λ0F + µ0F = 0F .

Exemple 30. Soit A ∈ Mm,n (R). Soit f : Rn −→ Rm l'application linéaire dénie par
f (X) = AX . Alors Ker(f ) = X ∈ Rn | AX = 0 : c'est donc l'ensemble des X ∈ Rn


solutions du système linéaire homogène AX = 0.

Remarque 3. Le noyau fournit une nouvelle façon d'obtenir des sous-espaces vectoriels.

Théorème 10 (Caractérisation des applications linéaires injectives). Soient E et F


deux K-espaces vectoriels et f une application linéaire de E dans F . Alors :

f injective ⇐⇒ Ker(f ) = 0E

Autrement dit, f est injective si et seulement si son noyau ne contient que le vecteur
nul. En particulier, pour montrer que f est injective, il sut de vérier que : si f (x) = 0F
alors x = 0E .
Preuve
• Supposons que f soit injective et montrons que Ker(f ) = {0E }. Soit x un
élément de Ker(f ). On a f (x) = 0F . Or, comme f est linéaire, on a aussi
f (0E ) = 0F . De l'égalité f (x) = f (0E ), on déduit x = 0E car f est injective.
Donc Ker(f ) = {0E }.
• Réciproquement, supposons maintenant que Ker(f ) = {0E }. Soient x et y deux
éléments de E tels que f (x) = f (y). On a donc f (x) − f (y) = 0F . Comme f

31
est linéaire, on en déduit f (x − y) = 0F , c'est-à-dire x − y est un élément de
Ker(f ). Donc x − y = 0E , soit x = y .

Exemple 31. Considérons, pour n ≥ 1, l'application linéaire


f : Rn [X] −→ Rn+1 [X]
P (X) 7−→ X · P (X).

Étudions d'abord le noyau de f : soit P (X) = an X n + · · · + a1 X + a0 ∈ Rn [X] tel que


X · P (X) = 0. Alors
an X n+1 + · · · + a1 X 2 + a0 X = 0.
Ainsi, ai = 0 pour tout i ∈ {0, . . . , n} et donc P (X) = 0. Le noyau de f est donc nul :
Ker(f ) = {0}.
L'espace Im(f ) est l'ensemble des polynômes de Rn+1 [X] sans terme constant :
Im(f ) = V ect X, X 2 , . . . , X n+1 .


Conclusion : f est injective, mais n'est pas surjective.

Le théorème suivant donne une relation entre la dimension du noyau et la dimension


de l'image de f .

Théorème 11 (Théorème du rang). Soit f : E → F une application linéaire entre


deux K-espaces vectoriels, E étant de dimension nie. Alors
dim(E) = dim(Ker(f )) + dim(Im(f )).

On dénit le rang d'une application linéaire f comme étant la dimension de Im(f ),


d'où le nom du théorème.

3.4. L'espace vectoriel L(E,F ). Soient E et F deux K-espaces vectoriels. Remar-


quons tout d'abord que, l'ensemble des applications de E dans F , noté F(E,F ), peut
être muni d'une loi de composition interne + et d'une loi de composition externe, dé-
nies de la façon suivante : f, g étant deux éléments de F(E,F ), et λ étant un élément
de K, pour tout vecteur u de E ,

(f + g)(u) = f (u) + g(u) et (λ · f )(u) = λf (u).

Proposition 23. L'ensemble des applications linéaires entre deux K-espaces vectoriels
E et F , noté L(E,F ), muni des deux lois dénies précédemment, est un K-espace vec-
toriel.

32
Preuve L'ensemble L(E,F ) est inclus dans le K-espace vectoriel F(E,F ). Pour mon-
trer que L(E,F ) est un K-espace vectoriel, il sut donc de montrer que L(E,F ) est un
sous-espace vectoriel de F(E,F ) :
• Tout d'abord, l'application nulle appartient à L(E,F ).
• Soient f, g ∈ L(E,F ), et montrons que f + g est linéaire. Pour tous vecteurs u
et v de E et pour tous scalaires α, β de K,
(f + g)(αu + βv) = f (αu + βv) + g(αu + βv) (dénition de f + g )
= αf (u) + βf (v) + αg(u) + βg(v) (linéarité de f et de g )
= α (f (u) + g(u)) + β (f (v) + g(v)) (propriétés des lois de F )
= α(f + g)(u) + β(f + g)(v) (dénition de f + g )

f + g est donc linéaire et L(E,F ) est stable pour l'addition.


• Soient f ∈ L(E,F ), λ ∈ K, et montrons que λf est linéaire.
(λf )(αu + βv) = λf (αu + βv) (dénition de λf )
= λ (αf (u) + βf (v)) (linéarité de f )
= αλf (u) + βλf (v) (propriétés des lois de F )
= α(λf )(u) + β(λf )(v) (dénition de λf )

λf est donc linéaire et L(E,F ) est stable pour la loi externe.


L(E,F ) est donc un sous-espace vectoriel de F(E,F ).
En particulier, L(E) est un sous-espace vectoriel de F(E,E).

3.5. Composition et inverse d'applications linéaires.

Proposition 24 (Composée de deux applications linéaires). Soient E, F, G trois K-


espaces vectoriels, f une application linéaire de E dans F et g une application linéaire
de F dans G. Alors g ◦ f est une application linéaire de E dans G.

Remarque 4. En particulier, le composé de deux endomorphismes de E est un endo-


morphisme de E . Autrement dit, ◦ est une loi de composition interne sur L(E).

Preuve Soient u et v deux vecteurs de E , et α et β deux éléments de K. Alors :


(g ◦ f )(αu + βv) = g (f (αu + βv)) (dénition de g ◦ f )
= g (αf (u) + βf (v)) (linéarité de f )
= αg (f (u)) + βg (f (v)) (linéarité de g )
= α(g ◦ f )(u) + β(g ◦ f )(v) (dénition de g ◦ f )

33
Vocabulaire.
Soient E et F deux K-espaces vectoriels.
• Une application linéaire bijective de E sur F est appelée isomorphisme d'es-
paces vectoriels. Les deux espaces vectoriels E et F sont alors dits isomorphes.
• Un endomorphisme bijectif de E (c'est-à-dire une application linéaire bijective
de E dans E ) est appelé automorphisme de E .

Proposition 25 (Linéarité de l'application réciproque d'un isomorphisme). Soient E


et F deux K-espaces vectoriels. Si f est un isomorphisme de E sur F , alors f −1 est un
isomorphisme de F sur E .

Preuve Comme f est une application bijective de E sur F , alors f −1 est une appli-
cation bijective de F sur E . Il reste donc à prouver que f −1 est bien linéaire.
Soient u0 et v 0 deux vecteurs de F et soient α et β deux éléments de K. On pose
f −1 (u0 ) = u et f −1 (v 0 ) = v , et on a alors f (u) = u0 et f (v) = v 0 . Comme f est linéaire,
on a

f −1 (αu0 + βv 0 ) = f −1 (αf (u) + βf (v)) = f −1 (f (αu + βv)) = αu + βv

car f −1 ◦ f = idE (où idE désigne l'application identité de E dans E ). Ainsi

f −1 (αu0 + βv 0 ) = αf −1 (u0 ) + βf −1 (v 0 ),

et f −1 est donc linéaire.

Exemple 32. Soit f : R2 → R2 dénie par f (x,y) = (2x + 3y, x + y). Il est facile de
prouver que f est linéaire. Pour prouver que f est bijective, on pourrait calculer son
noyau et son image. Mais ici nous allons calculer directement son inverse : on cherche
à résoudre f (x,y) = (x0 ,y 0 ). Cela correspond à l'équation (2x + 3y, x + y) = (x0 ,y 0 ) qui
est un système linéaire à deux équations et deux inconnues.
On trouve (x,y) = (−x0 +3y 0 , x0 −2y 0 ). On pose donc f −1 (x0 ,y 0 ) = (−x0 +3y 0 , x0 −2y 0 ).
On vérie aisément que f −1 est l'inverse de f , et on remarque que f −1 est une application
linéaire.

Exemple 33. Plus généralement, soit f : Rn → Rn l'application linéaire dénie par


f (X) = AX (où A est une matrice de Mn (R)). Si la matrice A est inversible, alors f −1
est une application linéaire bijective et est dénie par f −1 (X) = A−1 X .

34
Dans l'exemple précédent,

! ! !
x 2 3 −1 3
X= A= A−1 = .
y 1 1 1 −2

3.6. Matrice d'une application linéaire. Il existe un lien étroit entre les matrices
et les applications linéaires. À une matrice on associe naturellement une application
linéaire. Et réciproquement, étant donné une application linéaire, et des bases pour les
espaces vectoriels de départ et d'arrivée, on associe une matrice.
Dans cette section, tous les espaces vectoriels sont de dimension nie.

3.6.1. Matrice associée à une application linéaire. Soient E et F deux K-espaces vecto-
riels de dimension nie. Soient n la dimension de E et B = (e1 , . . . ,en ) une base de E .
Soient m la dimension de F et B0 = (f1 , . . . ,fm ) une base de F . Soit enn f : E → F
une application linéaire.
Les propriétés des applications linéaires entre deux espaces de dimension nie per-
mettent d'armer que :

• l'application linéaire f est déterminée de façon unique par l'image d'une base
de E , donc par les vecteurs f (e1 ), f (e2 ), . . . , f (en ).
• Pour j ∈ {1, . . . ,n}, f (ej ) est un vecteur de F et s'écrit de manière unique
comme combinaison linéaire des vecteurs de la base B0 = (f1 ,f2 , . . . , fm ) de F .
Il existe donc m scalaires uniques a1j ,a2j , . . . , amj tels que

 
a1j
 a2j 
 
f (ej ) = a1j f1 + a2j f2 + · · · + amj fm =  .   .
 .. 

amj B0

Ainsi, l'application linéaire f est entièrement déterminée par les coecients (aij )(i,j)∈{1,...,m}×{1,...,n} .
Il est donc naturel d'introduire la dénition suivante :

Dénition 25. La matrice de l'application linéaire f par rapport aux bases B et B0 est
la matrice (aij ) ∈ Mm,n (K) dont la j -ème colonne est constituée par les coordonnées

35
du vecteur f (ej ) dans la base B0 = (f1 , f2 , . . . , fm ) :

f (e1 ) . . . f (ej ) . . . f (en )


 
f1 a11 a1j ... a1n
 
f2  a21 a2j ... a2n 
..  . .. .. .. 
 ..
.  . . . 

fm am1 amj ... amn

En termes plus simples : c'est la matrice dont les vecteurs colonnes sont l'image par
f des vecteurs de la base de départ B , exprimée dans la base d'arrivée B 0 . On note cette
matrice MB,B0 (f ).

Remarque 5. On remarque que :


• La taille de la matrice MB,B0 (f ) dépend uniquement de la dimension de E et de
celle de F .
• Par contre, les coecients de la matrice dépendent du choix de la base B de E
et de la base B0 de F .

Exemple 34. Soit f l'application linéaire de R3 dans R2 dénie par


f : R3 −→ R2
(x1 ,x2 ,x3 ) 7−→ (x1 + x2 − x3 , x1 − 2x2 + 3x3 )

Il est utile d'identier vecteurs lignes et vecteurs colonnes ; ainsi f peut être vue
x1

comme l'application f : xx23 7→ xx1 −2x 1 +x2 −x3
.

2 +3x3

Soient B = (e1 ,e2 ,e3 ) la base canonique de R3 et B0 = (f1 ,f2 ) la base canonique de
R2 . C'est-à-dire :
     
1 0 0 ! !
1 0
e1 = 0 e2 = 1 e3 = 0 f1 = f2 =
     
0 1
0 0 1

(1) Quelle est la matrice de f dans les bases B et B0 ?


• On a f (e1 ) = f (1,0,0) = (1,1) = f1 + f2 . La première colonne de la matrice
MB,B0 (f ) est donc ( 11 ).
• De même f (e2 ) = f (0,1,0) = (1, − 2) = f1 − 2f2 . La deuxième colonne de
la matrice MB,B0 (f ) est donc ( −2
1
).
• Enn f (e3 ) = f (0,0,1) = (−1,3) = −f1 + 3f2 . La troisième colonne de la
matrice MB,B0 (f ) est donc ( −1
3 ).

36
Ainsi : !
1 1 −1
MB,B0 (f ) =
1 −2 3
(2) On va maintenant changer la base de l'espace de départ et celle de l'espace
d'arrivée. Soient les vecteurs
     
1 1 0 ! !
1 1
1 = 1 2 = 0 3 = 1 φ1 = φ2 =
     
0 1
0 1 1

On montre facilement que B0 = (1 ,2 ,3 ) est une base de R3 et B00 = (φ1 ,φ2 ) est
une base de R2 .
Quelle est la matrice de f dans les bases B0 et B00 ?
f (1 ) = f (1,1,0) = (2,−1) = 3φ1 −φ2 , f (2 ) = f (1,0,1) = (0,4) = −4φ1 +4φ2 ,
f (3 ) = f (0,1,1) = (0,1) = −φ1 + φ2 , donc
!
3 −4 −1
MB0 ,B00 (f ) = .
−1 4 1
Cet exemple illustre bien le fait que la matrice dépend du choix des bases.

3.6.2. Opérations sur les applications linéaires et les matrices.

Proposition 26. Soient f, g : E → F deux applications linéaires et soient B une base


de E et B0 une base de F . Alors :
• MB,B0 (f + g) = MB,B0 (f ) + MB,B0 (g)
• MB,B0 (λf ) = λMB,B0 (f )

Autrement dit, si on note :

A = MB,B0 (f ), B = MB,B0 (g), C = MB,B0 (f + g), D = MB,B0 (λf ).

Alors :
C =A+B et D = λA.
Autrement dit : la matrice associée à la somme de deux applications linéaires est la
somme des matrices (à condition de considérer la même base sur l'espace de départ
pour les deux applications et la même base sur l'espace d'arrivée). Idem avec le produit
par un scalaire.
Le plus important sera la composition des applications linéaires.

37
Proposition 27. Soient f : E → F et g : F → G deux applications linéaires et soient
B une base de E , B 0 une base de F et B 00 une base de G. Alors :

MB,B00 (g ◦ f ) = MB0 ,B00 (g) × MB,B0 (f )

Autrement dit, si on note :

A = MB,B0 (f ) B = MB0 ,B00 (g) C = MB,B00 (g ◦ f )

Alors
C =B×A

Autrement dit, à condition de bien choisir les bases, la matrice associée à la com-
position de deux applications linéaires est le produit des matrices associées à chacune
d'elles, dans le même ordre.
En fait, le produit de matrices, qui semble compliqué au premier abord, est déni
an de correspondre à la composition des applications linéaires.
Preuve Posons n = dim(E) et B = (e1 , . . . , en ) une base de E ; m = dim(F ) et
B 0 = (f1 , . . . , fm ) une base de F ; q = dim(G) et B 00 = (g1 , . . . , gq ) une base de G.
Écrivons A = MB,B0 (f ) = (aij ) ∈ Mm,n (K) la matrice de f , B = MB0 ,B00 (g) = (bij ) ∈
Mq,m (K) la matrice de g , C = MB,B00 (g ◦ f ) = (cij ) ∈ Mq,n (K) la matrice de g ◦ f .
On a

(g ◦ f )(e1 ) = g f (e1 )
= g(a11 f1 + · · · + am1 fm )

 1 ) + · · · + am1 g(fm )
= a11 g(f  
= a11 b11 g1 + · · · + bq1 gq + · · · + am1 b1m g1 + · · · + bqm gq

Ainsi, la première colonne de C = MB,B00 (g ◦ f ) est


 
a11 b11 + · · · + am1 b1m
 a11 b21 + · · · + am1 b2m
 

 .. .
.
 
 
a11 bq1 + · · · + am1 bqm

Mais ceci est aussi la première colonne de la matrice BA. En faisant la même chose
avec les autres colonnes, on remarque que C = MB,B00 (g ◦ f ) et BA sont deux matrices
ayant leurs colonnes égales. On a donc bien l'égalité cherchée.

38
Exemple 35. On considère deux applications linéaires : f : R2 → R3 et g : R3 → R2 .
On pose E = R2 , F = R3 , G = R2 avec f : E → F , g : F → G. On se donne des bases :
B = (e1 ,e2 ) une base de E , B 0 = (f1 ,f2 ,f3 ) une base de F , et B 00 = (g1 ,g2 ) une base de
G.
On suppose connues les matrices de f et g :
 
1 0 !
2 −1 0
A = MB,B0 (f ) = 1 1 ∈ M3,2 B = MB0 ,B00 (g) = ∈ M2,3
 
3 1 2
0 2

Calculons la matrice associée à g ◦ f : E → G, C = MB,B00 (g ◦ f ), de deux façons


diérentes.
(1) Première méthode. Revenons à la dénition de la matrice de l'application
linéaire g ◦ f . Il s'agit d'exprimer l'image des vecteurs de la base de départ B
dans la base d'arrivée B00 . C'est-à-dire qu'il faut exprimer g ◦ f (ej ) dans la base
(g1 ,g2 ).
• Calcul des f (ej ). On sait par dénition de la matrice A que
  f (e1 ) correspond
1
au premier vecteur colonne : plus précisément, f (e1 ) = 10 0 = 1f1 + 1f2 +
B
0f3 = f1 + f2 .  
0
De même, f (e2 ) = 12 0 = 0f1 + 1f2 + 2f3 = f2 + 2f3 .
B
• Calcul des g(fj ). Par dénition, g(fj ) correspond à la j -ème colonne de la
matrice B : !
2
 g(f1 ) = = 2g1 + 3g2
3 B00
!
−1
 g(f2 ) = = −g1 + g2
1 B00
!
0
 g(f3 ) = = 2g2
2 B00
• Calcul des g ◦ f (ej ). Pour cela on combine les deux séries de calculs précé-
dents :

g ◦ f (e1 ) = g(f1 + f2 ) = g(f1 ) + g(f2 ) = (2g1 + 3g2 ) + (−g1 + g2 ) = g1 + 4g2

g ◦ f (e2 ) = g(f2 + 2f3 ) = g(f2 ) + 2g(f3 ) = (−g1 + g2 ) + 2(2g2 ) = −g1 + 5g2

39
• Calcul de la matrice C = MB,B00 (g ◦ f ) : cette matrice est composée des
vecteurs g ◦ f (ej ) exprimés dans la base B00 . Comme
! !
1 −1
g ◦ f (e1 ) = g1 + 4g2 = g ◦ f (e2 ) = −g1 + 5g2 =
4 B00
5 B00

alors !
1 −1
C=
4 5
On trouve bien une matrice de taille 2 × 2 (car l'espace de départ et d'arrivée
de g ◦ f est R2 ).
(2) Deuxième méthode. Utilisons le produit de matrices : on sait que C = BA.
Donc
 
! 1 0 !
2 −1 0 1 −1
MB,B00 (g ◦ f ) = C = B × A = × 1 1  =
 
3 1 2 4 5
0 2

Cet exemple met bien en évidence le gain, en termes de quantité de calculs, réalisé en
passant par l'intermédiaire des matrices.

3.6.3. Matrice d'un endomorphisme. Dans cette section, on étudie le cas où l'espace de
départ et l'espace d'arrivée sont identiques.

f : E → E est un endomorphisme.

Si dim(E) = n, alors chaque matrice associée à f est une matrice carrée de taille n × n.
Nous avons deux situations :
• Si on choisit la même base B au départ et à l'arrivée, alors on note simplement
MB (f ) la matrice associée à f .
• Mais on peut aussi choisir deux bases distinctes pour le même espace vectoriel
E ; on note alors comme précédemment MB,B0 (f ).

Exemple 36. Comme exemples :


• Cas de l'identité : id : E → E est dénie par id(x) = x. Alors quelle que soit la
base B de E , la matrice associée est la matrice identité : MB (id) = In .
• Cas d'une homothétie hλ : E → E , hλ (x) = λ · x (où λ ∈ K est le rapport de
l'homothétie) : MB (hλ ) = λIn .

40
3.6.4. Matrice d'un isomorphisme. Passons maintenant aux isomorphismes. Rappelons
qu'un isomorphisme f : E → F est une application linéaire bijective. Nous avons vu
que cela entraîne dim(E) = dim(F ).

Théorème 12 (Caractérisation de la matrice d'un isomorphisme). Soient E et F deux


K-espaces vectoriels de même dimension nie. Soit f : E → F une application linéaire.
Soient B une base de E , B0 une base de F et A = MB,B0 (f ).
(1) f est bijective si et seulement si la matrice A est inversible. Autrement dit, f est
un isomorphisme si et seulement si sa matrice associée MB,B0 (f ) est inversible.
(2) De plus, si f : E → F est bijective, alors la matrice de l'application linéaire
  −1
f −1 : F → E est la matrice A−1 . Autrement dit, MB0 ,B (f −1 ) = MB,B0 (f ) .

Voici le cas particulier très important d'un endomorphisme f : E → E où E est muni


de la même base B au départ et à l'arrivée et A = MB (f ).

Corollaire 1. Nous avons :


• f est bijective si et seulement si A est inversible.
• Si f est bijective, alors la matrice associée à f −1 dans la base B est A−1 .
−1
Autrement dit : MB (f −1 ) = MB (f ) .
Preuve On note A = MB,B0 (f ).
• Si f est bijective, notons B = MB0 ,B (f −1 ). Alors par la proposition 27 on sait
que
BA = MB0 ,B (f −1 ) × MB,B0 (f ) = MB,B (f −1 ◦ f ) = MB,B (idE ) = I.

De même AB = I . Ainsi A = MB,B0 (f ) est inversible et son inverse est B =


MB0 ,B (f −1 ).
• Réciproquement, si A = MB,B0 (f ) est une matrice inversible, notons B = A−1 .
Soit g : F → E l'application linéaire telle que B = MB0 ,B (g). Alors, toujours par
la proposition 27
MB,B (g ◦ f ) = MB0 ,B (g) × MB,B0 (f ) = BA = I

Donc la matrice de g ◦ f est l'identité, ce qui implique g ◦ f = idE . De même


f ◦ g = idF . Ainsi f est bijective (et sa bijection réciproque est g ).

41
3.7. Changement de bases.

3.7.1. Application linéaire, matrice, vecteur. Soit E un espace vectoriel de dimension


nie et soit B = (e1 ,e2 , . . . ,en ) une base de E . Pour chaque x ∈ E , il existe un n-uplet
unique d'éléments de K (x1 , x2 , . . . ,xp ) tel que

x = x1 e1 + x2 e2 + · · · + xn en .

La!matrice des coordonnées de x est un vecteur colonne, noté MB (x) ou encore


x1
x2
.. .
.
xn B
x1 !
x2
Dans Rn , si B est la base canonique, alors on note simplement .. en omettant
.
xn
de mentionner la base.
Soient E et F deux K-espaces vectoriels de dimension nie et f : E → F une
application linéaire. Le but de ce paragraphe est de traduire l'égalité vectorielle y = f (x)
par une égalité matricielle.
Soient B une base de E et B0 une base de F .
x1 !
x2
Proposition 28. Soit A = MB,B0 (f ). Pour x ∈ E , notons X = MB (x) = .. . Pour
.
xn B
y1 !
y2
y ∈ F , notons Y = MB0 (y) = .. .
.
ym B0
Alors, si y = f (x), on a
Y = AX

Autrement dit :

MB0 f (x) = MB,B0 (f ) × MB (x)

Preuve
• On pose B = !(e1 , . . . ,en ), B 0 = (f1 , f2 , . . . ,fm ), A = (aij ) = MB,B0 (f ) et X =
x1
x2
MB (x) = .. .
.
xn
• On a
n
! n n m
!
X X X X
f (x) = f xj ej = xj f (ej ) = xj aij fi .
j=1 j=1 j=1 i=1

42
En utilisant la commutativité de K, on a
n
! n
!
X X
f (x) = a1j xj f1 + · · · + amj xj fm .
j=1 j=1

• La matrice colonne des coordonnées de y = f (x) dans la base (f1 , f2 , . . . ,fm ) est
P n 
j=1a1j xj
Pn
j=1 2j xj
a
.. .
 
.

Pn
j=1 amj xj
 Pn 
a1j xj
Pj=1 x1 !
n x2
j=1 a2j xj
• Ainsi la matrice Y = MB0  n'est autre que A ..
 
f (x) =  .. .

. .
Pn xn
j=1 amj xj

Exemple 37. Soient E un K-espace vectoriel de dimension 3 et B = (e1 ,e2 ,e3 ) une
base de E . Soit f l'endomorphisme de E dont la matrice dans la base B est égale à
 
1 2 1
A = MB (f ) = 2 3 1 .
 

1 1 0
On se propose de déterminer le noyau de f et l'image de f .
Les éléments x de E sont des combinaisons linéaires de e1 , e2 et e3 : x = x1 e1 + x2 e2 +
x3 e3 . On a
 
0
  
x ∈ Ker(f ) ⇐⇒ f (x) = 0E ⇐⇒ MB f (x) = 0
0
     
0 x1 0
⇐⇒ AX = 0 ⇐⇒ A x2  = 0
     

0 x3 0

 x1 + 2x2 + x3
 = 0
⇐⇒ 2x1 + 3x2 + x3 = 0

x1 + x2 = 0

On résout ce système par la méthode du pivot de Gauss. On trouve


Ker(f ) = x1 e1 + x2 e2 + x3 e3 ∈ E | x1 + 2x2 + x3 = 0 et x2 + x3 = 0

n t  o  1  
= −t | t ∈ K = V ect −1
t 1 B

Le noyau est donc de dimension 1. Par le théorème du rang, l'image Im(f ) est de di-
mension 2. Les deux premiers vecteurs de la matrice A étant linéairement indépendants,

43
ils engendrent Im(f ) :
    
1 2
Im(f ) = V ect 2 , 3 .
1 B 1 B

3.7.2. Matrice de passage d'une base à une autre. Soit E un espace vectoriel de dimen-
sion nie n. On sait que toutes les bases de E ont n éléments.

Dénition 26. Soit B une base de E . Soit B0 une autre base de E .


On appelle matrice de passage de la base B vers la base B0 , et on note PB,B0 , la
matrice carrée de taille n × n dont la j -ème colonne est formée des coordonnées du
j -ème vecteur de la base B 0 , par rapport à la base B .

Exemple 38. Soit l'espace vectoriel réel R2 . On considère


! ! ! !
1 1 1 5
e1 = e2 = 1 = 2 = .
0 1 2 4

On considère la base B = (e1 ,e2 ) et la base B0 = (1 ,2 ).


Quelle est la matrice de passage de la base B vers la base B0 ?
Il faut exprimer 1 et 2 en fonction de (e1 ,e2 ). On calcule que :
! !
−1 1
1 = −e1 + 2e2 = 2 = e1 + 4e2 =
2 B
4 B

La matrice de passage est donc :


!
−1 1
PB,B0 =
2 4

On va interpréter une matrice de passage comme la matrice associée à l'application


identité de E par rapport à des bases bien choisies.

Proposition 29. La matrice de passage PB,B0 de la base B vers la base B0 est la matrice
associée à l'identité idE : (E, B0 ) → (E,B) où E est l'espace de départ muni de la base
B 0 , et E est aussi l'espace d'arrivée, mais muni de la base B :

PB,B0 = MB0 ,B (idE )

Faites bien attention à l'inversion de l'ordre des bases !


Cette interprétation est un outil fondamental pour ce qui suit. Elle permet d'obtenir
les résultats de façon très élégante et avec un minimum de calculs.

44
Preuve On pose B = (e1 ,e2 , . . . ,en ) et B0 = (e01 ,e02 , . . . ,e0n ). On considère

idE : (E, B 0 ) −→ (E,B)


x 7−→ idE (x) = x

On a idE (e0j ) = e0j = aij ei et MB0 ,B (idE ) est la matrice dont la j -ème colonne est
Pn
i=1
a1j !
a2j
formée des coordonnées de e0j par rapport à B, soit .. . Cette colonne est la j -ème
.
anj
colonne de PB,B0 .

Proposition 30. On a :
(1) La matrice de passage d'une base B vers une base B0 est inversible et son inverse
est égale à la matrice de passage de la base B0 vers la base B :
−1
PB0 ,B = PB,B0

(2) Si B, B0 et B00 sont trois bases, alors

PB,B00 = PB,B0 × PB0 ,B00

Preuve
(1) On a PB,B0 = MB0 ,B idE . Donc, d'après le théorème caractérisant la matrice

−1
d'un isomorphisme, PB,B −1
E . Or idE = idE ,
= MB,B0 id−1 −1

0 = MB0 ,B idE
donc PB,B
−1
= PB0 ,B .

0 = MB,B 0 idE

(2) idE : (E,B00 ) → (E,B) se factorise de la façon suivante :


id id
(E,B 00 ) −→
E
(E,B 0 ) −→
E
(E,B).

Autrement dit, on écrit idE = idE ◦ idE . Cette factorisation permet d'écrire
l'égalité suivante : MB00 ,B idE = MB0 ,B idE × MB00 ,B0 idE , soit PB,B00 = PB,B0 ×
  

PB0 ,B00 .

Exemple 39. Soit E = R3 muni de sa base canonique B. Dénissons


          
1 0 3 1
0 0
B1 = 1 , −1 ,  2  et B2 = −1 , 1 ,  0  .
           

0 0 −1 0 0 −1

Quelle est la matrice de passage de B1 vers B2 ?

45
On a d'abord
   
1 0 3 1 0 0
PB,B1 = 1 −1 2  et PB,B2 = −1 1 0  .
   

0 0 −1 0 0 −1

La proposition implique que PB,B2 = PB,B1 × PB1 ,B2 . Donc on a PB1 ,B2 = PB,B
−1
1
× PB,B2 .
En appliquant la méthode de Gauss pour calculer PB,B1 , on trouve alors :
−1

 −1  
1 0 3 1 0 0
PB1 ,B2 = 1 −1 2  × −1 1 0 
   

0 0 −1 0 0 −1
     
1 0 3 1 0 0 1 0 −3
= 1 −1 1  × −1 1 0  = 2 −1 −1 .
     

0 0 −1 0 0 −1 0 0 1

Nous allons maintenant étudier l'eet d'un changement de bases sur les coordonnées
d'un vecteur.
• Soient B = (e1 , e2 , . . . ,en ) et B 0 = (e01 , e02 , . . . ,e0n ) deux bases d'un même K-espace
vectoriel E .
• Soit PB,B0 la matrice de passage de la base B vers la base B 0 .
• Pour x ∈ E , il se !décompose en x = i=1 xi ei dans la base B et on note
Pn
x1
x2
X = MB (x) = .. .
.
B xn
• Ce même x ∈ E se décompose en x = ni=1 x0i e0i dans la base B 0 et on note
P
x01
 
x02
X 0 = MB0 (x) =  ..  .
.
x0n B0

Proposition 31.
X = PB,B0 × X 0

Notez bien l'ordre !


Preuve PB,B0 est la matrice de idE : (E,B0 ) → (E,B). On utilise que x = idE (x) et
la proposition. On a :

X = MB (x) = MB idE (x) = MB0 ,B (idE ) × MB0 (x) = PB,B0 × X 0




46
3.7.3. Formule de changement de base.
• Soient E et F deux K-espaces vectoriels de dimension nie.
• Soit f : E → F une application linéaire.
• Soient BE , BE0 deux bases de E .
• Soient BF , BF0 deux bases de F .
• Soit P = PBE ,BE0 la matrice de passage de BE à BE0 .
• Soit Q = PBF ,BF0 la matrice de passage de BF à BF0 .
• Soit A = MBE ,BF (f ) la matrice de l'application linéaire f de la base BE vers la
base BF .
• Soit B = MBE0 ,BF0 (f ) la matrice de l'application linéaire f de la base BE0 vers la
base BF0 .

Théorème 13 (Formule de changement de base).


B = Q−1 AP

Preuve L'application f : (E,BE0 ) → (F, BF0 ) se factorise de la façon suivante :


id f id
(E,BE0 ) −→
E F
(E, BE ) −→ (F, BF ) −→ (F, BF0 ),

c'est-à-dire que f = idF ◦ f ◦ idE .


On a donc l'égalité de matrices suivante :
B = MBE0 ,BF0 (f )
= MBF ,BF0 (idF ) × MBE ,BF (f ) × MBE0 ,BE (idE )
= PBF0 ,BF × MBE ,BF (f ) × PBE ,BE0
= Q−1 AP

Dans le cas particulier d'un endomorphisme, nous obtenons une formule plus simple :
• Soit f : E → E une application linéaire.
• Soient B , B 0 deux bases de E .
• Soit P = PB,B0 la matrice de passage de B à B 0 .
• Soit A = MB (f ) la matrice de l'application linéaire f dans la base B .
• Soit B = MB0 (f ) la matrice de l'application linéaire f dans la base B 0 .
Le théorème devient alors :

Corollaire 2.
B = P −1 AP

47
Exemple 40. Reprenons les deux bases de R3 de l'exemple :
           
1 0 3 1 0 0
B1 = 1 , −1 ,  2  et B2 = −1 , 1 ,  0  .
           

0 0 −1 0 0 −1
Soit f : R3 → R3 l'application linéaire dont la matrice dans la base B1 est :

0 −6 1
A = MB1 (f ) = −2 2 −7
 

0 0 3
Que vaut la matrice de f dans la base B2 , B = MB2 (f ) ?
(1) Nous avons calculé la matrice de passage de B1 vers B2 qui est
 
1 0 −3
P = PB1 ,B2 = 2 −1 −1 .
 

0 0 1
 
1 0 3
(2) On calcule aussi P = 2 −1 5 .
−1  

0 0 1
(3) On applique la formule du changement de base du corollaire :

      
1 0 30 −6 1 0 −31 1 0 0
B = P −1 AP = 2 −1 5 × −2 2 −7 × 2 −1 −1 = 0 2 0
       

0 0 1 0 0 3 0 0 1 0 0 3
C'est souvent l'intérêt des changements de base, se ramener à une matrice plus simple.
Par exemple ici, il est facile de calculer les puissances B k , pour en déduire les Ak .

48
4. Diagonalisation, trigonalisation et applications

Soit E un K-espace vectoriel de dimension nie. Un moyen de calculer plus facilement


avec une application linéaire f : E → E est de trouver une base de E dans laquelle la
matrice de f ait une forme simple : diagonale si possible, ou triangulaire. Cela s'appelle
diagonaliser, triangulariser (on dit aussi trigonaliser), ou plus généralement réduire
l'endomorphisme f .

4.1. Matrices semblables.

Dénition 27. Deux matrices carrées A et B à coecients dans K sont dites sem-
blables, s'il existe une matrice inversible P à coecients dans K telle que B = P −1 AP
(ou ce qui revient au même, A = P BP −1 ).

4.2. Diagonalisation.

Dénition 28. On dit qu'une matrice A est diagonalisable lorsqu'il existe une matrice
diagonale D telle que A et D sont semblables.

Exemple 41.
!
−1 2
La matrice A = est diagonalisable. En eet, A est semblable à la matrice
−3 4
! !
1 0 1 2
B= puisque B = P −1 AP où P = .
0 2 1 3

Proposition 32. Soit A ∈ Mn (K), et soit f : Kn → Kn l'application linéaire dénie


par A, c'est-à-dire f (v) = Av .
Alors A est diagonalisable ⇔ il existe une base e1 , e2 , · · · , en de Kn avec la propriété
que f (ei ) = λi ei pour un certain scalaire λi ∈ K. Lorsque c'est le cas, soit P la matrice
dont les colonnes sont les vecteurs ei , on a alors :
 
λ1 0 ··· 0
0 λ2 · · · 0
 
P −1 AP =  . . . ..  .

0 0 .

0 0 · · · λn

Dénition 29. Soit f : E → E une application linéaire. Un vecteur propre de f est


un vecteur v 6= 0 tel que f (v) = λv pour un certain scalaire λ ∈ K. On dit que v et λ
sont associés. Lorsque λ ∈ K est associé à au moins un vecteur propre, on dit que c'est

49
une valeur propre de f . Enn, la valeur propre λ étant xée, l'ensemble des v ∈ E
tels que f (v) = λv est appelé l'espace propre associé à λ. Nous le noterons Eλ .

4.3. Le polynôme caractértique.

Dénition 30. Soit A ∈ Mn (K), et soit f l'application f (v) = Av . Alors, λ est valeur
propre de f ⇔ det(A − λId) = 0.
L'expression det(A − λId) est un polynôme en λ, que l'on appelle le polynôme
caractéristique de A (ou de f ). On le note χA , ou χf .

Exemple 42. Prenons une matrice 2 × 2 :


!
a b
c d
Le polynôme caractéristique est alors
a−λ b
χA = det(A − λId) = = λ2 − tr(A)λ + det(A).
c d−λ

Exemple 43. Prenons maintenant


 
6 2 1
−6 −1 −2
 

0 0 3
Le polynôme caractéristique est alors
6−λ 2 1
χA = det(A − λId) = −6 −1 − λ −2 = (3 − λ)(λ2 − 5λ + 6).
0 0 3−λ
Donc,
χA = −(λ − 3)2 (λ − 2).
Les valeurs propres sont donc 2 et 3, et on dit que 3 a une multiplicité de 2 puisque
le polynôme caractéristique a (λ − 3)2 en facteur.
Examinons les vecteurs propres. Pour trouver ceux associés à la valeur propre 2, on
résout le système Av = 2v . Faitesle calcul,
 vous trouverez un espace de dimension 1,
−1
avec pour base par exemple e1 =  2 . Pour la valeur propre 3, on résout Av = 3v .
 

50
 
0
L'ensemble des solutions est de dimension 2, avec pour base par exemple e2 =  1 
 

−2
 
1
et e3 = −1 Il se trouve que e1 , e2 , e3 est une base de R3 . Nous avons donc une base
 

−1
de vecteurs propres, ce qui signie que A est diagonalisable. Plus précisément, si P est
la matrice dont les colonnes sont e1 , e2 , e3 , on sait sans calcul supplémentaire que :
 
2 0 0
P −1 AP = 0 3 0 .
 

0 0 3
Donnons quelques proriétés générales du polynômes caractéristique.

Proposition 33. Soient A et B des matrices de Mn (K).


(1) Si A et B sont semblables, alors χA = χB .
(2) Si A est diagonalisable, alors son polynôme caractéristique χA est scindé sur K.

Rappelons qu'un polynôme en λ est dit scindé si c'est un produit de facteurs de degré
1, c'est-à-dire s'il est de la forme

c(λ − λ1 )(λ − λ2 ) · · · (λ − λn ).

4.4. Compter les vecteurs propres. Après avoir trouvé des vecteurs propres pour
les diverses valeurs propres, nous devons vérier si l'on peut trouver une base complète,
formée de ces vecteurs propres. Il s'ensuit un travail de vérication, pour savoir si
certaines familles sont libres.

Lemme 2. Soit f : E → E une application linéaire, et soit e1 , e2 , · · · , en une famille de


vecteurs propres de f . On suppose que ei est associé à λi , et que les nombres λ1 , · · · , λn
sont distincts. Alors la famille e1 , e2 , · · · , en est libre.

Proposition 34. Soit A ∈ Mn (K), et soit f l'application linéaire associée. Soient


λ1 , λ2 , · · · , λm les racines distinctes du polynôme caractéristique de A.
Pour chaque λi , soit ni la dimension de l'espace propre associé ker(f − λi Id), et soit
ei1 , ei2 , · · · , eini une base de cet espace. Alors A est diagonalisable si et seulement si
m
X
ni = n
i=1

51
Lorsque c'est le cas, la famille comprenant tous les vecteurs eij est une base de Kn ,
formée de vecteurs propres de f .

4.5. Résumé. Soit A ∈ Mn (K), soit f : Kn → Kn l'application linéaire dénie par


f (v) = Av. Pour tenter de diagonaliser A, on suit les étapes suivantes.
(1) On calcule le polynôme caractéristique χA = det(A − λId), et on trouve ses
racines distinctes λ1 , · · · , λm dans K.
• Si χA n'est pas scindé, alors A n'est pas diagonalisable, et on s'arrête.
• Si χA est scindé, on passe à l'étape suivante. Si n = m, c'est-à-dire si on a
n valeurs propres distinctes, alors on sait déjà que A est diagonalisable.
(2) Pour chaque λi , on calcule une base de ker(f −λi Id). On en déduit sa dimension
ni .
• Si i ni < n, la matrice A n'est pas diagonalisable, et on s'arrête.
P

• Si i ni = n, la matrice est diagonalisable, et on passe à l'étape suivante.


P

(3) Soit ei1 , ei2 , · · · , eini une base de ker(f − λi Id). Alors la réunion de tous ces vec-
teurs est une base de Kn . Soit P la matrice dont les colonnes sont, dans l'ordre :
e11 , · · · , e1n1 , · · · , em1 , · · · , emnm . Alors, P −1 AP est une matrice diagonale, où
λi apparaît ni fois sur sa diagonale.

Exemple 44. Prenons


 
1 −1 3
A = 2 3 2 ,
 

3 1 1
Le calcul du polynôme caractéristique donne :

χA = −λ3 + 5λ2 + 2λ − 24.

Selon la façon de calculer le déterminant, ce polynôme peut vous apparaître factorisé,


ce qui est évidemment une bonne chose pour calculer les racines.

χA = −(λ + 2)(λ2 − 7λ + 12) = −(λ + 2)(λ − 4)(λ − 3).

Les valeurs propres sont −2, 4 et 3. On a trois valeurs propres distinctes, donc la matrice
A est diagonalisable.
Nous allons trouver des vecteurs e1 , e2 et e3 , vecteurs propres associés à −2, 4 et 3
respectivement, ces vecteurs vont former une base de R3 .

52
Soit P la matrice dont les colonnes sont e1 , e2 et e3 . Alors
 
−2 0 0
P −1 AP =  0 4 0 .
 

0 0 3
Pour la valeur propre −2 par exemple, on cherche ker(f + 2Id) ce qui revient à
résoudre : 
 3x − y + 3z = 0

2x + 5y + 2z = 0

3x + y + 3z = 0

En quelques étapes on constate que ce système équivaut aux équations y = 0 et


x + z = 0. En prenant z = 1 par exemple, on obtient

−1
e1 =  0  .
 

1
   
1 −1
De la même manière, on obtient e2 = 12 et e3 =  5  .
   

5 1
4.6. Trigonalisation.
Dénition 31. Une matrice A ∈ Mn (K) est dite trigonalisable si, et seulement si, elle
est semblable à une matrice triangulaire.
Exemple 45.
! ! !
5 −1 3 −1 1 1
Soient A = ,B= , et P = , or B = P −1 AP, la matrice
4 1 0 3 2 3
A est trigonalisable.

Proposition 35. Une matrice A ∈ Mn (K) est trigonalisable dans Mn (K) si, et seule-
ment si, son ploynôme caractéristique χA est scindé sur K.
Remarque 6.
Pratiquement, la trigonalisation, comme la diagonalisation éventuelle, commence par
la recherche des valeurs propres et des sous-espaces propres ; dans ceux qui sont de
dimension égale à la multiplicité de la valeur propre associées, on choisit une base de
vecteurs propres ; dans les autres, une base incomplète de vecteurs propres : on complète
ce système par des vecteurs non propres, souvent des vecteurs de la base canonique.

53
Exemple 46.

Voir TD.

4.7. Applications.

4.7.1. Calcul de la puissance d'une matrice. Soit A ∈ Mn (K), supposons que la matrice
A est diagonalisable, il existe alors une matrice diagonale D et une matrice inversible
P telles que : D = P −1 AP , c'est-à-dire A = P DP −1 . Donc :

Ak = (P DP −1 )(P DP −1 ) · · · (P DP −1 ) = P Dk P −1 .
| {z }
k f ois
   
λ1 0 λk1 0
D'autre part, si D = 
 ...  on a Dk = 
  ...  , et donc Ak se calcule

   
k
0 λn 0 λn
facilement par la formule :
 
λk1 0

Ak = P  ...  −1
P .
 
0 λkn

Exemple 47.
! !
1 −1 2 0
Soit A = , donc χA (λ) = λ2 − 5λ + 6 = (λ − 2)(λ − 3). Alors, D = .
2 4 0 3
Pour les valeurs propres 2 et 3 on trouve :
!
1
• E2 est dénie par −x − y = 0 donc v1 = .
−1
!
1
• E3 est dénie par −2x − y = 0 donc v2 = .
−2
! !
1 1 2 1
Ainsi, P = et P −1 = . En eectuant les calculs, on obtient :
−1 −2 −1 −1
!
2k+1 − 3k 2k − 3k
Ak = .
−2k+1 + 2.3k −2k + 2.3k

54
4.7.2. Résolution d'un système de suites récurrentes.

Exemple 48.

Illustrons cela sur un exemple. Il s'agit de déterminer deux suites (Un )n∈N et (Vn )n∈N
telles que : ( (
Un+1 = Un − Vn U0 = 2
(1) et telles que .
Vn+1 = 2Un + 4Vn V0 = 1
!
Un
On pose Xn = . Le système (1) s'écrit :
Vn
!
1 −1
Xn+1 = AXn avec A = ,
2 4
d'où, par récurrence : !
2
Xn = An X0 avec X0 = .
1
On est ainsi ramené au calcul de An . Dans notre cas, compte tenu du résultat ci-dessus :
! ! ! !
Un 2n+1 − 3n 2n − 3n 2 5.2n − 3n+1
= = ,
Vn −2n+1 + 2.3n −2n + 2.3n 1 −5.2n + 2.3n+1
c'est à dire :
Un = 5.2n − 3n+1
(
.
Vn = −5.2n + 2.3n+1
4.7.3. Système diérentiel linéaire à coecients constants. Soit à résoudre de système
diérentiel suivant :
 dx1
= a11 x1 + . . . + a1n xn
 dt

..

. avec aii ∈ R, xi : R → R dérivables.


 dxn
dt
= an1 x1 + . . . + ann xn
Ce système s'écrit sous forme matricielle comme suite :
 
x1
dX .
= AX, où A = (aii ) et X =  .
dt  . .
xn
Supposons que A est diagonalisable, il existe alors, une matrice diagonale D et une
matrice inversible P telles que : D = P −1 AP. Si A est la matrice d'un endomorphisme

55
f dans la base canonique B , D sa matrice dans la base des vecteurs propores B 0 , X est
la matrice d'un vecteur x dans B et X 0 sa matrice dans B0 , alors on a : X 0 = P −1 X.
En dérivant cette relation, on obtient :
dX 0 dX
= P −1 = P −1 AX = P −1 AP X 0 = DX 0 .
dt dt
Ce système s'intègre facilement, car D est diagonale.
Ainsi, on peut résoudre le système dX
dt
= AX de la manière suivante :
• On diagonalise A si D = P −1 AP est diagonale semblable à A.
• On intègre le système dX 0
dt
= DX 0 .
• On revient à X par X = P X 0 .

Exemple 49.

Soit le système suivant : ( dx


dt
=x−y
.
dy
dt
= 2x + 4y
On a : ! ! !
1 −1 2 0 1 1
A= ,D= et P = .
2 4 0 3 −1 −2
Le système dX 0
dt
= DX 0 s'écrit :
( dx0
dt
= 2x0
,
dy 0
dt
= 3y 0
ce qui donne immédiatement :
( 0
x = c1 e2t
,
y 0 = c2 e3t
et donc, en revenant à X par X = P X 0 :
! ! ! !
x 1 1 c1 e2t c1 e2t + c2 e3t
= = ,
y −1 −2 c2 e3t −c1 e2t − 2c2 e3t
c'est à dire :
= c1 e2t + c2 e3t
(
x
.
y = −c1 e2t − 2c2 e3t

56
Références

[1] Grifone, J. Algèbre linéaire. 4e édition, Cépaduès-éditions (2011).


[2] Escoer, J. P., Toute l'algèbre de la Licence : Cours et exercices corrigés. 4e édition, Dunod (2016).
[3] Bodin, A., Algèbre : Cours de mathématiques - Première année. (2016).

57

Vous aimerez peut-être aussi