SMPC2 - El Mehdi Bouba
SMPC2 - El Mehdi Bouba
SMPC2 - El Mehdi Bouba
Département de Mathématiques
Cours d'Algèbre 2
Filière : SMPC
(Semestre II)
Préface 2
1. Matrices et déterminants 3
1.1. Matrices 3
1.2. Déterminant 17
2. Espaces vectoriels 22
2.1. Généralités sur les espaces vectoriels 22
2.2. Les sous-espaces vectoriels 23
2.3. Bases et dimension d'un espace vectoriel 23
2.4. Somme des sous-espaces vecoriels 26
2.5. Rang d'une matrice 26
3. Applications linéaires 29
3.1. Généralités sur les applications linéaires 29
3.2. Image d'une application linéaire 30
3.3. Noyau d'une application linéaire 31
3.4. L'espace vectoriel L(E,F ) 32
3.5. Composition et inverse d'applications linéaires 33
3.6. Matrice d'une application linéaire 35
3.7. Changement de bases 42
4. Diagonalisation, trigonalisation et applications 49
4.1. Matrices semblables 49
4.2. Diagonalisation 49
4.3. Le polynôme caractértique 50
4.4. Compter les vecteurs propres 51
4.5. Résumé 52
4.6. Trigonalisation 53
4.7. Applications 54
Références 57
1
Préface
Ces notes de cours sont destinées en premier lieu aux étudiants de la faculté pluridis-
ciplinaire de Nador, de la lière SMPC semestre 2. C'est une introduction à la notion
d'espace vectoriel qui est une structure fondamentale des mathématiques modernes.
Il s'agit de dégager les propriétés communes que partagent des ensembles pourtant
très diérents. Par exemple, on peut additionner deux vecteurs du plan, et aussi multi-
plier un vecteur par un réel. Mais on peut aussi additionner deux fonctions, ou multiplier
une fonction par un réel. Même chose avec les polynômes, les matrices,...
Le but est d'obtenir des théorèmes généraux qui s'appliqueront aussi bien aux vec-
teurs du plan, de l'espace, aux espaces de fonctions, aux polynômes, aux matrices, ...
Pour ceux qui s'intéressent ou veulent approfondir l'un ou l'autre des sujets traités,
je recommande les références citées à la n de ce polycopié.
2
1. Matrices et déterminants
3
• Une matrice qui n'a qu'une seule ligne (m = 1) est appelée matrice ligne ou
vecteur ligne. On la note
A = a11 a12 . . . a1n .
• De même, une matrice qui n'a qu'une seule colonne (n = 1) est appelée matrice
colonne. On la note
a11
a21
A= . .
..
am1
• La matrice (de taille m × n) dont tous les coecients sont des zéros est appelée
la matrice nulle et est notée 0m,n ou plus simplement 0. Dans le calcul matriciel,
la matrice nulle joue le rôle du nombre 0 pour les réels.
1.1.3. Addition et multiplication de matrices.
Exemple 2.
! ! !
3 −2 0 5 3 3
Si A= et B= alors A+B = .
1 7 2 −1 3 6
!
−2
Par contre si B0 = alors A + B0 n'est pas dénie.
8
Exemple 3.
! !
1 2 3 2 4 6
Si A= et α=2 alors αA = .
0 1 0 0 2 0
La matrice (−1)A est l'opposée de A et est notée −A. La diérence A − B est dénie
par A + (−B).
4
Exemple 4.
! ! !
2 −1 0 −1 4 2 3 −5 −2
Si A = et B = alors A − B = .
4 −5 2 7 −5 3 −3 0 −1
n
X
cij = aik bkj
k=1
5
Avec cette disposition, on considère d'abord la ligne de la matrice A située à gauche
du coecient que l'on veut calculer (ligne représentée par des × dans A) et aussi la
colonne de la matrice B située au-dessus du coecient que l'on veut calculer (colonne
représentée par des × dans B ). On calcule le produit du premier coecient de la ligne
par le premier coecient de la colonne (ai1 ×b1j ), que l'on ajoute au produit du deuxième
coecient de la ligne par le deuxième coecient de la colonne (ai2 ×b2j ), que l'on ajoute
au produit du troisième . . .
Exemple 5.
! 1 2
1 2 3
A= B = −1 1
2 3 4
1 1
On dispose d'abord le produit correctement (à gauche) : la matrice obtenue est de
taille 2 × 2. Puis on calcule chacun des coecients, en commençant par le premier
coecient c11 = 1 × 1 + 2 × (−1) + 3 × 1 = 2 (au milieu), puis les autres (à droite).
1 2 1 2 1 2
−1 1 −1 1 −1 1
1 1 1 1 1 1
! ! ! ! ! !
1 2 3 c11 c12 1 2 3 2 c12 1 2 3 2 7
2 3 4 c21 c22 2 3 4 c21 c22 2 3 4 3 11
Un exemple intéressant est le produit d'un vecteur ligne par un vecteur colonne :
b1
b2
u = a1 a2 · · · an ..
v=
.
bn
Alors u × v est une matrice de taille 1 × 1 dont l'unique coecient est
a1 b 1 + a2 b 2 + · · · + an b n .
6
Remarques 1. Il faut faire attention aux remarques suivantes :
• Le produit de matrices n'est pas commutatif en général.
• AB = 0 n'implique pas A = 0 ou B = 0.
• AB = AC n'implique pas B = C .
Ses éléments diagonaux sont égaux à 1 et tous ses autres éléments sont égaux à 0.
Elle se note In ou simplement I .
Dans le calcul matriciel, la matrice identité joue un rôle analogue à celui du nombre
1 pour les réels. C'est l'élément neutre pour la multiplication. En d'autres termes :
Im · A = A et A · In = A.
Dénition 6 (Puissance d'une matrice). Pour tout A ∈ Mn (K), on dénit les puis-
sances successives de A par A0 = In et Ap+1 = Ap × A pour tout p ∈ N. Autrement dit,
Ap = A
| ×A× {z· · · × A}.
p facteurs
1 0 1
Exemple 6. On cherche à calculer Ap avec A =
0 −1 0.
0 0 2
On calcule A , A et A et on obtient :
2 3 4
7
1 0 3 1 0 7 1 0 15
A2 = 0 1 0 A3 = A2 × A = 0 −1 0 A4 = A3 × A = 0 1 0 .
0 0 4 0 0 8 0 0 16
L'observation
de ces premières
puissances permet de penser que la formule est :
p
1 0 2 −1
p
A = 0 (−1) p
0 .
0 0 2p
Démontrons ce résultat par récurrence.
Il est vrai pour p = 0 (on trouve l'identité). On le suppose vrai pour un entier p et
on va le démontrer pour p + 1. On a, d'après la dénition,
1 0 2p − 1 1 0 1 1 0 2p+1 − 1
Ap+1 = Ap × A = 0 (−1)p 0 × 0 −1 0 = 0 (−1)p+1 0 .
0 0 2p 0 0 2 0 0 2p+1
Donc la propriété est démontrée.
Dénition 7 (Matrice inverse). Soit A une matrice carrée de taille n × n. S'il existe
une matrice carrée B de taille n × n telle que
AB = In et BA = In ,
8
Sa résolution est immédiate :a = 1, b = − 23 , c = 0, d = 13 . Il n'y a donc qu'une seule
1 −2
matrice possible, à savoir B = 0 13 .
3
Pour prouver qu'elle convient, il faut aussi montrer l'égalité BA = I , dont la!véri-
1 − 23
cation est laissée au lecteur. La matrice A est donc inversible et A −1
= 1
.
0 3
!
a b
Exemple 8. La matrice A = ( 35 00 ) n'est pas inversible. En eet, soit B =
c d
une matrice quelconque. Alors le produit
! ! !
a b 3 0 3a + 5b 0
BA = =
c d 5 0 3c + 5d 0
ne peut jamais être égal à la matrice identité I2 .
Proposition 5. Soit A une matrice inversible. Alors A−1 est aussi inversible et on a :
(A−1 )−1 = A
Nous allons voir une méthode pour calculer l'inverse d'une matrice quelconque de
manière ecace. Cette méthode est une reformulation de la méthode du pivot de Gauss
pour les systèmes linéaires. Auparavant, nous commençons par une formule directe dans
le cas simple des matrices 2 × 2. !
a b
Considérons la matrice 2 × 2 : A = .
c d
9
Méthode de Gauss pour inverser les matrices
La méthode pour inverser une matrice A consiste à faire des opérations élémentaires
sur les lignes de la matrice A jusqu'à la transformer en la matrice identité I . On fait
simultanément les mêmes opérations élémentaires en partant de la matrice I . On aboutit
alors à une matrice qui est A−1 .
En pratique, on fait les deux opérations en même temps en adoptant la disposition
suivante : à côté de la matrice A que l'on veut inverser, on rajoute la matrice identité
pour former un tableau (A | I). Sur les lignes de cette matrice augmentée, on eectue
des opérations élémentaires jusqu'à obtenir le tableau (I | B). Et alors B = A−1 .
Ces opérations élémentaires sur les lignes sont :
(1) Li ← λLi avec λ 6= 0 : on peut multiplier une ligne par un réel non nul (ou un
élément de K \ {0}).
(2) Li ← Li + λLj avec λ ∈ K (et j 6= i) : on peut ajouter à la ligne Li un multiple
d'une autre ligne Lj .
(3) Li ↔ Lj : on peut échanger deux lignes.
1 2 1
Exemple 9. Calculons l'inverse de A =
4 0 −1 .
−1 2 2
Voici la matrice augmentée, avec les lignes numérotées :
1 2 1 1 0 0 L1
(A | I) = 4 0 −1 0 1 0
L2
−1 2 2 0 0 1 L3
On applique la méthode de Gauss pour faire apparaître des 0 sur la première colonne,
d'abord sur la deuxième ligne par l'opération élémentaire L2 ← L2 − 4L1 qui conduit à
la matrice augmentée :
1 2 1 1 0 0
0 −8 −5 −4 1 0
L2 ←L2 −4L1
−1 2 2 0 0 1
Puis un 0 sur la première colonne, à la troisième ligne, avec L3 ← L3 + L1 :
1 2 1 1 0 0
0 −8 −5 −4 1 0
0 4 3 1 0 1 L3 ←L3 +L1
10
On multiplie la ligne L2 an qu'elle commence par 1 :
1 2 1 1 0 0
0 1 85 12 − 18 0
L2 ←− 18 L2
0 4 3 1 0 1
On continue an de faire apparaître des 0 partout sous la diagonale, et on multiplie la
ligne L3 . Ce qui termine la première partie de la méthode de Gauss :
1 2 1 1 0 0
5 1
0 1 − 81 0
8 2
1
0 0 2
−1 12 1 L3 ←L3 −4L2
puis
1 2 1 1 0 0
0 1 58 12 − 81 0
0 0 1 −2 1 2 L3 ←2L3
Il ne reste plus qu'à remonter pour faire apparaître des zéros au-dessus de la
diagonale :
1 2 1 1 0 0
0 1 0 74 − 34 − 54
L2 ←L2 − 85 L3
0 0 1 −2 1 2
puis
1 0 0 − 12 1
2
1
2
L1 ←L1 −2L2 −L3
0 1 0 74 − 43 − 54
0 0 1 −2 1 2
Ainsi l'inverse de A est la matrice obtenue à droite et après avoir factorisé tous les
coecients par 41 , on a obtenu :
−2 2 2
1
A−1 = 7 −3 −5
4
−8 4 8
Pour se rassurer sur ses calculs, on vérie que A × A−1 = I .
11
Matrices et systèmes linéaires
Le système linéaire
a11 x1 + a12 x2 + · · · + a1n xn = b1
a x + a x + ··· + a x = b
21 1 22 2 2n n 2
...
a x + a x + ··· + a x = b
m1 1 m2 2 mn n m
On appelle A ∈ Mm,n (K) la matrice des coecients du système. B ∈ Mm,1 (K) est
le vecteur du second membre. Le vecteur X ∈ Mn,1 (K) est une solution du système si
et seulement si
AX = B.
Théorème 1. Un système d'équations linéaires soit il n'a aucune solution, soit une
seule solution, soit une innité de solutions.
12
Proposition 9. Si la matrice A est inversible, alors la solution du système AX = B
est unique et est :
X = A−1 B.
i < j =⇒ aij = 0.
13
Exemple 10. Deux matrices triangulaires inférieures (à gauche), une matrice trian-
gulaire supérieure (à droite) :
4 0 0 ! 1 −1 1
5 0
0 −1 0 0 −1 −1
1 −2
3 −2 3 0 0 −1
Une matrice qui est triangulaire inférieure et triangulaire supérieure est dite diago-
nale. Autrement dit : i 6= j =⇒ aij = 0.
La transposition
Soit A la matrice de taille m × n
a11 a12 . . . a1n
a21 a22 . . . a2n
..
A= .. .. .
. . .
am1 am2 . . . amn
14
Autrement dit : le coecient à la place (i,j) de t A est aji . Ou encore la i-ème ligne
de A devient la i-ème colonne de t A (et réciproquement la j -ème colonne de t A est la
j -ème ligne de A).
Exemple 13.
1 2 3 −7 1 4
t
4 5 −6 = 2 5 8
−7 8 9 3 −6 9
0 3 ! 1
t 0 1 −1 t
1 −5 = (1 − 2 5) = −2
3 −5 2
−1 2 5
Exemple 14. On a :
• Si A = ( 20 15), alors tr(A)
= 2 + 5 = 7.
1 1 2
• Pour B = 11 5 2 8
0 −10
, tr(B) = 1 + 2 − 10 = −7.
15
Théorème 3. Soient A et B deux matrices n × n. Alors :
(1) tr(A + B) = tr(A) + tr(B),
(2) tr(αA) = α tr(A) pour tout α ∈ K,
(3) tr(t A) = tr(A),
(4) tr(AB) = tr(BA).
Matrices symétriques
Dénition 10. Une matrice A de taille n × n est symétrique si elle est égale à sa
transposée, c'est-à-dire si
A =t A,
ou encore si aij = aji pour tout i, j = 1, . . . , n. Les coecients sont donc symétriques
par rapport à la diagonale.
Matrices antisymétriques
Exemple 17.
! 0 4 2
0 −1
−4 0 −5
1 0
−2 5 0
Remarquons que les éléments diagonaux d'une matrice antisymétrique sont toujours
tous nuls.
16
1.2. Déterminant. Dans cette partie, on cherche à associer à toute matrice carrée
un nombre, son déterminant, qui soit facile à calculer et qui permette de décider si la
matrice est inversible ou non.
Proposition 10. Une matrice carrée est inversible si et seulement si son déterminant
est non-nul.
!
cos(θ) − sin(θ)
Exemple 18. Soit θ un paramètre réel. Quand est-ce que la matrice
sin(θ) cos(θ)
est inversible ? En prenant le déterminant, on obtient cos(θ) + sin(θ) = 1, donc la ma-
2 2
17
Exemple 19. Soit
1 2 3
A = 4 5 6 .
7 8 9
Alors
5 6 1 3 1 2
∆11 = , ∆22 = , ∆23 = .
8 9 7 9 7 8
−3 0 −1
Pour gérer le signe (−1)i+j , le plus simple est de former un tableau :
+ − +
− + − .
+ − +
Pour développer par rapport à la première ligne, disons, on prend les mineurs et les
coecients dans la matrice, les signes dans le tableau, et on ajoute :
0 5 −2 5 −2 0
det1 (A) = +0 × − (−1) × + (−1) ×
0 −1 −3 −1 −3 0
0 + 17 + 0 = 17.
Par rapport à la troisième colonne, on a :
−2 0 0 −1 0 −1
det3 (A) = +(−1) × −5× + (−1) ×
−3 0 −3 0 −2 0
0 − 5 × (−3) − (−2) = 17.
Ce n'est pas un hasard si on trouve le même résultat.
18
Proposition 12. Pour tout i et tout j , on a :
Nous allons maintenant voir une formule pour calculer l'inverse d'une matrice carrée.
Soit A = (aij ) une matrice.
On pose
C = ((−1)i+j ∆ij ).
et on l'appelle la comatrice de A.
−1 2 2
comatrice C s'obtient en calculant 9 déterminants 2 × 2 (sans oublier les signes +/−).
On trouve :
2 −7 8 −2 2 2
1 1
C = −2 3 −4 et donc A−1 = ·t C = 7 −3 −5
det(A) 4
−2 5 −8 −8 4 8
1.2.1. Méthode de Cramer. Le théorème suivant, appelé règle de Cramer, donne une
formule explicite pour la solution de certains systèmes d'équations linéaires ayant autant
d'équations que d'inconnues.
Considérons le système d'équations linéaires à n équations et n inconnues suivant :
a11 x1 + a12 x2 + · · · + a1n xn = b1
a x + a x + ··· + a x = b
21 1 22 2 2n n 2
...
a x + a x + ··· + a x = b
n1 1 n2 2 nn n n
19
Ce système peut aussi s'écrire sous forme matricielle AX = B où
a11 a12 · · · a1n x1 b1
a21 a22 · · · a2n x2 b2
et B =
A= .. .. ..
∈ Mn (K), X= .. ..
.
. . . . .
an1 an2 · · · ann xn bn
Dénissons la matrice Aj ∈ Mn (K) par
a11 . . . a1,j−1 b1 a1,j+1 . . . a1n
a21 . . . a2,j−1 b2 a2,j+1 . . . a2n
Aj = .. .. .. .. ..
. . . . .
an1 . . . an,j−1 bn an,j+1 . . . ann
Autrement dit, Aj est la matrice obtenue en remplaçant la j -ème colonne de A par
le second membre B . La règle de Cramer va nous permettre de calculer la solution du
système dans le cas où det(A) 6= 0 en fonction des déterminants des matrices A et Aj .
On a
1 0 2 6
A = −3 4 6 B = 30
−1 −2 3 8
6 0 2 1 6 2 1 0 6
A1 = 30 4 6 A2 = −3 30 6 A3 = −3 4 30
8 −2 3 −1 8 3 −1 −2 8
et
det(A) = 44 det(A1 ) = −40 det(A2 ) = 72 det(A3 ) = 152.
20
La solution est alors :
det(A1 ) 40 10 det(A2 ) 72 18 det(A3 ) 152 38
x1 = =− =− x2 = = = x3 = = = ·
det(A) 44 11 det(A) 44 11 det(A) 44 11
21
2. Espaces vectoriels
22
2.2. Les sous-espaces vectoriels.
Dénition 14. Soient E un espace vectoriel sur K et F ⊂ E une partie non vide. On
dit que F est un sous-espace vectoriel de E lorsque les deux conditions suivantes sont
remplies : pour u, v ∈ F , on doit avoir u + v ∈ F , et pour λ ∈ K et v ∈ F , on doit avoir
λ.v ∈ F.
2.2.1. Exemples.
• Donnons-nous une matrice A ∈ Mm,n (K) et considérons E = {v ∈ Kn |Av = 0}.
Alors E est un sous-espace de Kn . En eet, si u et v sont dans E , on a :
Au = Av = 0, donc A(u + v) = Au + Av = 0, donc u + v ∈ E. On vérie de
même que A(λv) = λAv = 0 si Av = 0, donc λv ∈ E si v ∈ E.
• On note Kn [X] l'ensemble des polynômes dont le degré est ≤ n. Alors Kn [X]
est un sous-espace vectoriel de l'espace K[X].
• Soit C(I,R) l'ensemble des fonctions continues sur l'intervalle I . On a déja :
C(I,R) ⊂ F(I,R), et c'est un sous-espace vectoriel. On peut remplacer conti-
nue par dérivable.
On peut même considérer
E = {f ∈ F(I,R)| f est dérivable deux fois et 3f 00 − 5f 0 + f = 0}.
23
Lemme 1. L'ensemble V ect(e1 , e2 , . . . en ) est un sous-espace vectoriel de E .
Nous dirons que V ect(e1 , e2 , . . . en ) est l'espace engendré par les vecteurs e1 , e2 , . . . en .
24
(
−5λ1 + 3λ2 = 0
λ1 + 7λ2 = 0
Le déterminant étant −38 6= 0, le système a une solution unique, qui est bien sûr
λ1 = λ2 = 0. Donc la famille est libre.!
−2
Si maintenant on pose e3 = , la famille e1 , e2 , e3 est-elle libre ? Le système
8
devient : (
−5λ1 + 3λ2 − 2λ3 = 0
λ1 + 7λ2 + 8λ3 = 0
En faisant L1 ← L1 + 5L2 , puis en permutant les lignes, on obtient :
(
λ1 + 7λ2 + 8λ3 = 0
38λ2 + 38λ3 = 0
alors λ1 = λ2 = −λ3 . En particulier, on a la solution λ1 = λ2 = 1, λ3 = −1, et d'ailleurs
on vérie eectivement que e1 + e2 − e3 = 0. La famille n'est donc pas libre.
Dénition 18. Lorsqu'une famille est à la fois libre et génératrice, on dit que c'est une
base de l'espace vectoriel considéré.
λ0 e0 + λ1 e1 + λ2 e2 + · · · + λn en = 0 = λ0 + λ1 X + λ2 X 2 + · · · + λn X n ,
Dénition 19. La dimension d'un espace vectoriel est le nombre de vecteurs dans
une base quelconque. La dimension de E est notée dim(E).
25
Théorème 8. (de la base incomplète) Soit E un espace vectoriel de dimension nie.
Toute famille libre C = (u1 , · · · , up ) de vecteurs de E peut être complétée en une base
B = (u1 , · · · , up , · · · , un ) de E .
26
Calculer le rang d'une famille de vecteurs n'est pas toujours évident, cependant il y
a des inégalités qui découlent directement de la dénition.
Proposition 18. Soient E un K-espace vectoriel et {v1 , . . . , vp } une famille de p vec-
teurs de E . Alors :
(1) 0 ≤ rg(v1 , . . . ,vp ) ≤ p : le rang est inférieur ou égal au nombre d'éléments dans
la famille.
(2) Si E est de dimension nie alors rg(v1 , . . . ,vp ) ≤ dim(E) : le rang est inférieur
ou égal à la dimension de l'espace ambiant E .
Remarque 1. Nous avons :
• Le rang d'une famille vaut 0 si et seulement si tous les vecteurs sont nuls.
• Le rang d'une famille {v1 , . . . , vp } vaut p si et seulement si la famille {v1 , . . . , vp }
est libre.
Exemple 27. Quel est le rang de la famille {v1 , v2 , v3 } suivante dans l'espace vectoriel
R4 ?
1 0 −1
0 1 1
v1 =
1
v2 =
1 v3 =
0
0 1 1
• Ce sont des vecteurs de R4 donc rg(v1 ,v2 ,v3 ) ≤ 4.
• Mais comme il n'y a que 3 vecteurs alors rg(v1 ,v2 ,v3 ) ≤ 3.
• Le vecteur v1 est non nul donc rg(v1 ,v2 ,v3 ) ≥ 1.
• Il est clair que v1 et v2 sont linéairement indépendants donc rg(v1 ,v2 ,v3 ) ≥
rg(v1 ,v2 ) = 2.
Il reste donc à déterminer si le rang vaut 2 ou 3. On cherche si la famille {v1 , v2 , v3 }
est libre ou liée en résolvant le système linéaire :
λ1 v1 + λ2 v2 + λ3 v3 = 0.
27
Exemple 28. Le rang de la matrice
!
1 2 − 12 0
A= ∈ M2,4 (K)
2 4 −1 0
est par dénition le rang de la famille de vecteurs de K2 :
− 12
v1 = ( 12 ) , v2 = ( 24 ) , v3 = −1
, v4 = ( 00 ) .
Tous ces vecteurs sont colinéaires à v1 , donc le rang de la famille {v1 , v2 , v3 , v4 } est 1 et
ainsi rg(A) = 1.
Théorème 9 (Matrice inversible et rang). Une matrice carrée A de taille n est inver-
sible si et seulement si rg(A) = n.
28
3. Applications linéaires
Pour démontrer qu'une application est linéaire, on peut aussi utiliser la caractérisa-
tion suivante :
29
Vocabulaire.
Soient E et F deux K-espaces vectoriels.
• Une application linéaire de E dans F est aussi appelée morphisme (ou ho-
momorphisme) d'espaces vectoriels. L'ensemble des applications linéaires de E
dans F est noté L(E,F ).
• Une application linéaire de E dans E est appelée endomorphisme de E . L'en-
semble des endomorphismes de E est noté L(E).
3.2. Image d'une application linéaire. Soient E et F deux ensembles et f une
application de E dans F . Soit A un sous-ensemble de E . L'ensemble des images par
f des éléments de A, appelé image directe de A par f , est noté f (A). C'est un sous-
ensemble de F . On a par dénition :
f (A) = f (x) | x ∈ A .
30
3.3. Noyau d'une application linéaire.
Autrement dit, le noyau est l'image réciproque du vecteur nul de l'espace d'arrivée :
Ker(f ) = f −1 {0F }.
Preuve Ker(f ) est non vide car f (0E ) = 0F donc 0E ∈ Ker(f ). Soient x1 , x2 ∈
Ker(f ) et λ, µ ∈ K. Montrons que λx1 +µx2 est un élément de Ker(f ). On a, en utilisant
la linéarité de f et le fait que x1 et x2 sont des éléments de Ker(f ) : f (λx1 + µx2 ) =
λf (x1 ) + µf (x2 ) = λ0F + µ0F = 0F .
Exemple 30. Soit A ∈ Mm,n (R). Soit f : Rn −→ Rm l'application linéaire dénie par
f (X) = AX . Alors Ker(f ) = X ∈ Rn | AX = 0 : c'est donc l'ensemble des X ∈ Rn
Remarque 3. Le noyau fournit une nouvelle façon d'obtenir des sous-espaces vectoriels.
Autrement dit, f est injective si et seulement si son noyau ne contient que le vecteur
nul. En particulier, pour montrer que f est injective, il sut de vérier que : si f (x) = 0F
alors x = 0E .
Preuve
• Supposons que f soit injective et montrons que Ker(f ) = {0E }. Soit x un
élément de Ker(f ). On a f (x) = 0F . Or, comme f est linéaire, on a aussi
f (0E ) = 0F . De l'égalité f (x) = f (0E ), on déduit x = 0E car f est injective.
Donc Ker(f ) = {0E }.
• Réciproquement, supposons maintenant que Ker(f ) = {0E }. Soient x et y deux
éléments de E tels que f (x) = f (y). On a donc f (x) − f (y) = 0F . Comme f
31
est linéaire, on en déduit f (x − y) = 0F , c'est-à-dire x − y est un élément de
Ker(f ). Donc x − y = 0E , soit x = y .
Proposition 23. L'ensemble des applications linéaires entre deux K-espaces vectoriels
E et F , noté L(E,F ), muni des deux lois dénies précédemment, est un K-espace vec-
toriel.
32
Preuve L'ensemble L(E,F ) est inclus dans le K-espace vectoriel F(E,F ). Pour mon-
trer que L(E,F ) est un K-espace vectoriel, il sut donc de montrer que L(E,F ) est un
sous-espace vectoriel de F(E,F ) :
• Tout d'abord, l'application nulle appartient à L(E,F ).
• Soient f, g ∈ L(E,F ), et montrons que f + g est linéaire. Pour tous vecteurs u
et v de E et pour tous scalaires α, β de K,
(f + g)(αu + βv) = f (αu + βv) + g(αu + βv) (dénition de f + g )
= αf (u) + βf (v) + αg(u) + βg(v) (linéarité de f et de g )
= α (f (u) + g(u)) + β (f (v) + g(v)) (propriétés des lois de F )
= α(f + g)(u) + β(f + g)(v) (dénition de f + g )
33
Vocabulaire.
Soient E et F deux K-espaces vectoriels.
• Une application linéaire bijective de E sur F est appelée isomorphisme d'es-
paces vectoriels. Les deux espaces vectoriels E et F sont alors dits isomorphes.
• Un endomorphisme bijectif de E (c'est-à-dire une application linéaire bijective
de E dans E ) est appelé automorphisme de E .
Preuve Comme f est une application bijective de E sur F , alors f −1 est une appli-
cation bijective de F sur E . Il reste donc à prouver que f −1 est bien linéaire.
Soient u0 et v 0 deux vecteurs de F et soient α et β deux éléments de K. On pose
f −1 (u0 ) = u et f −1 (v 0 ) = v , et on a alors f (u) = u0 et f (v) = v 0 . Comme f est linéaire,
on a
f −1 (αu0 + βv 0 ) = αf −1 (u0 ) + βf −1 (v 0 ),
Exemple 32. Soit f : R2 → R2 dénie par f (x,y) = (2x + 3y, x + y). Il est facile de
prouver que f est linéaire. Pour prouver que f est bijective, on pourrait calculer son
noyau et son image. Mais ici nous allons calculer directement son inverse : on cherche
à résoudre f (x,y) = (x0 ,y 0 ). Cela correspond à l'équation (2x + 3y, x + y) = (x0 ,y 0 ) qui
est un système linéaire à deux équations et deux inconnues.
On trouve (x,y) = (−x0 +3y 0 , x0 −2y 0 ). On pose donc f −1 (x0 ,y 0 ) = (−x0 +3y 0 , x0 −2y 0 ).
On vérie aisément que f −1 est l'inverse de f , et on remarque que f −1 est une application
linéaire.
34
Dans l'exemple précédent,
! ! !
x 2 3 −1 3
X= A= A−1 = .
y 1 1 1 −2
3.6. Matrice d'une application linéaire. Il existe un lien étroit entre les matrices
et les applications linéaires. À une matrice on associe naturellement une application
linéaire. Et réciproquement, étant donné une application linéaire, et des bases pour les
espaces vectoriels de départ et d'arrivée, on associe une matrice.
Dans cette section, tous les espaces vectoriels sont de dimension nie.
3.6.1. Matrice associée à une application linéaire. Soient E et F deux K-espaces vecto-
riels de dimension nie. Soient n la dimension de E et B = (e1 , . . . ,en ) une base de E .
Soient m la dimension de F et B0 = (f1 , . . . ,fm ) une base de F . Soit enn f : E → F
une application linéaire.
Les propriétés des applications linéaires entre deux espaces de dimension nie per-
mettent d'armer que :
• l'application linéaire f est déterminée de façon unique par l'image d'une base
de E , donc par les vecteurs f (e1 ), f (e2 ), . . . , f (en ).
• Pour j ∈ {1, . . . ,n}, f (ej ) est un vecteur de F et s'écrit de manière unique
comme combinaison linéaire des vecteurs de la base B0 = (f1 ,f2 , . . . , fm ) de F .
Il existe donc m scalaires uniques a1j ,a2j , . . . , amj tels que
a1j
a2j
f (ej ) = a1j f1 + a2j f2 + · · · + amj fm = . .
..
amj B0
Ainsi, l'application linéaire f est entièrement déterminée par les coecients (aij )(i,j)∈{1,...,m}×{1,...,n} .
Il est donc naturel d'introduire la dénition suivante :
Dénition 25. La matrice de l'application linéaire f par rapport aux bases B et B0 est
la matrice (aij ) ∈ Mm,n (K) dont la j -ème colonne est constituée par les coordonnées
35
du vecteur f (ej ) dans la base B0 = (f1 , f2 , . . . , fm ) :
En termes plus simples : c'est la matrice dont les vecteurs colonnes sont l'image par
f des vecteurs de la base de départ B , exprimée dans la base d'arrivée B 0 . On note cette
matrice MB,B0 (f ).
Il est utile d'identier vecteurs lignes et vecteurs colonnes ; ainsi f peut être vue
x1
comme l'application f : xx23 7→ xx1 −2x 1 +x2 −x3
.
2 +3x3
Soient B = (e1 ,e2 ,e3 ) la base canonique de R3 et B0 = (f1 ,f2 ) la base canonique de
R2 . C'est-à-dire :
1 0 0 ! !
1 0
e1 = 0 e2 = 1 e3 = 0 f1 = f2 =
0 1
0 0 1
36
Ainsi : !
1 1 −1
MB,B0 (f ) =
1 −2 3
(2) On va maintenant changer la base de l'espace de départ et celle de l'espace
d'arrivée. Soient les vecteurs
1 1 0 ! !
1 1
1 = 1 2 = 0 3 = 1 φ1 = φ2 =
0 1
0 1 1
On montre facilement que B0 = (1 ,2 ,3 ) est une base de R3 et B00 = (φ1 ,φ2 ) est
une base de R2 .
Quelle est la matrice de f dans les bases B0 et B00 ?
f (1 ) = f (1,1,0) = (2,−1) = 3φ1 −φ2 , f (2 ) = f (1,0,1) = (0,4) = −4φ1 +4φ2 ,
f (3 ) = f (0,1,1) = (0,1) = −φ1 + φ2 , donc
!
3 −4 −1
MB0 ,B00 (f ) = .
−1 4 1
Cet exemple illustre bien le fait que la matrice dépend du choix des bases.
Alors :
C =A+B et D = λA.
Autrement dit : la matrice associée à la somme de deux applications linéaires est la
somme des matrices (à condition de considérer la même base sur l'espace de départ
pour les deux applications et la même base sur l'espace d'arrivée). Idem avec le produit
par un scalaire.
Le plus important sera la composition des applications linéaires.
37
Proposition 27. Soient f : E → F et g : F → G deux applications linéaires et soient
B une base de E , B 0 une base de F et B 00 une base de G. Alors :
Alors
C =B×A
Autrement dit, à condition de bien choisir les bases, la matrice associée à la com-
position de deux applications linéaires est le produit des matrices associées à chacune
d'elles, dans le même ordre.
En fait, le produit de matrices, qui semble compliqué au premier abord, est déni
an de correspondre à la composition des applications linéaires.
Preuve Posons n = dim(E) et B = (e1 , . . . , en ) une base de E ; m = dim(F ) et
B 0 = (f1 , . . . , fm ) une base de F ; q = dim(G) et B 00 = (g1 , . . . , gq ) une base de G.
Écrivons A = MB,B0 (f ) = (aij ) ∈ Mm,n (K) la matrice de f , B = MB0 ,B00 (g) = (bij ) ∈
Mq,m (K) la matrice de g , C = MB,B00 (g ◦ f ) = (cij ) ∈ Mq,n (K) la matrice de g ◦ f .
On a
(g ◦ f )(e1 ) = g f (e1 )
= g(a11 f1 + · · · + am1 fm )
1 ) + · · · + am1 g(fm )
= a11 g(f
= a11 b11 g1 + · · · + bq1 gq + · · · + am1 b1m g1 + · · · + bqm gq
Mais ceci est aussi la première colonne de la matrice BA. En faisant la même chose
avec les autres colonnes, on remarque que C = MB,B00 (g ◦ f ) et BA sont deux matrices
ayant leurs colonnes égales. On a donc bien l'égalité cherchée.
38
Exemple 35. On considère deux applications linéaires : f : R2 → R3 et g : R3 → R2 .
On pose E = R2 , F = R3 , G = R2 avec f : E → F , g : F → G. On se donne des bases :
B = (e1 ,e2 ) une base de E , B 0 = (f1 ,f2 ,f3 ) une base de F , et B 00 = (g1 ,g2 ) une base de
G.
On suppose connues les matrices de f et g :
1 0 !
2 −1 0
A = MB,B0 (f ) = 1 1 ∈ M3,2 B = MB0 ,B00 (g) = ∈ M2,3
3 1 2
0 2
39
• Calcul de la matrice C = MB,B00 (g ◦ f ) : cette matrice est composée des
vecteurs g ◦ f (ej ) exprimés dans la base B00 . Comme
! !
1 −1
g ◦ f (e1 ) = g1 + 4g2 = g ◦ f (e2 ) = −g1 + 5g2 =
4 B00
5 B00
alors !
1 −1
C=
4 5
On trouve bien une matrice de taille 2 × 2 (car l'espace de départ et d'arrivée
de g ◦ f est R2 ).
(2) Deuxième méthode. Utilisons le produit de matrices : on sait que C = BA.
Donc
! 1 0 !
2 −1 0 1 −1
MB,B00 (g ◦ f ) = C = B × A = × 1 1 =
3 1 2 4 5
0 2
Cet exemple met bien en évidence le gain, en termes de quantité de calculs, réalisé en
passant par l'intermédiaire des matrices.
3.6.3. Matrice d'un endomorphisme. Dans cette section, on étudie le cas où l'espace de
départ et l'espace d'arrivée sont identiques.
f : E → E est un endomorphisme.
Si dim(E) = n, alors chaque matrice associée à f est une matrice carrée de taille n × n.
Nous avons deux situations :
• Si on choisit la même base B au départ et à l'arrivée, alors on note simplement
MB (f ) la matrice associée à f .
• Mais on peut aussi choisir deux bases distinctes pour le même espace vectoriel
E ; on note alors comme précédemment MB,B0 (f ).
40
3.6.4. Matrice d'un isomorphisme. Passons maintenant aux isomorphismes. Rappelons
qu'un isomorphisme f : E → F est une application linéaire bijective. Nous avons vu
que cela entraîne dim(E) = dim(F ).
41
3.7. Changement de bases.
x = x1 e1 + x2 e2 + · · · + xn en .
Autrement dit :
MB0 f (x) = MB,B0 (f ) × MB (x)
Preuve
• On pose B = !(e1 , . . . ,en ), B 0 = (f1 , f2 , . . . ,fm ), A = (aij ) = MB,B0 (f ) et X =
x1
x2
MB (x) = .. .
.
xn
• On a
n
! n n m
!
X X X X
f (x) = f xj ej = xj f (ej ) = xj aij fi .
j=1 j=1 j=1 i=1
42
En utilisant la commutativité de K, on a
n
! n
!
X X
f (x) = a1j xj f1 + · · · + amj xj fm .
j=1 j=1
• La matrice colonne des coordonnées de y = f (x) dans la base (f1 , f2 , . . . ,fm ) est
P n
j=1a1j xj
Pn
j=1 2j xj
a
.. .
.
Pn
j=1 amj xj
Pn
a1j xj
Pj=1 x1 !
n x2
j=1 a2j xj
• Ainsi la matrice Y = MB0 n'est autre que A ..
f (x) = .. .
. .
Pn xn
j=1 amj xj
Exemple 37. Soient E un K-espace vectoriel de dimension 3 et B = (e1 ,e2 ,e3 ) une
base de E . Soit f l'endomorphisme de E dont la matrice dans la base B est égale à
1 2 1
A = MB (f ) = 2 3 1 .
1 1 0
On se propose de déterminer le noyau de f et l'image de f .
Les éléments x de E sont des combinaisons linéaires de e1 , e2 et e3 : x = x1 e1 + x2 e2 +
x3 e3 . On a
0
x ∈ Ker(f ) ⇐⇒ f (x) = 0E ⇐⇒ MB f (x) = 0
0
0 x1 0
⇐⇒ AX = 0 ⇐⇒ A x2 = 0
0 x3 0
x1 + 2x2 + x3
= 0
⇐⇒ 2x1 + 3x2 + x3 = 0
x1 + x2 = 0
Le noyau est donc de dimension 1. Par le théorème du rang, l'image Im(f ) est de di-
mension 2. Les deux premiers vecteurs de la matrice A étant linéairement indépendants,
43
ils engendrent Im(f ) :
1 2
Im(f ) = V ect 2 , 3 .
1 B 1 B
3.7.2. Matrice de passage d'une base à une autre. Soit E un espace vectoriel de dimen-
sion nie n. On sait que toutes les bases de E ont n éléments.
Proposition 29. La matrice de passage PB,B0 de la base B vers la base B0 est la matrice
associée à l'identité idE : (E, B0 ) → (E,B) où E est l'espace de départ muni de la base
B 0 , et E est aussi l'espace d'arrivée, mais muni de la base B :
44
Preuve On pose B = (e1 ,e2 , . . . ,en ) et B0 = (e01 ,e02 , . . . ,e0n ). On considère
On a idE (e0j ) = e0j = aij ei et MB0 ,B (idE ) est la matrice dont la j -ème colonne est
Pn
i=1
a1j !
a2j
formée des coordonnées de e0j par rapport à B, soit .. . Cette colonne est la j -ème
.
anj
colonne de PB,B0 .
Proposition 30. On a :
(1) La matrice de passage d'une base B vers une base B0 est inversible et son inverse
est égale à la matrice de passage de la base B0 vers la base B :
−1
PB0 ,B = PB,B0
Preuve
(1) On a PB,B0 = MB0 ,B idE . Donc, d'après le théorème caractérisant la matrice
−1
d'un isomorphisme, PB,B −1
E . Or idE = idE ,
= MB,B0 id−1 −1
0 = MB0 ,B idE
donc PB,B
−1
= PB0 ,B .
0 = MB,B 0 idE
Autrement dit, on écrit idE = idE ◦ idE . Cette factorisation permet d'écrire
l'égalité suivante : MB00 ,B idE = MB0 ,B idE × MB00 ,B0 idE , soit PB,B00 = PB,B0 ×
PB0 ,B00 .
0 0 −1 0 0 −1
45
On a d'abord
1 0 3 1 0 0
PB,B1 = 1 −1 2 et PB,B2 = −1 1 0 .
0 0 −1 0 0 −1
La proposition implique que PB,B2 = PB,B1 × PB1 ,B2 . Donc on a PB1 ,B2 = PB,B
−1
1
× PB,B2 .
En appliquant la méthode de Gauss pour calculer PB,B1 , on trouve alors :
−1
−1
1 0 3 1 0 0
PB1 ,B2 = 1 −1 2 × −1 1 0
0 0 −1 0 0 −1
1 0 3 1 0 0 1 0 −3
= 1 −1 1 × −1 1 0 = 2 −1 −1 .
0 0 −1 0 0 −1 0 0 1
Nous allons maintenant étudier l'eet d'un changement de bases sur les coordonnées
d'un vecteur.
• Soient B = (e1 , e2 , . . . ,en ) et B 0 = (e01 , e02 , . . . ,e0n ) deux bases d'un même K-espace
vectoriel E .
• Soit PB,B0 la matrice de passage de la base B vers la base B 0 .
• Pour x ∈ E , il se !décompose en x = i=1 xi ei dans la base B et on note
Pn
x1
x2
X = MB (x) = .. .
.
B xn
• Ce même x ∈ E se décompose en x = ni=1 x0i e0i dans la base B 0 et on note
P
x01
x02
X 0 = MB0 (x) = .. .
.
x0n B0
Proposition 31.
X = PB,B0 × X 0
46
3.7.3. Formule de changement de base.
• Soient E et F deux K-espaces vectoriels de dimension nie.
• Soit f : E → F une application linéaire.
• Soient BE , BE0 deux bases de E .
• Soient BF , BF0 deux bases de F .
• Soit P = PBE ,BE0 la matrice de passage de BE à BE0 .
• Soit Q = PBF ,BF0 la matrice de passage de BF à BF0 .
• Soit A = MBE ,BF (f ) la matrice de l'application linéaire f de la base BE vers la
base BF .
• Soit B = MBE0 ,BF0 (f ) la matrice de l'application linéaire f de la base BE0 vers la
base BF0 .
Dans le cas particulier d'un endomorphisme, nous obtenons une formule plus simple :
• Soit f : E → E une application linéaire.
• Soient B , B 0 deux bases de E .
• Soit P = PB,B0 la matrice de passage de B à B 0 .
• Soit A = MB (f ) la matrice de l'application linéaire f dans la base B .
• Soit B = MB0 (f ) la matrice de l'application linéaire f dans la base B 0 .
Le théorème devient alors :
Corollaire 2.
B = P −1 AP
47
Exemple 40. Reprenons les deux bases de R3 de l'exemple :
1 0 3 1 0 0
B1 = 1 , −1 , 2 et B2 = −1 , 1 , 0 .
0 0 −1 0 0 −1
Soit f : R3 → R3 l'application linéaire dont la matrice dans la base B1 est :
0 −6 1
A = MB1 (f ) = −2 2 −7
0 0 3
Que vaut la matrice de f dans la base B2 , B = MB2 (f ) ?
(1) Nous avons calculé la matrice de passage de B1 vers B2 qui est
1 0 −3
P = PB1 ,B2 = 2 −1 −1 .
0 0 1
1 0 3
(2) On calcule aussi P = 2 −1 5 .
−1
0 0 1
(3) On applique la formule du changement de base du corollaire :
1 0 30 −6 1 0 −31 1 0 0
B = P −1 AP = 2 −1 5 × −2 2 −7 × 2 −1 −1 = 0 2 0
0 0 1 0 0 3 0 0 1 0 0 3
C'est souvent l'intérêt des changements de base, se ramener à une matrice plus simple.
Par exemple ici, il est facile de calculer les puissances B k , pour en déduire les Ak .
48
4. Diagonalisation, trigonalisation et applications
Dénition 27. Deux matrices carrées A et B à coecients dans K sont dites sem-
blables, s'il existe une matrice inversible P à coecients dans K telle que B = P −1 AP
(ou ce qui revient au même, A = P BP −1 ).
4.2. Diagonalisation.
Dénition 28. On dit qu'une matrice A est diagonalisable lorsqu'il existe une matrice
diagonale D telle que A et D sont semblables.
Exemple 41.
!
−1 2
La matrice A = est diagonalisable. En eet, A est semblable à la matrice
−3 4
! !
1 0 1 2
B= puisque B = P −1 AP où P = .
0 2 1 3
0 0 · · · λn
49
une valeur propre de f . Enn, la valeur propre λ étant xée, l'ensemble des v ∈ E
tels que f (v) = λv est appelé l'espace propre associé à λ. Nous le noterons Eλ .
Dénition 30. Soit A ∈ Mn (K), et soit f l'application f (v) = Av . Alors, λ est valeur
propre de f ⇔ det(A − λId) = 0.
L'expression det(A − λId) est un polynôme en λ, que l'on appelle le polynôme
caractéristique de A (ou de f ). On le note χA , ou χf .
0 0 3
Le polynôme caractéristique est alors
6−λ 2 1
χA = det(A − λId) = −6 −1 − λ −2 = (3 − λ)(λ2 − 5λ + 6).
0 0 3−λ
Donc,
χA = −(λ − 3)2 (λ − 2).
Les valeurs propres sont donc 2 et 3, et on dit que 3 a une multiplicité de 2 puisque
le polynôme caractéristique a (λ − 3)2 en facteur.
Examinons les vecteurs propres. Pour trouver ceux associés à la valeur propre 2, on
résout le système Av = 2v . Faitesle calcul,
vous trouverez un espace de dimension 1,
−1
avec pour base par exemple e1 = 2 . Pour la valeur propre 3, on résout Av = 3v .
50
0
L'ensemble des solutions est de dimension 2, avec pour base par exemple e2 = 1
−2
1
et e3 = −1 Il se trouve que e1 , e2 , e3 est une base de R3 . Nous avons donc une base
−1
de vecteurs propres, ce qui signie que A est diagonalisable. Plus précisément, si P est
la matrice dont les colonnes sont e1 , e2 , e3 , on sait sans calcul supplémentaire que :
2 0 0
P −1 AP = 0 3 0 .
0 0 3
Donnons quelques proriétés générales du polynômes caractéristique.
Rappelons qu'un polynôme en λ est dit scindé si c'est un produit de facteurs de degré
1, c'est-à-dire s'il est de la forme
c(λ − λ1 )(λ − λ2 ) · · · (λ − λn ).
4.4. Compter les vecteurs propres. Après avoir trouvé des vecteurs propres pour
les diverses valeurs propres, nous devons vérier si l'on peut trouver une base complète,
formée de ces vecteurs propres. Il s'ensuit un travail de vérication, pour savoir si
certaines familles sont libres.
51
Lorsque c'est le cas, la famille comprenant tous les vecteurs eij est une base de Kn ,
formée de vecteurs propres de f .
(3) Soit ei1 , ei2 , · · · , eini une base de ker(f − λi Id). Alors la réunion de tous ces vec-
teurs est une base de Kn . Soit P la matrice dont les colonnes sont, dans l'ordre :
e11 , · · · , e1n1 , · · · , em1 , · · · , emnm . Alors, P −1 AP est une matrice diagonale, où
λi apparaît ni fois sur sa diagonale.
3 1 1
Le calcul du polynôme caractéristique donne :
Les valeurs propres sont −2, 4 et 3. On a trois valeurs propres distinctes, donc la matrice
A est diagonalisable.
Nous allons trouver des vecteurs e1 , e2 et e3 , vecteurs propres associés à −2, 4 et 3
respectivement, ces vecteurs vont former une base de R3 .
52
Soit P la matrice dont les colonnes sont e1 , e2 et e3 . Alors
−2 0 0
P −1 AP = 0 4 0 .
0 0 3
Pour la valeur propre −2 par exemple, on cherche ker(f + 2Id) ce qui revient à
résoudre :
3x − y + 3z = 0
2x + 5y + 2z = 0
3x + y + 3z = 0
1
1 −1
De la même manière, on obtient e2 = 12 et e3 = 5 .
5 1
4.6. Trigonalisation.
Dénition 31. Une matrice A ∈ Mn (K) est dite trigonalisable si, et seulement si, elle
est semblable à une matrice triangulaire.
Exemple 45.
! ! !
5 −1 3 −1 1 1
Soient A = ,B= , et P = , or B = P −1 AP, la matrice
4 1 0 3 2 3
A est trigonalisable.
Proposition 35. Une matrice A ∈ Mn (K) est trigonalisable dans Mn (K) si, et seule-
ment si, son ploynôme caractéristique χA est scindé sur K.
Remarque 6.
Pratiquement, la trigonalisation, comme la diagonalisation éventuelle, commence par
la recherche des valeurs propres et des sous-espaces propres ; dans ceux qui sont de
dimension égale à la multiplicité de la valeur propre associées, on choisit une base de
vecteurs propres ; dans les autres, une base incomplète de vecteurs propres : on complète
ce système par des vecteurs non propres, souvent des vecteurs de la base canonique.
53
Exemple 46.
Voir TD.
4.7. Applications.
4.7.1. Calcul de la puissance d'une matrice. Soit A ∈ Mn (K), supposons que la matrice
A est diagonalisable, il existe alors une matrice diagonale D et une matrice inversible
P telles que : D = P −1 AP , c'est-à-dire A = P DP −1 . Donc :
Ak = (P DP −1 )(P DP −1 ) · · · (P DP −1 ) = P Dk P −1 .
| {z }
k f ois
λ1 0 λk1 0
D'autre part, si D =
... on a Dk =
... , et donc Ak se calcule
k
0 λn 0 λn
facilement par la formule :
λk1 0
Ak = P ... −1
P .
0 λkn
Exemple 47.
! !
1 −1 2 0
Soit A = , donc χA (λ) = λ2 − 5λ + 6 = (λ − 2)(λ − 3). Alors, D = .
2 4 0 3
Pour les valeurs propres 2 et 3 on trouve :
!
1
• E2 est dénie par −x − y = 0 donc v1 = .
−1
!
1
• E3 est dénie par −2x − y = 0 donc v2 = .
−2
! !
1 1 2 1
Ainsi, P = et P −1 = . En eectuant les calculs, on obtient :
−1 −2 −1 −1
!
2k+1 − 3k 2k − 3k
Ak = .
−2k+1 + 2.3k −2k + 2.3k
54
4.7.2. Résolution d'un système de suites récurrentes.
Exemple 48.
Illustrons cela sur un exemple. Il s'agit de déterminer deux suites (Un )n∈N et (Vn )n∈N
telles que : ( (
Un+1 = Un − Vn U0 = 2
(1) et telles que .
Vn+1 = 2Un + 4Vn V0 = 1
!
Un
On pose Xn = . Le système (1) s'écrit :
Vn
!
1 −1
Xn+1 = AXn avec A = ,
2 4
d'où, par récurrence : !
2
Xn = An X0 avec X0 = .
1
On est ainsi ramené au calcul de An . Dans notre cas, compte tenu du résultat ci-dessus :
! ! ! !
Un 2n+1 − 3n 2n − 3n 2 5.2n − 3n+1
= = ,
Vn −2n+1 + 2.3n −2n + 2.3n 1 −5.2n + 2.3n+1
c'est à dire :
Un = 5.2n − 3n+1
(
.
Vn = −5.2n + 2.3n+1
4.7.3. Système diérentiel linéaire à coecients constants. Soit à résoudre de système
diérentiel suivant :
dx1
= a11 x1 + . . . + a1n xn
dt
..
. avec aii ∈ R, xi : R → R dérivables.
dxn
dt
= an1 x1 + . . . + ann xn
Ce système s'écrit sous forme matricielle comme suite :
x1
dX .
= AX, où A = (aii ) et X = .
dt . .
xn
Supposons que A est diagonalisable, il existe alors, une matrice diagonale D et une
matrice inversible P telles que : D = P −1 AP. Si A est la matrice d'un endomorphisme
55
f dans la base canonique B , D sa matrice dans la base des vecteurs propores B 0 , X est
la matrice d'un vecteur x dans B et X 0 sa matrice dans B0 , alors on a : X 0 = P −1 X.
En dérivant cette relation, on obtient :
dX 0 dX
= P −1 = P −1 AX = P −1 AP X 0 = DX 0 .
dt dt
Ce système s'intègre facilement, car D est diagonale.
Ainsi, on peut résoudre le système dX
dt
= AX de la manière suivante :
• On diagonalise A si D = P −1 AP est diagonale semblable à A.
• On intègre le système dX 0
dt
= DX 0 .
• On revient à X par X = P X 0 .
Exemple 49.
56
Références
57