Applin Matrices
Applin Matrices
Applin Matrices
1 Généralités
1.1 Matrices d’une application linéaire
Dans toute cette section, E et F sont deux K−ev de dimension finie. Soit BE = (e~1 , ...., e~p ) une base de E,
et BF = (~
1 , ...., ~n ) une base de F ..
Définition
Soit f ∈ L (E, F ). On appelle matrice de f dans les bases BE et BF la matrice de Mn,p (K) notée M atBF ,BE (f )
f (e1 ) f (e2 ) · · · f (ep )
a
11 a12 ··· a1p 1
a21 a22 ··· a2p 2 Pn
définie par M atBF ,BE (f ) = . .. .. .. ..
où l’on a posé pour tout j ∈ [[1, p]], f (e~j ) = aij i .
.. . . . . i=1
an1 an2 ··· anp n
Exemples :
1. Soit f : R3 → R2 définie par ∀(x, y, z) ∈ R3 , f ((x, y, z)) = (2x + z, x − y).
Déterminer la matrice de f dans les bases canoniques de R3 et R2 .
2. Soit f : Rn [X] → Rn [X] Déterminer la matrice de f dans la bases canonique de Rn [X]
P 7→ P 0
3. soit E un espace vectoriel de dimension n, et B = (e~1 , ..., e~n ) une base de E.
Déterminer la matrice de l’application idE dans la base B.
Comme deux applications linéaires sont égales ssi elles ont même image d’une base, on obtient :
Proposition
Deux applications linéaires de E dans F sont égales ssi elles ont même matrice dans les bases BE et BF .
Réciproquement,
si on fixe deux espaces vectoriels E et F , de dimension finie p et n et munis d’une base, toute matrice de Mn,p (K)
peut être vue comme la matrice d’une application linéaire de E dans F dans ces bases.
1
1 0 0
Exemple : Soit la matrice A = 1 1 1, et soit f : R2 [X] → R3 l’application linéaire, dont la matrice dans
0 1 0
les bases canoniques est A. Déterminer pour tout P ∈ R2 [X], f (P ).
Définition
Soit A ∈ Mn,p (K) : on appelle application linéaire canoniquement associée à A l’application : Kp → Kn définie
par A dans les bases canoniques.
1 0
Exemple :L’application linéaire canoniquement associée à A = 2 1 est l’application f ∈ L (R2 , R3 ) définie
0 −1
par f ((1, 0)) = (1, 2, 0) et f ((0, 1)) = (0, 1, −1) càd telle que ∀(x, y) ∈ R2 , f (x, y) = (x, 2x + y, −y).
On en déduit :
Théorème
Les espaces L (E, F ) et Mn,p sont isomorphes.
En particulier la dimension de L (E, F ) est n × p = dim(E) × dim(F ).
2
Exemple : Soit
R 2 [X] muni de sa canonique. Alors le polynôme P (X) = X − 3 a pour matrice de
base
−3 0
coordonnées 0 et la matrice 1 définit le polynôme Q(X) = X − X 2 .
1 −1
Démonstration
Vient de la définition du produit matriciel (en fait à l’origine, les matrices ont été introduites à partir des ap-
plications linéaires ! donc c’est ”fait pour çà”)
Ecrire ~x = x1 e~1 + ... + xn e~n . Alors f (~x) = x1 f (e~1 ) +
... +xn f (e~n ).
x1
Chaque f (~ei ) représente une colonne de M , et X = ... .
xn
1 2 1
Exemple : Soit A = 0 0 1 et f l’endomorphisme de R3 canoniquement associé à A.
1 2 1
x x + 2y + z
Alors pour tout (x, y, z) ∈ R3 , A y = z
z x + 2y + z
3
donc pour tout (x, y, z) ∈ R , f ((x, y, z)) = (x + 2y + z, z, x + 2y + z).
2
Remarque
L’écriture matricielle permet de gagner en concision dans la rédaction. Par exemple, pour la détermination du
noyau, il suffit de résoudre le système M X = 0...
Démonstration
introduire x, y = f (x), z = g(y) = g ◦ f (x), A, B, X et Y .
D’après la section précédente on sait que y = f (x) ⇔ Y = AX, z = g(y) = g ◦ f (x) ⇔ Z = BY = BAX
Vrai pour tout ~x donc pour tout X.
Remarque : le produit matriciel a justement été défini pour que cette relation soit vraie ...
2 0
0 0 1
Exemple : Soit A = 1 1 et B =
, f : R2 → R3 et g : R3 → R2 les applications linéaires
2 1 −1
−1 2
canoniquement associées à ces matrices. Donner la matrice de f ◦g et g◦f ainsi que leurs expressions analytiques.
Remarque
1. Dans le chapitre ”Ev de dimension finie”, on a vu qu’une application linéaire ne pouvait être un isomor-
phisme que si E et F étaient de même dimension.
2. Dans le chapitre ”Matrices”, on a défini le caractère inversible que pour des matrices carrées : or il faut
dim(F ) = dim(E) pour que la matrice d’une application linéaire de E dans F soit carrée ...
Tout se tient !
Démonstration
Posons n = dim(E) = dim(F ), alors M = M atBF ,BE (f ) ∈ Mn (K) (matrice carrée de taille n).
Si f est un isomorphisme, alors f −1 : F → E existe et f −1 ◦ f = idE et f ◦ f −1 = idF .
Posons N = M atBE ,BF (f −1 ) ; d’après les résultats de la section précédente, on sait que la matrice associée à
f −1 ◦ f est N M , celle associée à f ◦ f −1 est M N , et que de plus celle associée à l’identité de E ou de F est In .
On a donc trouvé une matrice N ∈ Mn (K) telle que N M = In = M N . Donc M est inversible d’inverse
M −1 = N et f −1 a pour matrice associée M −1 .
Réciproquement, si M est inversible, alors il existe une matrice M −1 telle que M M −1 = In = M −1 M . En
posant g l’application linéaire F → E associée à M −1 , on peut vérifier que g ◦ f = idE et f ◦ g = idF . Autrement
dit f est un isomorphisme, et la matrice associée à g = f −1 est M −1 .
3
L’énoncé devient un peu plus simple dans le cas des endomorphismes :
Proposition
Soit E un K − ev de dimension finie, f ∈ L (E), et M sa matrice associée dans une base de E. Alors
f est un automorphisme de E (f ∈ GL(E)) ssi M est inversible (M ∈ GLn (K)).
Le cas échéant, la matrice, dans la base BE de l’automorphisme réciproque f −1 est M −1 , l’inverse de M .
Remarque Comme E est de dimension finie : f bijectif ssi f injectif ssi Kerf = {0}.
On retrouve le résultat du chapitre Matrices (−→ point méthode) :
M est inversible ssi l’équation M X = 0 a pour unique solution X = 0.
Démonstration
Introduire une base de E : (~e1 , ..., e~p ).
Alors on sait que rg(f ) = dim(Imf ) = dim(V ect(f (e~1 ), ...., f (e~p )) = dim(V ect(~c1 , ..., c~p )) = rg(A).
Car justement, A étant la matrice associée de f , ses vecteurs colonnes sont les images des vecteurs de la base
choisie de E.
Remarque : On en déduit
1. Si A ∈ Mn,p (K) alors rg(A) ≤min(n, p) (cf cours rg(f ))
2. Une matrice M ∈ Mn (K) est inversible ssi son rang est rg(M ) = n.
(En effet si f est l’endomorphisme canoniquement associé à M , alors M est inversible ssi f est bijectif ssi
f est surjectif (dimension finie) ssi rg(f ) = n ssi rg(M ) = n).
Théorème admis
Soit A ∈ Mn,p (K). Alors A et t A ont même rang.
Proposition
Soit E de dimension finie, BE une base de E, et f, g ∈ L (E).
Alors f et g commutent ssi M atBE (f ) et M atBE (g) commutent.
4
Démonstration
Il suffit d’utiliser que la matrice dans BE de f ◦ g est M atBE (f ) × M atBE (g) et celle de g ◦ f est
M atBE (g) × M atBE (f ).
Rappel :
Soit f ∈ L (E). On appelle itérée nie de f l’application notée f n et définie par f n = f ◦ ... ◦ f n fois.
Alors f n ∈ L (E).
Proposition
Soit f ∈ L (E) de matrice associée M . Alors l’endomorphisme f n a pour matrice associée M n .
Définition
On dit que P est un polynôme annulateur de M si P (M ) = 0Mn (K) .
On dit que P est un polynôme annulateur de f si P (f ) = 0L (E) .
Remarque
On a déjà manipulé des polynômes annulateurs de matrices ... sans le dire ! Cf chapitre matrices et feuille d’exer-
cices 11. Ici, on rajoute le vocabulaire, ainsi que les polynômes d’endomorphismes.
5
Retour chapitre matrices : utilisation des polynômes annulateurs pour étudier l’inversibilité des matrices
Proposition
Soit A et B deux matrices non nulles de Mn (K) telles que A × B = 0
Alors ni A ni B n’est inversible.
Démonstration
raisonner par l’absurde : si A est inversible, alors AB = 0 ⇒ A−1 AB = 0 ⇒ B = 0 Contradiction.
Par ailleurs :
Soit A ∈ Mn (K), et P un polynôme annulateur de A. Si le terme constant de P n’est pas nul, alors A est
inversible, et on peut obtenir à la main directement (et sans calcul) l’expression de l’inverse de A, en fonction
de l’identité et des puissances de A.