0% ont trouvé ce document utile (0 vote)
283 vues21 pages

Matrices

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 21

c Christophe Bertault - MPSI

Matrices
Dans tout ce chapitre, K est lun des corps R ou C. Tous les rsultats prsents dans ce chapitre demeurent vrais si K est un
corps quelconque, mais nous ne nous en proccuperons pas ici. Les lettres n, p, q . . . dsignent des entiers naturels non nuls.

1 Matrices et oprations sur les matrices

1.1 Matrices

Dfinition (Matrice)
On appelle matrice n lignes et p colonnes coefficients dans K ou matrice 0
de taille n p coefficients
1
dans K toute
a11 a12 a1p
B a21 a22 a2p C 
B C
famille A de np lments de K prsente sous la forme dun tableau de la forme B . .. .. C, not A = aij 16i6n ,
@ .. . . A 16j6p

an1 an2 anp


o aij K pour tout (i, j) J1, nK J1, pK. 0 1
a1j
B a2j C
Le scalaire aij est appel coefficient de A de position (i, j). Si j J1, pK, la matriceB C
B . Cest appele la j
me
colonne de A, et
i J1, nK, la matrice ai1 ai2 aip est appele la i me
ligne de A. @ . A
.
anj
Lensemble des matrices de taille n p coefficients dans K est not Mn,p (K). Pour n = p, on parle des matrices
carres de taille n ; lensemble des matrices carres de taille n coefficients dans K est not Mn (K). Pour p = 1, on parle de
matrices colonnes de taille n. Enfin, pour n = 1, on parle de matrices lignes de taille p.
Si A est carre, la famille (a11 , a22 , . . . , ann ) est appele diagonale de A.

La matrice de Mn,p (K) dont tous les coefficients sont nuls est appele la matrice nulle de taille n p.

   Explication
Une matrice de taille n p coefficients dans K nest finalement quun lment de Knp , i.e. une famillede np lments
a11 a12
de K, mais quon a prfr crire sous forme dun tableau n lignes et p colonnes. Ainsi, au lieu dcrire , on
a21 a22
np
pourrait crire (a11 , a12 , a21 , a22 ). En ce sens, on peut affirmer que Mn,p (K) = K .
Cependant, nous introduirons bientt une loi interne de produit sur les matrices, et vous verrez alors quil est bien pratique
dcrire les matrices comme des tableaux et non comme des familles.
Lusage veut quon utilise le plus possible la lettre i pour indice des lignes, et la lettre j pour indice des colonnes.

Par convention, dans ce cours, si A (majuscule) est une matrice de taille n p, nous noterons aij (minuscule) le coefficient
de A de position (i, j).

1.2 Structure vectorielle sur Mn,p (K)

Dfinition (Structure vectorielle sur Mn,p (K))



Si A, B Mn,p (K), on appelle somme de A et B, note A + B, la matrice aij + bij 16i6n .
16j6p

Si A Mn,p (K) et si K, on appelle multiplication de A par le scalaire , note A, la matrice aij 16i6n .
16j6p
Muni de laddition et de la multiplication par un scalaire dfinies ci-dessus, Mn,p (K) est un K-espace vectoriel de
dimension finie np. Son vecteur nul est la matrice nulle de taille n p.
Pour tout (i, j) J1, nK J1, pK, si Ei,j est la matrice dont le coefficient de position (i, j) est gal 1 et dont tous les
autres coefficients sont nuls, alors (Ei,j )16i6n est une base de Mn,p (K), dit base canonique de Mn,p (K).
16j6p

1
c Christophe Bertault - MPSI

   Explication
             
1 3 1 0 1+1 3+0 2 3 0 1 40 41 0 4
Exemple : + = = et 4 = = .
2 4 1 1 21 4+1 1 5 1 2 4 (1) 42 4 8
Nous lavons vu, une matrice nest quune famille que lon dcide de noter comme un tableau ; ce nest vraiment quune
question de notation. Cest pourquoi on peut affirmer que Mn,p (K) = Knp . Que deviennent laddition et la multiplication
par un scalaire introduites ci-dessus quand on les exprime au moyen de familles, dans Knp ? Elles deviennent exactement
laddition et la multiplication par un scalaire qui font de Knp un K-espace vectoriel bien connu. Bref, la structure vectorielle
introduite sur Mn,p (K) na rien dune nouveaut : elle nest que la copie conforme de la structure vectorielle de Knp que
nous connaissons bien.
Dans le mme registre, que sont les matrices Ei,j , (i, j) J1, nK J1, pK, quand on les voit comme des familles de Knp et
non plus comme des tableaux ? Elles deviennent exactement les vecteurs de la base canonique de Knp . Rien dtonnant
alors au fait que (Ei,j )16i6n soit une base de Mn,p (K).
16j6p

   En pratique Lidentification Mn,p (K) = Knp vous servira peu souvent dans le cas gnral ; elle vous aidera seulement,
je lespre, comprendre do viennent les matrices. Par contre, dans le cas p = 1, vous serez constamment amens identifier 0 1
x1
B x2 C
B C
en pratique les lments de Kn et les lments de Mn,1 (K) ; bref, manipuler les galits de la forme (x1 , x2 , . . . , xn ) = B . C.
@ .. A
xn

De mme, si n = 1, vous manipulerez les galits de la forme (x1 , x2 , . . . , xp ) = x1 x2 xp .

1.3 Produit matriciel

Dfinition (Produit matriciel)


! Soient A Mp,q (K) et B Mq,r (K). Par dfinition, le produit de A par B, not A B ou
X
q
AB, est la matrice aik bkj de taille p r. 0 1
k=1 16i6p
16j6r B b11 b12 b1r C
B C
B C
B C
B C
B b21 b22 b2r C
B C
B C
B C
B .. .. .. C
B C
B . . . C
B C
B C
@ A
Produit bq1 bq2 bqr
et somme
0 1 0 Xq
X
q
X
q 1
B a11 a12 a1q C B a1k bk1 a1k bk2 a1k bkr C
B C B k=1 k=1 k=1 C
B C B C
B C B q C
B C B X X
q
X
q C
B C B C
B a21 a22 a2q C B a2k bk1 a2k bk2 a2k bkr C
B C B C
B C B k=1 k=1 k=1 C
B C B C
B C B C
B C B C
B .. .. .. C B .. .. .. C
B C B . . . C
B . . . C B C
B C B C
B C B C
B C B Xq
X
q
X
q C
@ A @ A
ap1 ap2 apq apk bk1 apk bk2 apk bkr
k=1 k=1 k=1

Lillustration ci-dessus fournit la mthode pratique de calcul du produit de deux matrices. Cela dit, sur une copie, vous ntes
pas autoriss crire ainsi les matrices les unes au-dessus des autres.

$ $ $ Attention ! Nous venons de dfinir le produit dune matrice de taille p q par une matrice de taille q r ; cest une
matrice de taille p r. Nous ne savons pas faire le produit de deux matrices en gnral, sil ny a pas, comme on dit, compatibilit
des formats.

Matrice de taille p q Matrice de taille q r Matrice de taille p r

2
c Christophe Bertault - MPSI

0 1
X
p

0 10 1 B a1i xi C 0 1
a11 a1p x1 B k=1 C y1
B C B . C X n
Exemple B . .. C B .. C = B .. C et x1 xn @ .. A = x k yk .
@ .. . A @ . A B . C
B C
an1 anp xp BX p C yn k=1
@ A
ani xi
k=1

Le premier exemple implique que tout systme linaire peut tre crit matriciellement sous la forme Y = AX o A est la matrice
des coefficients du systme, X la colonne des inconnues et Y la colonne du second membre. Par exemple :
8 0 10 1 0 1
< 2x + y 3z = a 2 1 3 x a
5y + z = b @0 5 1 A @y A = @ b A .
:
9x + 10y = c 9 10 0 z c
Cest trs pratique car la matrice associe au systme nest autre que la matrice de ses coefficients rangs naturellement, les
places vides tant bien sr compltes par des zros.

$ $ $ Attention !
En gnral, le produit de deux matrices nest pas commutatif cest mme pire que cela, car si le produit est dfini dans
un sens, il ne lest gnralement pas dans lautre pour une raison de compatibilit des formats. Par exemple :
         
1 1 0 0 1 0 0 0 0 0 1 1
= 6= = .
0 1 1 0 1 0 1 1 1 0 0 1
    
0 1 1 0
Un produit de matrices peut tre nul sans quaucune de ces matrices soit nulle. Par exemple : = .
0 0 0 0

0 1
1 0 0
B0 1 0C
B C
Dfinition (Matrice identit) On appelle matrice identit de taille n la matrice In = B . .. .. .. C carre de taille n.
@ .. . . .A
0 0 1

Thorme (Proprits du produit matriciel) Sous rserve de compatibilit des formats :


Associativit : Soient A Mp,q (K), B Mq,r (K), C Mr,s (K) et K.

(AB)C = A(BC) et (AB) = (A)B = A(B).

Bilinarit : Soient A, B Mp,q (K), C Mq,r (K) et , K.

(A + B)C = AC + BC et C(A + B) = CA + CB.

Elment neutre : Soit A Mn,p (K). In A = AIp = A.

Dmonstration Contentons-nous
! de dmontrer lassociativit
" du# produit
! matriciel : (AB)C = A(BC).
X
q
X
r X
q
Puisque AB = aik bkj , alors (AB)C = aik bkl clj .
k=1 16i6p l=1 k=1 16i6p
16j6r ! " r 16j6s
#!
X
r X
q
X
De mme, puisque BC = bil clj , alors A(BC) = aik bkl clj .
l=1 16i6q k=1 l=1 16i6p
16j6s 16j6s
On obtient le rsultat voulue en permutant les symboles de sommation dans (AB)C et A(BC). 


Kp Kn
Dfinition (Application linaire associe une matrice) Soit A Mn,p (K). Lapplication est
X 7 AX
linaire ; on lappelle lapplication linaire associe A.

   Explication Bien sr, dans cette dfinition, le vecteur X de Kp doit tre vu comme une matrice colonne, via
lidentification Mp,1 (K) = Kp , sans quoi le produit AX naurait pas de sens.
  
0 1 2 R3 R2
Exemple Soit A = . Lapplication linaire associe A est .
3 4 5 (x, y, z) 7 (y + 2z, 3x + 4y + 5z)

3
c Christophe Bertault - MPSI

1.4 Transposition

Dfinition (Transpose) Soit A Mn,p (K). On appelle transpose de A la matrice (aji ) 16i6p de Mp,n (K), note t A.
16j6n

   Explication
La transposition change les lignes et les colonnes des matrices. A quoi cette opration peut-elle bien servir ? A montrer
que tout rsultat thorique sur les colonnes dune matrice est valable au sujet de ses lignes, et rciproquement. Nous y
reviendrons.
La transposition change le nombre de colonnes et le nombre de lignes, de sorte que la transpose dune matrice de taille
n p est une matrice de taille p n. Chose intressante : la transpose dune matrice carre est une matrice carre de
mme taille.

0 1 0 1
  3 5
t1
t
3 0 1 B . C 
Exemple = @0 2A et @ .. A = 1 n .
5 2 7
1 7 n

Thorme (Proprits de la transposition)


t
Linarit : Soient A, B Mn,p (K) et , K. (A + B) = t A + t B.
t t

Involutivit : Soit A Mn,p (K). A = A.
t
Produit : Soient A Mp,q (K) et B Mq,r (K). (AB) = t B t A.

Dmonstration Seule lassertion sur le produit mrite dtre dmontre. Posons C = t (AB) et D = t B t A.
Montrons que C et D ont les mmes coefficients. Soit (i, j) J1, rKJ1, pK. Il suffit alors dobserver quon a lgalit
X
q
suivante : cij = ajk bki = dij videmment, il faut rflchir deux secondes (voire plus). 
k=1

2 Reprsentation matricielle des familles de vecteurs


et des applications linaires

2.1 Matrice dune famille de vecteurs dans une base

Dfinition (Matrice dune famille de vecteurs dans une base) Soient E un K-espace vectoriel de dimension n,
(e1 , e2 , . . . , en ) une base de E et (x1 , x2 , . . . , xp ) une famille quelconque de vecteurs de E. Pour tout (i, j) J1, nK J1, pK, notons
aij la ime coordonne  de xj dans la base (e1 , e2 , . . . , en ).
La matrice aij 16i6n , note Mat (x1 , x2 , . . . , xp ), est appele matrice de la famille (x1 , x2 , . . . , xp ) dans la base
16j6p (e1 ,e2 ,...,en )
(e1 , e2 , . . . , en ). x1 x2 xj xp

0 1
a11 a12 a1j a1p e1
B C
B C
B a21 a2p C
B a22 a2j C e2
B C
B C
B . .. .. .. C
B . C
B . . . . C
B C
Mat (x1 , x2 , . . . , xp ) = B C
(e1 ,e2 ,...,en ) B C
B ai1 ai2 aij aip C ei
B C
B C
B C
B .. .. .. .. C
B . . . . C
B C
@ A
an1 an2 anj anp en

Coordonnes de xj dans (e1 , e2 , . . . , en ), crites en colonne

4
c Christophe Bertault - MPSI

Exemple
Soient E un K-espace vectoriel de dimension finie et B une base de E. Alors pour tout x E, Mat(x) est la colonne des
B
coordonnes de x dans B. 0 1
1 2
 B0 
1C
Soit B4 la base canonique de R . Alors Mat (1, 0, 3, 1), (2, 1, 0, 1) = B
4
@3
C.
B4 0A
1 1
0 1 0 1
1 0 0 0 0 0
B2 1 1C B1 0 0C
B C B C
Mat (X 3 +2X +1, X, X 2 X) = B
B0 0 1 C
C et Mat (X 3 +2X +1, X 2 X, X) = B
B0 1 0C
C.
(1,X,X 2 ,X 3 ,X 4 ) @1 0 0 A (X 4 ,X 3 ,X 2 ,X,1) @2 1 1A
0 0 0 1 0 0

$ $ $ Attention ! Si on change la base dans laquelle on exprime la matrice dune famille de vecteurs, il est bien vident que
la matrice en question change aussi. Lexemple ci-dessus montre en particulier quen changeant lordre des vecteurs on modifie
compltement la tte de la matrice.

Thorme (Toute matrice est gale la matrice de ses colonnes dans la base canonique) Soit A Mn,p (K) de
colonnes C1 , C2 , . . . , Cp Mn,1 (K) ranges dans lordre naturel.
Si BMn,1 (K) est la base canonique de Mn,1 (K), alors : A = Mat (C1 , C2 , . . . , Cp ).
BM
n,1 (K)

Dmonstration Rflchissez ! 

2.2 Matrice dune application linaire dans des bases

Dfinition (Matrice dune application linaire dans des bases) Soient E et F deux K-espaces vectoriels de dimensions
respectives p et n, B = (e1 , e2 , . . . , ep ) une base de E et C = (f1 , f2 , . . . , fn ) une base de F .
Soit f une application linaire de E dans F . On appelle matrice de f dans B et C et on note Mat(f ) la matrice de la famille
  B,C

f (B) = f (e1 ), f (e2 ), . . . , f (ep ) dans la base C = (f1 , f2 , . . . , fn ) de F .


f (e1 ) f (e2 ) f (ej ) f (ep )

0 1
a11 a12 a1j a1p f1
B C
B C
B a21 a22 a2j a2p C
B C f2
B C
B C
B . .. .. .. C
B . C
   B . . . . C
B C
Mat(f ) = Mat f (B) = Mat f (e1 ), f (e2 ), . . . , f (ep ) = B C
B,C C (f1 ,f2 ,...,fn ) B C
B ai1 ai2 aij aip C fi
B C
B C
B C
B .. .. .. .. C
B . . . . C
B C
@ A
an1 an2 anj anp fn

Coordonnes de f (ej ) dans (f1 , f2 , . . . , fn ), crites en colonne

Si E = F et si B = C, la matrice Mat(f ) est simplement note Mat(f ).


B,B B

$ $ $ Attention ! Si on change les bases dans lesquelles on exprime la matrice dune application linaire, il est bien
vident que la matrice en question change aussi. Un exemple le montre un peu plus bas.

0 1
1 0 0
B0 1 0C
B C
Exemple Si E est de dimension finie n et si B est une base de E, alors Mat(IdE ) est la matrice B . . .. .. C carre de
B @ .. .. . .A
0 0 1
taille n, note In , dont tous les coefficients diagonaux sont gaux 1 et dont tous les autres coefficients sont nuls.

5
c Christophe Bertault - MPSI


R2 R3
Exemple Soit lapplication linaire .
(x, y) 7 (x, x + y, y x)
0 1
1 0
(i) Notons B2 et B3 les bases canoniques respectives de R et R . Alors : 2 3
Mat () = @ 1 1A.
B 2 ,B 3
1 1
   
(ii) Posons B02 = (0, 1), (1, 0) et B03 = (1, 1, 1), (1, 1, 0), (1, 0, 0) , bases de R2 et R3 respectivement.
0 1
1 1
Alors : Mat () = @ 0 2 A.
B 02 ,B 03
1 0
En effet
(i) Dterminons les coordonnes de (1, 0) et (0, 1) dans la base canonique B3 de R3 .
(1, 0) = (1, 1, 1) et (0, 1) = (0, 1, 1). Ce sont dj les coordonnes voulues.

(ii) Dterminons les coordonnes de (0, 1) et (1, 0) dans B03 .


(0, 1) = (0, 1, 1) = (1, 1, 1) (1, 0, 0) et (1, 0) = (1, 1, 1) = (1, 1, 1) + 2(1, 1, 0).


R4 [X] R5 [X]
Exemple Soit T lapplication linaire . Si B4 et B5 dsignent les bases canoniques
P 7 X 4 P (3) + P (2) + P (X)
0 1
2 2 4 8 16
B0 1 0 0 0C
B C
B0 0 1 0 0C
respectives de K4 [X] et K5 [X], alors : Mat (T ) = BB C.
B 4 ,B 5 B0 0 0 1 0 C C
@0 0 0 6 1A
0 0 0 0 24
En effet Il nous suffit de dterminer les coordonnes des vecteurs T (1), T (X), T (X 2 ), T (X 3 ) et T (X 4 ) dans la
base (1, X, X 2 , X 3 , X 4 , X 5 ), puis de les ranger convenablement dans un tableau.

T (1) = 0 + 1 + 1 = 2, T (X) = 0 + 2 + (X) = X + 2, T X 2 = 0 + 22 + (X)2 = X 2 + 4,
 
T X 3 = X 4 6 + 23 + (X)3 = 6X 4 X 3 + 8 et T X 4 = X 4 24X + 24 + (X)4 = 24X 5 + X 4 + 16.

Thorme (Toute matrice est gale la matrice de lapplication linaire qui lui est associe
 p dans lesn bases
K K
canoniques) Soit A Mn,p (K). Nous savons que A peut tre vue comme une application linaire que
X 7 AX
nous notons aussi A.
Si Bp et Bn sont les bases canoniques respectives de Kp et Kn , alors : A = Mat (A).
B p ,B n

Dmonstration Rflchissez ! 

Thorme (Une application linaire est entirement dtermine par sa matrice dans des bases) Soient E et F
deux K-espaces vectoriels
( de dimensions respectives p et n, B une base de E et C une base de F .
L(E, F ) Mn,p (K)
Alors lapplication f 7 Mat(f ) est un isomorphisme de L(E, F ) sur Mn,p (K).
B,C

En particulier, avec des notations videntes : Mat(f + g) = Mat(f ) + Mat(g).


B,C B,C B,C

Dmonstration
La construction de la matrice dune application linaire rend vidente la linarit de lapplication Mat du
B,C
thorme cest le genre de choses quon ne comprend bien quen les crivant proprement soi-mme.
Nous savons que : dim L(E, F ) = dim E dim F = np = dim Mn,p (K). Pour montrer que lapplication
du thorme est bijective, il nous suffit donc de montrer quelle est injective.
Soient f, g L(E, F ) telles que Mat(f ) = Mat(g). Notons e1 , e2 , . . . , ep les vecteurs de B, dans lordre. Alors
B,C B,C
par dfinition de la matrice dune application linaire, f (ej ) et g(ej ) ont la mme colonne de coordonnes dans
C pour tout j J1, pK ; on a donc f (ej ) = g(ej ). Or les applications linaires sont entirement dtermines
par limage quelles renvoient dune base de lespace de dpart, donc ici f = g comme voulu. 

6
c Christophe Bertault - MPSI

Thorme (Rgles de calcul pour passer dun point de vue vectoriel un point de vue matriciel, et vis versa)
(i) Soient E et F deux K-espaces vectoriels de dimension finie, B une base de E et C une base de F .
Soient en outre u une application linaire de E dans F , x E et y F . Posons U = Mat(u), X = Mat(x) et Y = Mat(y).
B,C B C
On a lquivalence fondamentale suivante :
y = u(x) Y = U X.

(ii) Soient E1 , E2 , E3 trois K-espaces vectoriels de dimension finie, de bases respectives B1 , B2 , B3 .


Soient en outre f une application linaire de E1 dans E2 et g une application linaire de E2 dans E3 . Alors :
Mat (g f ) = Mat (g) Mat (f ).
B 1 ,B 3 B 2 ,B 3 B 1 ,B 2

   Explication Thorme fondamental sil en est !


Dans lassertion (i), on rappelle que Mat(x) est la colonne des coordonnes de x dans B ; mme chose pour Mat(y).
B C
Cette assertion montre que le calcul de u(x) (point de vue vectoriel) est quivalent au calcul du produit matriciel U X
(point de vue matriciel) ; prcisment, U X est le vecteur des coordonnes de u(x) dans la base C. Ceci va nous permettre
de profiter du calcul matriciel pour parler des applications linaires abstraites.
Lassertion (ii) montre que le produit matriciel et la composition des applications linaires sont deux faces dune mme
pice. Le produit est aux matrices ce que la composition est aux applications linaires.

Dmonstration
(i) Introduisons les vecteurs de B et C : B = (e1 , e2 , . . . , ep ) et C = (f1 , f2 , . . . , fn ).
!
X
n X
p
X
n X
p
X
n X
p
X
n
y = u(x) yi fi = u x j ej yi fi = xj u(ej ) yi fi = xj uij fi
i=1 j=1 i=1 j=1 i=1 j=1 i=1
!
X
n X
n X
p
X
p
yi fi = uij xj fi i J1, nK, yi = uij xj Y = U X.
i=1 i=1 j=1 j=1

(ii) Posons A = Mat (f ), B = Mat (g) et C = Mat (g f ). Nous devons montrer que BA = C, i.e. que C
B 1 ,B 2 B 2 ,B 3 B 1 ,B 3
et BA ont les mmes colonnes.
Introduisons les vecteurs de B1 : B1 = (e1 , e2 , . . . , en ). Soit alors j J1, nK. La j me colonne de C est,
par dfinition, la colonne des coordonnes de g f (ej ) dans B3 .
Or si Ej dsigne la colonne des coordonnes de ej dans B1 un 1 en j me position, que des 0 ailleurs alors
AEj est la colonne des coordonnes de f (ej ) dans B2 via (i). Mais pour la mme raison, B(AEj ) = (BA)Ej
est donc la colonne des coordonnes de g f (ej ) dans B3 , i.e. la j me colonne de C. Pour finir, on remarque
que (BA)Ej nest autre que la j me colonne du produit BA, de sorte que C et BA ont la mme j me colonne,
comme prvu. 

0 1
4 0 0

Exemple Soit R lendomorphisme de R3 dont la matrice dans la base canonique de R3 est @0 1
3A.
0 3 3
 
Alors Ker R = Vect (0, 3, 1) .

En effet Soit (x, y, z) R3 .


0 10 1 0 1
4 0 0
x 0
(x, y, z) Ker R R(x, y, z) = (0, 0, 0) @0 1 3A @y A = @0A

0 3 3 z 0
8
< 4x = 0 
x = 0

: y 3z = 0
y = 3z.
3y + 3z = 0
 
Comme annonc, Ker R = Vect (0, 3, 1) .

0 1
0 0 1 1
B1 1 1 1C
Exemple Lendomorphisme de R3 [X] dont la matrice dans la base canonique de R3 [X] est = B @ 0
C est la
2 1 2A
1 2 1 2
symtrie par rapport Vec(X 3 + X 2 + X, X 2 + 1) paralllement Vect(X 3 + X + 1, X 3 + X 2 ).

7
c Christophe Bertault - MPSI

En effet
Par dfinition, est linaire. Montrer que est une symtrie revient donc montrer que 2 = IdR3 [X] . Dun
point de vue matriciel, cela revient donc dire que 2 = I4 . On vrifie aisment que cette galit est correcte.
Cherchons le sous-espace vectoriel de R3 [X] par rapport auquel est une symtrie, savoir Ker( IdR3 [X] ).
Pour tout P = aX 3 + bX 2 + cX + d R3 [X] :
0 1 0 1 8
d d >
> b a = d
BcC BcC <
d + c + b a = c
P Ker( IdR3 [X] ) (P ) = P B C B C
@bA = @bA
>
> 2c + b 2a = b
:
a a d + 2c + b 2a = a
8
>
> d + b a = 0 
<
d + b a = 0 d + b a = 0

>
> c a = 0 c a = 0
:
d + 2c + b 3a = 0
8
>
> a =
<
b = +
, R/ . Ainsi Ker( IdR3 [X] ) = Vec(X 3 + X 2 + X, X 2 + 1).
>
> c =
:
d =

Dans cet exemple, on travaille


0 1dans la base canonique de R3 [X], cest pourquoi la colonne des coordonnes
d
BcC
de P est tout simplement @ C
B . Dans une autre base, le calcul aurait t plus dlicat.
bA
a

On montre de la mme manire que Ker( + IdR3 [X] ) = Vect(X 3 + X + 1, X 3 + X 2 ).

3 Etude de lanneau Mn (K)

3.1 Lanneau Mn(K)


Le produit de deux matrices carres de taille n est une matrice carre de taille n. Ceci signifie que la multiplication des
matrices est une loi de composition interne sur Mn (K). Si A Mn (K) et k N, nous pouvons donc noter Ak la matrice
k fois
z }| { X

A A . . . A, avec la convention A0 = In . Il a ds lors un sens, pour tout P = pk X k K[X], de noter P (A) la matrice
k=0
X

k
pk A (somme finie).
k=0
Le thorme suivant est une consquence immdiate des rsultats dmontrs prcdemment. Quant aux formules qui le
suivent, on les dmontrerait ici comme on la fait dans C en dbut danne.


Thorme (Anneau Mn (K)) Mn (K), +, est un anneau dlment neutre In pour la multiplication. Pour n > 2, cet
anneau nest ni commutatif ni intgre.

Thorme (Deux formules connatre) Soient A, B Mn (K). On suppose que A et B commutent. Alors pour tout
kN: !
X
k
k
k
(A + B) = Ai B ki (formule du binme de Newton)
i=0
i

X
k1
et Ak B k = (A B) Ai B ki1 .
i=0

$ $ $ Attention ! Lhypothse que A et B commutent nest pas l pour dcorer !

8
c Christophe Bertault - MPSI

0 1 0 1
1 1 2 1 k 2k
Exemple Soit A = @0 1 0A. Alors pour tout k N : A = @0
k
1 0 A.
0 0 1 0 0 1
0 1
0 1 2
En effet Pour calculer les puissances de A, crivons A = I3 + J avec J = @0 0 0A. Bien sr, I3 et J
0 0 0
commutent car I3 commute avec toute matrice carre de taille 3, et on remarque 0 que J2 =1 0, donc que J i = 0
!
X k
k 1 k 2k
pour tout i > 2. Par consquent : k N, Ak = I3i J ki = I3 + kJ = @0 1 0 A.
i
i=0 0 0 1

Thorme (Les anneaux( L(E) et Mn (K) sont isomorphes) Soit E un K-espace vectoriel de dimension n et B une base
L(E) Mn (K)
de E. Alors lapplication f 7 Mat(f ) est un isomorphisme danneaux.
B

Dmonstration Cette application, on la dj vu, est un isomorphisme linaire, donc une bijection et un
morphisme de groupes pour laddition. Nous avons galement dj vu quelle transforme les produits en produits,
ici sous la forme suivante : f, g L(E), Mat(f g) = Mat(f ) Mat(g). Enfin : Mat(IdE ) = In . 
B B B B

3.2 Matrices inversibles



Puisque Mn (K), +, est un anneau, on peut chercher savoir quels en sont les lments inversibles (pour la multiplication).
Conformment la dfinition gnrale, une matrice A de Mn (K) sera dite inversible (dans Mn (K)) sil existe une matrice
B Mn (K) telle que AB = BA = In ; nous savons dj quune telle matrice B, si elle existe, est unique, note A1 et appele
linverse de A.
Rappelons quelques faits gnraux bien connus 4) est une nouveaut. Si A, B Mn (K) sont deux matrices inversibles :
1) A1 est inversible et (A1 )1 = A ;
2) AB est inversible et (AB)1 = B 1 A1 eh oui, attention !
3) pour tout k N, Ak est inversible et (Ak )1 = (A1 )k ;
1 
4) t A est inversible et t
A = t A1 .
Dmonstration Nous devons seulement dmontrer le rsultat 4). Il sagit dune simple vrification :
t
  
A t A1 = t A1 A = t In = In et de mme t
A1 t A = In . 

A
$ $ $ Attention ! La notation , o A et B sont deux matrices, est rigoureusement interdite.
B


Dfinition (Groupe linaire) Lensemble des matrices inversibles de Mn (K) est not GLn (K). Alors GLn (K), est un
groupe dinverse In appel le groupe linaire de degr n sur K.

(
L(E) Mn (K)
Remarque Soient E un K-espace vectoriel de dimension n et B une base de E. Nous savons que f 7 Mat(f )
( B
GL(E) GLn (K)
est un isomorphisme danneaux. Alors lapplication restreinte f 7 Mat(f ) est un isomorphisme de groupes.
B

 
a c
Thorme (Inversibilit des matrices carres de taille 2) Soient a, b, c, d K. On appelle dterminant de ,

b d
 
a c a c
not det ou , le scalaire ad bc.
b d b d
   1  
a c a c 1 d c
La matrice est inversible si et seulement si son dterminant est non nul. Alors = .
b d b d ad bc b a

9
c Christophe Bertault - MPSI

Dmonstration
       
1 c d a c a c 1 d c
Si ad bc 6= 0, alors = = I2 simple calcul
ad bc a b b d b d ad bc b a
   
a c 1 d c
donc est inversible dinverse .
b d ad bc b a
    
a c d c a c
Si ad bc = 0, alors = 0. Supposons (par labsurde) inversible. Alors en
b d b a b d
 1  
a c d c
multipliant par lgalit prcdente on obtient = 0, i.e. a = b = c = d = 0, et donc
b d b a
     
a c a c a c
= 0. Contradiction, car nous avons suppos inversible, donc non nulle. Ainsi est
b d b d b d
non inversible comme voulu. 

Pour pouvoir donner dautres exemples de matrices inversibles, nous avons besoin de rsultats thoriques sur linversiblit
des matrices.

Thorme (Bijectivit = inversibilit) Soient E et F deux K-espaces vectoriels de mme dimension finie, B une base de
E, C une base de F . Soit en outre f une application linaire de E dans F . Alors :

f est un isomorphisme de E sur F si et seulement si Mat(f ) est inversible.


B,C

 1

Dans ce cas : Mat f 1 = Mat(f ) .
C,B B,C

Dmonstration
 
Si f est bijective, alors Mat(f ) Mat f 1 = Mat(IdF ) = In et Mat f 1 Mat(f ) = Mat(IdE ) = In , et
B,C C,B
 C C,B B,C B
donc Mat(f ) est inversible dinverse Mat f 1 .
B,C C,B

Rciproquement, si A = Mat(f ) est inversible, soit g lunique application linaire de F dans E pour laquelle
B,C
Mat(g) = A1 . Alors Mat(g f ) = Mat(g) Mat(f ) = A1 A = In et de mme Mat(f g) = In . On en
C,B B C,B B,C C
dduit que g f = IdE et que f g = IdF , bref que f est bijective de E sur F , comme voulu. 

Corollaire (AB = In suffit) Soient A, B Mn (K) telles que AB = In . Alors A et B sont inversibles, inverses lune de
lautre.

   Explication En principe, montrer que A est inversible revient montrer lexistence dune matrice B telle que
AB = In et BA = In . Ce thorme montre que lune ou lautre des assertions suffit en ralit, ce qui est bien pratique.

Dmonstration Notons encore A et B les endomorphismes de Kn associs aux matrices A et B.



Montrons que B est injectif, i.e. que Ker B = 0Kn .
Soit X Kn tel que BX = 0. Alors X = In X = (AB)X = A(BX) = A0 = 0, comme voulu.
Or B est un endomorphisme de Kn . Donc son injectivit implique sa bijectivit ; bref, B est un automorphisme
de Kn .
Or enfin, si Bn est la base canonique de Kn , nous savons que B = Mat(B). Cela montre, via le thorme
Bn
prcdent, que B, comme matrice, est inversible. Alors A = AIn = A(BB 1 ) = (AB)B 1 = In B 1 = B 1 ,
ce qui prouve linversibilit de A et le fait que A et B sont inverses lun de lautre. 

Corollaire (Caractrisation des matrices inversibles en termes de systmes linaires) Soit A Mn (K). Les
assertions suivantes sont quivalentes :
(i) A est inversible.
(ii) Pour tout second membre Y Kn , le systme linaire Y = AX dinconnue X Kn possde une et une seule
solution ; en dautres termes : Y Kn , ! X Kn / Y = AX.

Dmonstration Si Bn dsigne la base canonique de Kn et si on note A lendomorphisme de Kn associ A,


nous savons que A = Mat(A). Lassertion (ii) exprime prcisment lide que lendomorphisme A est bijectif, i.e.
Bn
quil est un automorphisme de Kn . Le thorme prcdent montre donc aussitt lquivalence (i) (ii). 

10
c Christophe Bertault - MPSI

   En pratique Ce thorme nous fournit une mthode en or pour montrer quune matrice carre est inversible et
calculer son inverse.
En effet, soit A Mn (K). Faisons lhypothse que, pour tout second membre Y Kn , nous avons su trouver une unique
solution X Kn au systme linaire Y = AX. Alors A est inversible.
De plus, avoir trouv cet unique X, cest avoir transform le systme linaire Y = AX en un systme linaire de la forme
X = BY , o B Mn (K). Ce qui est intressant, cest quon a alors B = A1 . La mthode de rsolution des systmes
linaires la plus systmatique est bien sr la mthode du pivot de Gauss.
0 1 0 1
1 3 1 2 3 4
Exemple La matrice @1 2 2A est inversible dinverse @ 1 1 1 A.
0 0 1 0 0 1
En effet Notons A la matrice tudie.
Soit Y = (y1 , y2 , y3 ) R3 . Pour tout X = (x1 , x2 , x3 ) R3 :
0 10 1 0 1 8
1 3 1 x1 y1 < x1 + 3x2 + x3 = y1
Y = AX @1 2 2A @x2 A = @y2 A x1 + 2x2 + 2x3 = y2
:
0 0 1 x3 y3 x3 = y3
8
< x1 + 3x2 + x3 = y1
x2 x3 = y1 y2 L1 L1 L2
:
x3 = y3 .
Si on est juste intress par linversibilit de A, on peut conclure ds maintenant. En effet, le systme obtenu
ci-dessus est triangulaire coefficients diagonaux non nuls, donc possde une et une seule solution. Ceci
montre que lquation Y = AX dinconnue X possde une et une seule solution pour tout second membre
Y , i.e. que A est inversible.
Et si on veut aussi calculer A1 ? On reprend la rsolution du systme Y = AX o la laiss ci-dessus.
8 0 1 0 10 1
< x1 = 2y1 + 3y2 4y3 x1 2 3 4 y1
Y = AX x2 = y1 y2 + y3 @x2 A = @ 1 1 1 A @y 2 A .
:
x3 = y3 x3 0 0 1 y3
0 1
2 3 4
Et voil : A1 =@ 1 1 1A comme annonc.
0 0 1
0 1
1 0 2
Exemple La matrice @2 3 2A nest pas inversible.
3 6 6
En effet Soit Y = (y1 , y2 , y3 ) R3 . Pour tout X = (x1 , x2 , x3 ) R3 :
0 10 1 0 1 8
1 0 2 x1 y1 < x1 + 2x3 = y1
Y = AX @2 3 2A @x2 A = @y2 A 2x1 + 3x2 2x3 = y2
:
3 6 6 x3 y3 3x1 + 6x2 6x3 = y3
8
< x1 + 2x3 = y1
3x2 6x3 = y2 2y1 L2 L2 2L1
:
6x2 12x3 = y3 3y1 L3 L3 3L1
8
< x1 + 2x3 = y1
3x2 6x3 = y2 2y1
:
0 = y3 2y2 + y1 L3 L3 2L2 .
Le systme obtenu est triangulaire, mais lun de ses coefficients diagonaux est nul, il ne possde donc pas une
unique solution, ce qui prouve la non-inversibilit de la matrice considre.

Thorme (Base = inversibilit) Soient E un K-espace vectoriel de dimension n, B une base de E et F une famille de n
vecteurs de E. Les assertions suivantes sont quivalentes :
(i) F est une base de E. (ii) Mat(F) est inversible.
B

Dmonstration Introduisons les vecteurs de B et F : B = (e1 , e2 , . . . , en ) et F = (f1 , f2 , . . . , fn ) et


notons f lunique endomorphisme de E tel que : k J1, nK, f (ek ) = fk . On a lquivalence :
F est une base de E f est un automorphisme de E Mat(f ) est inversible.
B
 
On conclut en remarquant que : Mat(f ) = Mat f (e1 ), f (e2 ), . . . , f (en ) = Mat(f1 , f2 , . . . , fn ) = Mat(F). 
B B B B

11
c Christophe Bertault - MPSI

Corollaire (Caractrisation des matrices inversibles au moyen de leurs lignes/colonnes) Soit A Mn (K). Les
assertions suivantes sont quivalentes :
(i) A est inversible.
(ii) La famille des colonnes de A est une base de Kn cela revient dire quelle est libre ou gnratrice.
(iii) La famille des lignes de A est une base de Kn cela revient dire quelle est libre ou gnratrice.

Dmonstration
(i) (ii) Nous savons que A est gale la matrice de ses colonnes dans la base canonique de Kn . Le thorme
prcdent montre donc lquivalence (i) (ii).
(ii) (iii) Nous savons que A est inversible si et seulement t A lest, et que la transposition change les lignes
et les colonnes de A. Lquivalence (i) (iii) se dduit donc de lquivalence (i) (ii). 

3.3 Matrices carres particulires


3.3.1 Matrices triangulaires

Dfinition (Matrice triangulaire) Une matrice carre est dite triangulaire suprieure (resp. infrieure) si ses coefficients
situs strictement au-dessous (resp. strictement au-dessus) de la diagonale sont nuls.

0 1 0 1
1 2 3 1 0 0
Exemple @0 4 5A est triangulaire suprieure et @2 4 0A est triangulaire infrieure.
0 0 6 3 5 6

Thorme (Anneau des matrices triangulaires suprieures/infrieures)


(i) Lensemble des matrices triangulaires suprieures (resp. infrieures) de taille n coefficients dans K est un sous-espace
vectoriel et un sous-anneau de Mn (K).
(ii) Une matrice triangulaire est inversible si et seulement si ses coefficients diagonaux sont tous non nuls.
Linverse dune matrice triangulaire suprieure (resp. infrieure) est triangulaire suprieure (resp. infrieure).

   Explication Nous avons montr dans ce chapitre quune matrice est inversible si et seulement si le systme linaire
associ cette matrice possde une et une seule solution pour tout second membre. La caractrisation des matrices triangulaires
nonce dans ce thorme est quivalente au principe suivant que nous avons massivement utilis jusquici : Un systme linaire
triangulaire possde une et une seule solution si et seulement si ses coefficients diagonaux sont tous non nuls .

Dmonstration Nous pouvons nous contenter de travailler avec les matrices triangulaires suprieures ; le cas
des matrices triangulaires infrieures sen dduit par transposition.

(i) Il est facile de montrer que lensemble des matrices triangulaires suprieures de taille n est un sous-espace
vectoriel de Mn (K). Il est en outre clair que In est triangulaire suprieure. Pour montrer que nous avons aussi
affaire un sous-anneau, il nous reste montrer que le produit de deux matrices triangulaires suprieures
est encore une matrice triangulaire suprieure.
Soient A, B Mn (K) triangulaires suprieures. Posons C = AB et montrons que C est triangulaire sup-
X
n
rieure. Soient i, j J1, nK tels que i > j. Alors cij = aik bkj . Jaffirme que chacun des termes de cette
k=1
somme est nul. En effet, soit k J1, nK. Comme i > j, alors k < i ou k > j forcment. Dans le premier cas,
aik = 0 ; dans le second, bkj = 0. Dans les deux cas, on a donc aik bkj = 0 comme annonc.

(ii) Raisonnons par rcurrence sur la taille n des matrices.



Initialisation : Toute matrice triangulaire suprieure de taille 1 est de la forme a o a K. Une
1 
telle matrice est inversible si et seulement si a 6= 0 et dans ce cas a = a1 . Linverse dune matrice
triangulaire suprieure inversible de taille 1 est donc bien triangulaire suprieure.
Hrdit : Soit n N . Faisons lhypothse que toute matrice triangulaire suprieure de taille n est
inversible si et seulement si ses coefficients diagonaux sont tous non nuls, et que linverse dune matrice
triangulaire suprieure inversible de taille n est encore une matrice triangulaire suprieure.

12
c Christophe Bertault - MPSI

Fixons T Mn+1 (K) triangulaire suprieure et notons T 0 la sous-matrice de T obtenue par suppression des
dernire ligne et dernire colonne. Alors T 0 Mn (K) est triangulaire suprieure. Pour tous X, Y Kn+1 :
0 10 1 0 1
t11 t12 t13 t1,n+1 x1 y1
B 0 t22 t23 t2,n+1 C B x 2 C B y2 C
B CB C B C
B 0 0 t33 t3,n+1 C B x 3 C B y3 C
Y = TX B CB C=B C
B . .. .. .. .. CB . C B . C
@ .. . . . . A @ .. A @ .. A
0 0 0 tn+1,n+1 xn+1 yn+1
8
>
>
t11 x1 + t12 x2 + ... + t1,n+1 xn+1 = y1
>
< t22 x2 + ... + t2,n+1 xn+1 = y2
..
>
> .
>
:
tn+1,n+1 xn+1 = yn+1
8
>
>
t11 x1 + t12 x2 + ... + t1n xn = y1 t1,n+1 xn+1
>
< t22 x2 + ... + t2n = y2 t2,n+1 xn+1
.. et tn+1,n+1 xn+1 = yn+1
>
> .
>
:
tnn xn = yn tn,n+1 xn+1
0 10 1 0 1
t11 t12 t13 t1n x1 y1 t1,n+1 xn+1
B 0 t22 t23 t2n C B x2 C B y2 t2,n+1 xn+1 C
B CB C B C
B 0 0 t33 t3n C B C B C
B C B x3 C = B y3 t3,n+1 xn+1 C et tn+1,n+1 xn+1 = yn+1
B . .. .. .. .. C B .. C B .. C
@ .. . . . . A@ . A @ . A
0 0 0 tnn xn yn tn,n+1 xn+1
| {z } | {z }
X0 Y0

Y 0 = T 0X 0 et tn+1,n+1 xn+1 = yn+1 .


La rsolution du systme Y = T X se ramne donc la rsolution de deux sous-systmes : Y 0 = T 0 X 0 de
taille (n 1) et tn+1,n+1 xn+1 = yn+1 . Par hypothse de rcurrence, Y = T X possde finalement une unique
solution si et seulement si tous les coefficients diagonaux de T 0 sont non nuls et si tn+1,n+1 6= 0, i.e. si et
seulement si tous les coefficients diagonaux de T sont non nuls. Cest la premire partie du rsultat voulu.
Supposons dsormais T inversible, i.e. que ses coefficients diagonaux sont tous non nuls. En particulier T 0
est inversible par hypothse de rcurrence car ses coefficients diagonaux sont alors tous non nuls. De plus,
toujours par hypothse de rcurrence, T 01 est une matrice triangulaire suprieure que nous noterons S pour
simplifier. Reprenons les notations et les calculs prcdents :
yn+1
Y = TX Y 0 = T 0 X 0 et tn+1,n+1 xn+1 = yn+1 X 0 = SY 0 et xn+1 =
tn+1,n+1
0 1
0 1 t1,n+1 0 1
s11 s12 s13 s1n B y1 tn+1,n+1 xn+1 C x1
B 0 B C
s s s 2n C B t2,n+1 C B x2 C
B 22 23
C B y2 xn+1 C B C
B 0 0 s33 s3n C tn+1,n+1 C=B x3 C yn+1
B CBB C B C et xn+1 =
B . . . . C . B . C t
@ .. .. .. ..
. .. A B
B
.. C @ . A
C .
n+1,n+1

@ t A
0 0 0 snn yn
n,n+1
xn+1 x n
tn+1,n+1
8
>
>
s11 y1 + s12 y2 + ... + s1n yn + $ yn+1 = x1
>
>
>
> s22 y2 + ... + s2n yn + $ yn+1 = x2
>
< ..
.
>
>
>
> snn yn + $ yn+1 = xn
>
>
>
: 1
yn+1 = xn+1
tn+1,n+1
Les symboles $ dsignent des quantits que lon na pas souhait expliciter par souci de simplicit. Ce qui
compte de 0 soit triangulaire suprieur. La matrice T 1 est finalement
tout faon, cest que le systme obtenu 1
s11 s12 s13 s1n $
B C
B 0 s22 s23 s2n $ C
B C
B 0 0 s33 s3n $ C
B C
la matrice B
B .
.. .. .. . . .
. .
. C triangulaire suprieure.
C 
B . . . . . C
B C
B 0 0 0 snn $ C
@ 1 A
0 0 0 0
tn+1nn+1
0 1 0 1
1 2 5 1 2 11
Exemple Linverse de la matrice @0 1 3A est la matrice @0 1 3 A.
0 0 1 0 0 1

13
c Christophe Bertault - MPSI

3.3.2 Matrices diagonales

Dfinition (Matrice diagonale, matrice scalaire)


Une matrice carre est dite diagonale 0
si tous ses coefficients
1
non diagonaux sont nuls.
1 0 0
B 0 2 0C
B C
Pour tout (1 , 2 , . . . , n ) Kn , la matrice B . . . .. C est souvent note diag(1 , 2 , . . . , n ).
@ .. .. .. . A
0 0 n
Une matrice carre est dite scalaire si elle est diagonale et si tous ses coefficients diagonaux sont gaux. Les matrices
scalaires de taille n coefficients dans K sont donc toutes les matrices In , dcrivant K.

Thorme (Anneau des matrices diagonales)


(i) Lensemble des matrices diagonales de taille n coefficients dans K est un sous-espace vectoriel et un sous-anneau
de Mn (K). Plus prcisment, pour tous (1 , 2 , . . . , n ), (1 , 2 , . . . , n ) Kn et tous , K :

diag(1 , 2 , . . . , n ) + diag(1 , 2 , . . . , n ) = diag(1 + 1 , 2 + 2 , . . . , n + n )

et diag(1 , 2 , . . . , n ) diag(1 , 2 , . . . , n ) = diag(1 1 , 2 2 , . . . , n n ).

(ii) Une matrice diagonale est inversible si et seulement si ses coefficients diagonaux sont tous non nuls. Plus prcisment,
pour tout (1 , 2 , . . . , n ) Kn tel que k 6= 0 pour tout k J1, nK :
 
1 1 1
diag(1 , 2 , . . . , n )1 = diag , ,..., .
1 2 n

3.3.3 Matrices symtriques et antisymtriques

Dfinition (Matrice symtrique, matrice antisymtrique) Soit A Mn (K).


On dit que A est symtrique si t A = A. On dit que A est antisymtrique si t A = A.

Remarque La diagonale dune matrice antisymtrique est nulle.


En effet Chaque coefficient diagonal doit tre gal son oppos par dfinition de lantisymtrie.

0 1 0 1
1 2 3 0 1 5
Exemple @2 5 0A est symtrique et @1 0 2 A est antisymtrique.
3 0 6 5 2 0

$ $ $ Attention ! Le produit de deux matrices symtriques (resp. antisymtriques) na aucune raison dtre symtrique
(resp. antisymtrique). En effet, si A et B sont symtriques, alors t (AB) = t B t A = BA, et cest pourquoi t (AB) 6= AB en
gnral.

4 Changements de base

Dfinition (Matrice de passage dune base une autre) Soient E un K-espace vectoriel et B et B0 deux bases de E.
On appelle matrice de passage de B B0 la matrice Mat(B0 ) de B0 dans B.
B

14
c Christophe Bertault - MPSI

Thorme Soient E un K-espace vectoriel, B, B0 et B00 trois bases de E, P la matrice de passage de B B0 et P 0 la matrice
de passage de B0 B00 .
(i) P est inversible, P = Mat
0
(IdE ) et P 1 est la matrice de passage de B0 B.
B ,B

(ii) P P est la matrice de passage de B B00 .


0

Dmonstration
(i) P est inversible comme matrice dune base dans une autre base.
Lidentit P = Mat
0
(IdE ) dcoule de la dfinition de la matrice dune application linaire dans des bases.
B ,B
 1

Il en rsulte aussitt que P 1 = Mat
0
IdE = Mat0 Id1
E = Mat0 (IdE ), donc que P 1 est la matrice de
B ,B B,B B,B
passage de B0 B.
(ii) P P 0 = Mat
0
(IdE ) Mat
00 0
(IdE ) = Mat
00
(IdE IdE ) = Mat
00
(IdE ), donc P P 0 est bien la matrice de passage
B ,B B ,B B ,B B ,B
de B B00 . 

   Explication Lassertion (i) du thorme prcdent admet une rciproque


0 :1
toute matrice inversible peut tre vue
1 2 1
comme une matrice de passage. Voyons cela sur lexemple de la matrice P = @0 4 2A, inversible car elle est triangulaire
0 0 8
coefficients diagonaux tous non nuls.
 
1) On peut voir P comme la matrice de passage de la base canonique la base (1, 0, 0), (2, 4, 0), (1, 2, 8) de R3 .
2) On peut voir P comme la matrice de passage de la base canonique la base (1, 4X + 2, 8X 2 + 2X + 1) de R2 [X].
3) Plus abstraitement, si E est un R-espace vectoriel de dimension 3 et si (e1 , e2 , e3 ) en est une base, alors P est la
matrice de passage de (e1 , e2 , e3 ) la base (e1 , 2e1 + 4e2 , e1 + 2e2 + 8e3 ).

Thorme (Thorme du changement de base) Soient E et F deux K-espaces vectoriels, B et B0 deux bases de E, C
et C0 deux bases de F , P la matrice de passage de B B0 et Q la matrice de passage de C C0 .
(i) Version coordonnes : Soit x E. On pose X = Mat(x) et X 0 = Mat
0
(x). Alors : X = P X 0.
B B

(ii) Version matrice dune application linaire : Soit f une application linaire de E dans F . On pose A = Mat(f )
B,C
et A0 = Mat
0 0
(f ). Alors : A0 = Q1 AP .
B ,C

Dmonstration Nous savons que P = Mat


0
(IdE ) et que Q = Mat
0
(IdF ).
B ,B C ,C

(i) En termes matriciels, lgalit x = IdE (x) scrit, dans les bases adaptes, X = P X 0 .
(ii) Cest un simple calcul :
 
A0 = Mat
0 0
(f ) = Mat
0 0
Id1
F f IdE = Mat
0
Id1
F Mat(f ) Mat
0
(IdE )
B ,C B ,C C,C B,C B ,B
 1
= Mat
0
(IdF ) Mat(f ) Mat
0
(IdE ) = Q1 AP. 
C ,C B,C B ,B

Exemple Cet exemple important sera repris


 dans un futur chapitre. On fixe un certain R. On rappelle quen gomtrie,
2 ~
u = cos ~ + sin ~
on note (~, ~) la base canonique de R et : .
~v = sin ~ + cos ~
u , ~v ) est une base de R2 .
(i) (~
   
2 x x0
(ii) Soit ~
u = (x, y) un vecteur de R . Les coordonnes de ~ u dans (~, ~) sont bien sr X = . Notons X 0 = les
y y0
   
cos sin cos sin
coordonnes de ~ u dans la base (~
u , ~v ). Alors : X = X 0 et X 0 = X. Ces formules
sin cos sin cos
sont exactement celles que nous avions trouv dans notre chapitre de gomtrie lmentaire du plan en dbut danne.
En effet
(i) Nous pourrions  dmontrer lalibert de (~ u , ~v ) par exemple. Mais il y a plus simple. La matrice de (~
u , ~v )
cos sin 2 2
dans (~, ~) est . Son dterminant est cos +sin = 1 6= 0, donc cette matrice est inversible.
sin cos
Comme voulu, la famille (~ u , ~v ) est donc une base de R2 .

15
c Christophe Bertault - MPSI

   
cos sin cos sin
(ii) Puisque est la matrice de passage de (~, ~) (~
u , ~v ), la formule X = X0
sin cos sin cos
est dmontre. Lautre formule se dmontre de la mme manire ; on peut remarquer que la matrice de
 1  
cos sin cos sin
passage de (~
u , ~v ) (~, ~) est = .
sin cos sin cos

5 Rang dune matrice

Dfinition (Rang dune matrice) Soit A Mn,p (K). Le rang de A, vue comme application linaire de Kp dans Kn , est
gal au rang de la famille des colonnes de A dans Kn .
On appelle rang de A, not rg(A), la valeur commune de ces deux notions de rang.

Dmonstration Notons C1 , C2 , . . . , Cp les colonnes de A dans lordre naturel et (E1 , E2 , . . . , Ep ) la base


canonique de Kp . Alors : Vect(C1 , C2 , . . . , Cp ) = Vect(AE1 , AE2 , . . . , AEp ) = Im A.
En particulier, Vect(C1 , C2 , . . . , Cp ) et Im A sont de mme dimension. Cest le rsultat voulu. 

Remarque Soit A Mn,p (K). Si A possde une colonne nulle, et si A0 est la matrice obtenue partir de A aprs suppression
de cette colonne nulle, alors rg(A) = rg(A0 ).
En effet Le rang de A est la dimension du sous-espace vectoriel de Kn engendr par les colonnes de A. Or
dans un Vect, on peut toujours se dfaire des vecteurs nuls. Cest pourquoi le rang de A est conserv quand on
supprime une colonne nulle de A.

Corollaire (Rang et inversibilit) Soit A Mn (K). Les assertions suivantes sont quivalentes :
(i) A est inversible. (ii) rg(A) = n.

Dmonstration
A est inversible La famille des colonnes de A est une base de Kn
La dimension du sous-espace vectoriel de Kn engendr par les colonnes de A est n
rg(A) = n. 

Thorme (Relation entre les diffrentes notions de rang) Soient E et F deux K-espaces vectoriels de dimension finie,
B une base de E et C une base de F .
 
(i) Soit F une famille (finie) de vecteurs de E. Alors : rg Mat(F) = rg(F).
B
 
(ii) Soit f une application linaire de E dans F . Alors : rg Mat(f ) = rg(f ).
B,C

   En pratique Ce thorme montre que tout rang (famille de vecteurs ou application linaire) peut tre calcul
comme le rang dune matrice. Or le calcul dun rang fournit de prcieux renseignements. Par exemple, nous avons dmontr les
quivalences suivantes, dans notre chapitre sur les espaces vectoriels de dimension finie :
1) f est injective si et seulement si rg(f ) = dim E. 2) f est surjective si et seulement si rg(f ) = dim F .
Noubliez pas galement le prcieux thorme du rang. Nous tudierons bientt une technique de calcul rapide et simple du rang.

Dmonstration
(i) Introduisons les vecteurs de B et F : B = (e1 , e2 , . . . , en ) et F = (f1 , f2 , . . . , fp ), ainsi que les colonnes
C1 , C2 , . . . , Cp de Mat(F) dans lordre naturel.
B 8
>
< Kn E
Notons en outre lisomorphisme bien connu X
n
B est une base de E. Alors
>
: (k )16k6n 7 k e k
k=1
(Ck ) = fk pour tout k J1, pK puisque Ck est la colonne des coordonnes de fk dans B.

16
c Christophe Bertault - MPSI

Or induit par restriction un isomorphisme de Vect(C1 , C2 , . . . , Cp ) sur Vect(f1 , f2 , . . . , fp ) = Vect(F).


En particulier :
 
rg Mat(F) = rg(C1 , C2 , . . . , Cp ) = dim Vect(C1 , C2 , . . . , Cp ) = dim Vect(F) = rg(F).
B

    (i)  
(ii) rg Mat(f ) = rg Mat f (B) = rg f (B) = dim Vect f (B) = dim Im f = rg(f ). 
B,C C

Lemme (Invariance du rang par produit par une matrice inversible) Soit A Mn,p (K).
P GLp (K), rg(AP ) = rg(A) et Q GLn (K), rg(QA) = rg(A).

Dmonstration Dans cet nonc, considrons chaque matrice comme une application linaire. Alors tout
matrice P GLp (K) est un automorphisme de Kp et toute matrice Q GLn (K) est un automorphisme de Kn . Or
nous savons que le rang dune application linaire nest pas modifi quand on compose cette application par un
automorphisme. Ici, avec des matrices, composer revient faire un produit. Le rsultat sen dduit aussitt. 

Thorme (Dcomposition U Jn,p,r V dune matrice) Soit A Mn,p (K). On note r le rang de A. Il existe alors deux
matrices U GLn (K) et V GLp (K) telles que A = U Jn,p,r V , o Jn,p,r est la matrice de taille n p suivante :
r colonnes
z }| {
0 1
1
B .. C
B . C
B C
B 1 C
Jn,p,r =B
B
C,
C les positions vides de cette matrice tant complter par des 0.
B 0 C
B .. C
@ . A
0

Dmonstration
Considrons A comme une application linaire de Kp dans Kn et notons I un supplmentaire de Ker A dans
Kp . Fixons en outre une base B = (e1 , e2 , . . . , ep ) de Kp dont les r premiers vecteurs forment une base de I
et les (p r) suivants une base de Ker A.
Nous savons que A induit par restriction un isomorphisme de I sur Im A. Par consquent limage de la base
(e1 , e2 , . . . , er ) de I par A est une base de Im A que nous notons (f1 , f2 , . . . , fr ). Compltons cette base de
Im A en une base C = (f1 , f2 , . . . , fn ) de Kn .
La matrice de A dans les bases B et C est alors la matrice Jn,p,r , comme on sen convainc aisment en
crivant cette matrice. Notons alors Bp et Bn les bases canoniques respectives de Kp et Kn , V la matrice
de passage de B Bp et U la matrice de passage de Bn C. La formule de changement de base pour les
applications linaires donne ceci :
 
A = Mat (A) = Mat IdKn Mat(A) Mat IdKp = U Mat(A) V = U Jn,p,r V.
B p ,B n C,B n B,C B p ,B B,C

On obtient Jn,p,r en calculant tout simplement Mat(A). Il suffit de remarquer que A(ek ) = fk pour tout
B,C
k J1, rK, et que A(ek ) = 0Kn pour k Jr + 1, pK. 


Corollaire (Invariance du rang par transposition) Soit A Mn,p (K). Alors : rg t A = rg(A).

Dmonstration  Soient r le rang


 de A, U GLn (K)  et V GLp (K) telles que A = U Jn,p,r V .
Alors : rg t A = rg t (U Jn,p,r V ) = rg t V t Jn,p,r t U = rg t V Jp,n,r t U car t Jn,p,r = Jp,n,r .
Or t U et t V sont inversibles
 car U et V le sont, donc puisque le rang est invariant par multiplication par une
matrice inversible : rg t A = rg(Jp,n,r ) = r. 

17
c Christophe Bertault - MPSI

6 Oprations lmentaires sur les matrices

6.1 Dfinition

Dfinition (Oprations lmentaires sur les lignes et les colonnes) On appelle opration lmentaire sur les lignes
dune matrice les oprations suivantes :
permutation des ime et j me lignes, note Li Lj ;
me
multiplication de la i ligne par le scalaire 6= 0, note Li Li ;
me me
addition de la j ligne multiplie par le scalaire la i ligne (avec i 6= j), note Li Li + Lj .
On dfinit de mme la notion dopration lmentaire sur les colonnes dune matrice. Les notations associes sont respectivement
Ci Cj , Ci Ci et Ci Ci + Cj .

La dmonstration du thorme suivant requiert seulement un minimum denthousiasme calculatoire. Calculez.

Thorme (Oprations lmentaires = multiplication par certaines matrices inversibles) Soit A Mn,p (K).

Soient i, j J1, nK. Lop- Soient i J1, nK et K . Soient i, j J1, nK, i 6= j


ration lmentaire Li Lj est Lopration lmentaire Li Li et K. Lopration lmentaire
quivalente la multiplication de A est quivalente la multiplication de Li Li + Lj est quivalente
gauche par : A gauche par : la multiplication de A gauche par :
0 1
1 i j
..
B . C
B C 0 1 0 1
B 1 C 1 1
B C .. ..
B
i 0 1 C B . C B . C
B C B C B C
B 1 C B 1 C B 1 C
B .. C B C B .. C
B . C B C B . C
B C B C B C
B 1 C B 1 C B
i 1 C
B C B .. C B C
B
j 1 0 C @ . A @ .. A
B C .
B C 1
B 1 C 1
@ .. A
.
1

Toutes les matrices par lesquelles on a multipli A ci-dessus sont inversibles.

Si, au lieu de multiplier gauche, on multiplie A droite par les matrices dcrites ci-dessus, on obtient une simulation des
oprations lmentaires sur les colonnes, respectivement : Ci Cj , Ci Ci et Cj Cj + Ci condition de faire
varier i et j dans J1, pK et non plus dans J1, nK.


Opration lmentaire sur les lignes = Multiplication gauche
$ $ $ Attention ! .
Opration lmentaire sur les colonnes = Multiplication droite

Dmonstration La matrice associe lopration lmentaire Li Lj est inversible car son carr vaut In
cest une symtrie. Quant aux matrices associes aux oprations lmentaires Li Li et Li Li + Lj ,
elle sont triangulaires coefficients diagonaux tous non nuls, donc inversibles. 

6.2 Mthode du pivot de Gauss pour le calcul du rang

Thorme (Proprits dinvariance du rang)


(i) Les oprations lmentaires sur les matrices prservent le rang.
(ii) La suppression dune colonne nulle ou dune ligne nulle prserve le rang.

18
c Christophe Bertault - MPSI

Dmonstration
(i) Les oprations lmentaires ne sont que des multiplications par des matrices inversibles, donc prservent
le rang.
(ii) Nous avons dj prouv le rsultat de lassertion (ii) pour les colonnes. Le cas des lignes sen dduit par
transposition, le rang tant invariant par transposition. 

   En pratique Dcrivons prsent comment lalgorithme du pivot de Gauss peut tre utilis pour calculer rapidement
le rang dune matrice. Partons dune matrice A Mn,p (K). Chaque tape de lalgorithme ramne le calcul du rang de A au
calcul du rang dune matrice de taille strictement plus petite.
0) Si A = 0, alors rg(A) = 0 sortie de lalgorithme.
1) Sinon au moins un coefficient de A est non nul. En permutant les lignes et les colonnes de A, on se ramne au
calcul du rang dune matrice de mme rang que A dont le coefficient a de position (1, 1) est non nul. Ce coefficient a est
alors qualifi de pivot.
2) A laide du pivot a, on annule par des oprations lmentaires sur les lignes tous les termes de la premire colonne
de la matrice obtenue lissue de ltape 1) ( lexception du pivot).
3) Toujours laide du pivot a, on annule ensuite par des oprations lmentaires sur les colonnes tous les termes de
la premire ligne de la matrice obtenue lissue de ltape 2) ( lexception du pivot).
4) La premire colonne de la matrice obtenue lissue de ltape 3) est clairement non combinaison linaire des
autres colonnes de cette matrice. Ceci explique le rsultat de ltape 4) figur ci-dessous.

Etape 1) Etape 2) Etape 3) Etape 4)


0 1 0 1 0 1
a a a 0 0
B C B0 C B0 C
B C B C B C 0
rg(A) = rg B . .. C = rg B .. 0 C = rg B . 0 C = rg(A ) + 1.
@ ..
..
. .A @. A A @ .. A A
0 0
| {z }
Cette tape na pas figurer sur vos copies,
vous pouvez directement passer ltape 4).

Finalement, on reprend les tapes 0) 4) avec la matrice A0 . Lalgorithme se termine avec certitude car A0 est strictement
plus petite que A de par sa taille.

0 1
0 0 1 3
B 1 0 1 2C
B C
Exemple rg B
B 0 0 1 2C
C = 4.
@2 4 4 1A
1 0 3 0
En effet
0 1 0 1 0 1
0 0 1 3 0 0 1 3 4 2 4 1
B 1 0 1 2C B0 1 1 2C B0 1 1 2C
B C B C B C
rg B
B 0 0 1 2C B
C = rg B0 0 1 2C
C C1 C2 = rg B
B0 0 1 2C
C L1 L4
@2 4 4 1A @4 2 4 1A @0 0 1 3A
1 0 3 0 0 1 3 0 0 1 3 0
0 1 0 1
1 1 2 1 1 2
B 0 1 2C B0 1 2C
B
= 1 + rg @ C B
= 1 + rg @ C
0 1 3A 0 1 3A
1 1
1 3 0 0 1 1 L4 L1 + L4
2 2
0 1
1 2
= 2 + rg @1 3A = 2 + 2 = 4 car les deux vecteurs de R3 obtenus sont clairement non colinaires.
1 1

19
c Christophe Bertault - MPSI

6.3 Mthode du pivot de Gauss pour linversiblit dune matrice


   En pratique En rsolvant un systme linaire au moyen de lalgorithme du pivot de Gauss, on a vu quon pouvait
savoir aisment si une matrice est inversible ou non et, le cas chant, calculer linverse de ladite matrice. Nous prsentons ici la
mme mthode dune autre faon, sans systmes linaires. Soit A Mn (K).

Supposons quon puisse ramener A la matrice In par des oprations lmentaires uniquement sur les lignes de A. Si k
oprations lmentaires sont ncessaires, et si chaque opration lmentaire est reprsente par une matrice Pi , i J1, kK, on
a donc : Pk Pk1 . . . P1 A = In , les oprations lmentaires sur les lignes correspondant des multiplications matricielles
gauche. Bref, si P est la matrice Pk Pk1 . . . P1 , alors P A = In . Dans ces conditions, on a montr que A est inversible
et que P = A1 , ou encore A1 = Pk Pk1 . . . P1 In ; A1 sobtient donc partir de la matrice In partir des mmes
oprations qui nous ont fait passer de A In , dans le mme ordre.
Rciproquement, nous admettrons que, si A inversible, alors on peut ramener A la matrice In par des oprations
lmentaires uniquement sur les lignes. La preuve de ce rsultat nest pas difficile, mais ne perdons pas de temps : les
exemples donns ci-dessous vous suffiront amplement.

Et concrtement, comment on fait ? Facile, on crit A et In cte cte. Ensuite on fait subir les mmes oprations lmentaires
aux lignes de ces deux matrices, guids par le souci de transformer A en In . Si cela est possible, alors A est inversible, et dans
ce cas In a t transforme en A1 . Le tour est jou.

$ $ $ Attention ! Il est impratif que vos oprations lmentaires se fassent ici toutes sur les lignes ou bien toutes sur
les colonnes, cest galement possible. Les mlanges sont interdits !

0 1 0 1
1 0 2 3 4 2
Exemple La matrice A = @1 1 2 A est inversible dinverse A1 = @ 1 1 0 A.
0 2 1 2 2 1
En effet Introduisez toujours vos calculs par une petite phrase rituelle dexplication. Par exemple : nous allons
faire subir aux matrices A et In les mmes oprations lmentaires sur les lignes jusqu obtenir, si possible, In
la place de A ; cest alors A1 que nous trouverons la place de In .
0 1 0 1
1 0 2 1 0 0
A= @1 1 2A In = @0 1 0A
00 2 11 0 0 0 1 1
1 0 2 1 0 0
@0 1 0A @1 1 0A L2 L1 L2
00 2 11 0 0 0 11
1 0 2 1 0 0
@0 1 0A @1 1 0A
00 0 11 0 2 2 1 1 L3 2L2 L3
1 0 0 3 4 2 L1 L1 2L3
In = @0 1 0A A1 = @ 1 1 0A
0 0 1 2 2 1

0 1
1 0 2
Exemple La matrice A = @1 3 1 A nest pas inversible.
0 1 1
En effet Nous allons faire subir aux matrices A et In les mmes oprations lmentaires sur les lignes jusqu
obtenir, si possible, In la place de A ; cest alors A1 que nous trouverons la place de In .
0 1 0 1
1 0 2 1 0 0
A= @1 3 1A In = @0 1 0A
00 1 11 00 0 11
1 0 2 1 0 0
@0 3 3A @1 1 0A L2 L1 + L2
00 1 11 00 0 11
1 0 2 1 0 0
@0 3 3A @1 1 0A
0 0 0 1 1 1 L3 L2 + 3L3
Ae ! Dans la partie gauche de la matrice, nous avons transform A en une matrice possdant une ligne nulle par
des oprations lmentaires. Les oprations lmentaires tant des oprations inversibles, cela montre que A nest
pas inversible. Ici, le travail sur la matrice In droite tait donc inutile.

20
c Christophe Bertault - MPSI

7 Un brin de vocabulaire sur les systmes linaires


8
>
>
a11 x1 + a12 x2 + + a1p xp = b1
>
< a21 x1 + a22 x2 + + a2p xp = b2
Soient A Mn,p (K) et B Kn fixs. Notons (S) le systme linaire .. .. .. .. ,
>
> . . . .
>
:
an1 x1 + an2 x2 + + anp xp = bn
ou encore AX = B, dinconnue X Kp . Lobjectif de ce paragraphe est mince : vous donner un peu de vocabulaire et quelques
rsultats sur les systmes linaires, consquences triviales de nos tribulations matricielles.

Dfinition (Systme linaire homogne) On appelle systme linaire homogne associ (S) ou systme linaire sans
second membre associ (S) le systme linaire AX = 0 dinconnue X Kp .

Dfinition (Rang dun systme linaire) On appelle rang de (S) le rang de la matrice A.

Thorme (Structure de lensemble des solutions dun systme linaire)


(i) Lensemble S des solutions du systme linaire homogne associ (S) est un sous-espace vectoriel de Kp de dimension
p rg(A).
(ii) Si (S) possde une solution, alors lensemble de ses solutions est un sous-espace affine de Kp de direction S.

Dmonstration
(i) Par dfinition, S nest autre que le noyau de A vue comme application linaire de Kp dans Kn ; S est donc
un sous-espace vectoriel de Kp . Le thorme du rang nous fournit dim S :

dim S = dim Ker A = dim Kp rg(A) = p rg(A).

(ii) Supposons lexistence dune solution X0 de (S). On montre alors aisment que lensemble des solutions de
(S) est lensemble X0 + S, sous-espace affine de Kp . 

Dfinition (Systme de Cramer) On dit que (S) est de Cramer si A est inversible (n = p ncessairement).

Thorme (Rsolution dun systme de Cramer) Si (S) est de Cramer, (S) admet A1 B comme unique solution.

Dmonstration Rsultat dj dmontr dans notre paragraphe sur les matrices inversibles. 

21

Vous aimerez peut-être aussi