Matrices
Matrices
Matrices
Matrices
Dans tout ce chapitre, K est lun des corps R ou C. Tous les rsultats prsents dans ce chapitre demeurent vrais si K est un
corps quelconque, mais nous ne nous en proccuperons pas ici. Les lettres n, p, q . . . dsignent des entiers naturels non nuls.
1.1 Matrices
Dfinition (Matrice)
On appelle matrice n lignes et p colonnes coefficients dans K ou matrice 0
de taille n p coefficients
1
dans K toute
a11 a12 a1p
B a21 a22 a2p C
B C
famille A de np lments de K prsente sous la forme dun tableau de la forme B . .. .. C, not A = aij 16i6n ,
@ .. . . A 16j6p
La matrice de Mn,p (K) dont tous les coefficients sont nuls est appele la matrice nulle de taille n p.
Explication
Une matrice de taille n p coefficients dans K nest finalement quun lment de Knp , i.e. une famillede np lments
a11 a12
de K, mais quon a prfr crire sous forme dun tableau n lignes et p colonnes. Ainsi, au lieu dcrire , on
a21 a22
np
pourrait crire (a11 , a12 , a21 , a22 ). En ce sens, on peut affirmer que Mn,p (K) = K .
Cependant, nous introduirons bientt une loi interne de produit sur les matrices, et vous verrez alors quil est bien pratique
dcrire les matrices comme des tableaux et non comme des familles.
Lusage veut quon utilise le plus possible la lettre i pour indice des lignes, et la lettre j pour indice des colonnes.
Par convention, dans ce cours, si A (majuscule) est une matrice de taille n p, nous noterons aij (minuscule) le coefficient
de A de position (i, j).
1
c Christophe Bertault - MPSI
Explication
1 3 1 0 1+1 3+0 2 3 0 1 40 41 0 4
Exemple : + = = et 4 = = .
2 4 1 1 21 4+1 1 5 1 2 4 (1) 42 4 8
Nous lavons vu, une matrice nest quune famille que lon dcide de noter comme un tableau ; ce nest vraiment quune
question de notation. Cest pourquoi on peut affirmer que Mn,p (K) = Knp . Que deviennent laddition et la multiplication
par un scalaire introduites ci-dessus quand on les exprime au moyen de familles, dans Knp ? Elles deviennent exactement
laddition et la multiplication par un scalaire qui font de Knp un K-espace vectoriel bien connu. Bref, la structure vectorielle
introduite sur Mn,p (K) na rien dune nouveaut : elle nest que la copie conforme de la structure vectorielle de Knp que
nous connaissons bien.
Dans le mme registre, que sont les matrices Ei,j , (i, j) J1, nK J1, pK, quand on les voit comme des familles de Knp et
non plus comme des tableaux ? Elles deviennent exactement les vecteurs de la base canonique de Knp . Rien dtonnant
alors au fait que (Ei,j )16i6n soit une base de Mn,p (K).
16j6p
En pratique Lidentification Mn,p (K) = Knp vous servira peu souvent dans le cas gnral ; elle vous aidera seulement,
je lespre, comprendre do viennent les matrices. Par contre, dans le cas p = 1, vous serez constamment amens identifier 0 1
x1
B x2 C
B C
en pratique les lments de Kn et les lments de Mn,1 (K) ; bref, manipuler les galits de la forme (x1 , x2 , . . . , xn ) = B . C.
@ .. A
xn
De mme, si n = 1, vous manipulerez les galits de la forme (x1 , x2 , . . . , xp ) = x1 x2 xp .
Lillustration ci-dessus fournit la mthode pratique de calcul du produit de deux matrices. Cela dit, sur une copie, vous ntes
pas autoriss crire ainsi les matrices les unes au-dessus des autres.
$ $ $ Attention ! Nous venons de dfinir le produit dune matrice de taille p q par une matrice de taille q r ; cest une
matrice de taille p r. Nous ne savons pas faire le produit de deux matrices en gnral, sil ny a pas, comme on dit, compatibilit
des formats.
2
c Christophe Bertault - MPSI
0 1
X
p
0 10 1 B a1i xi C 0 1
a11 a1p x1 B k=1 C y1
B C B . C X n
Exemple B . .. C B .. C = B .. C et x1 xn @ .. A = x k yk .
@ .. . A @ . A B . C
B C
an1 anp xp BX p C yn k=1
@ A
ani xi
k=1
Le premier exemple implique que tout systme linaire peut tre crit matriciellement sous la forme Y = AX o A est la matrice
des coefficients du systme, X la colonne des inconnues et Y la colonne du second membre. Par exemple :
8 0 10 1 0 1
< 2x + y 3z = a 2 1 3 x a
5y + z = b @0 5 1 A @y A = @ b A .
:
9x + 10y = c 9 10 0 z c
Cest trs pratique car la matrice associe au systme nest autre que la matrice de ses coefficients rangs naturellement, les
places vides tant bien sr compltes par des zros.
$ $ $ Attention !
En gnral, le produit de deux matrices nest pas commutatif cest mme pire que cela, car si le produit est dfini dans
un sens, il ne lest gnralement pas dans lautre pour une raison de compatibilit des formats. Par exemple :
1 1 0 0 1 0 0 0 0 0 1 1
= 6= = .
0 1 1 0 1 0 1 1 1 0 0 1
0 1 1 0
Un produit de matrices peut tre nul sans quaucune de ces matrices soit nulle. Par exemple : = .
0 0 0 0
0 1
1 0 0
B0 1 0C
B C
Dfinition (Matrice identit) On appelle matrice identit de taille n la matrice In = B . .. .. .. C carre de taille n.
@ .. . . .A
0 0 1
Dmonstration Contentons-nous
! de dmontrer lassociativit
" du# produit
! matriciel : (AB)C = A(BC).
X
q
X
r X
q
Puisque AB = aik bkj , alors (AB)C = aik bkl clj .
k=1 16i6p l=1 k=1 16i6p
16j6r ! " r 16j6s
#!
X
r X
q
X
De mme, puisque BC = bil clj , alors A(BC) = aik bkl clj .
l=1 16i6q k=1 l=1 16i6p
16j6s 16j6s
On obtient le rsultat voulue en permutant les symboles de sommation dans (AB)C et A(BC).
Kp Kn
Dfinition (Application linaire associe une matrice) Soit A Mn,p (K). Lapplication est
X 7 AX
linaire ; on lappelle lapplication linaire associe A.
Explication Bien sr, dans cette dfinition, le vecteur X de Kp doit tre vu comme une matrice colonne, via
lidentification Mp,1 (K) = Kp , sans quoi le produit AX naurait pas de sens.
0 1 2 R3 R2
Exemple Soit A = . Lapplication linaire associe A est .
3 4 5 (x, y, z) 7 (y + 2z, 3x + 4y + 5z)
3
c Christophe Bertault - MPSI
1.4 Transposition
Dfinition (Transpose) Soit A Mn,p (K). On appelle transpose de A la matrice (aji ) 16i6p de Mp,n (K), note t A.
16j6n
Explication
La transposition change les lignes et les colonnes des matrices. A quoi cette opration peut-elle bien servir ? A montrer
que tout rsultat thorique sur les colonnes dune matrice est valable au sujet de ses lignes, et rciproquement. Nous y
reviendrons.
La transposition change le nombre de colonnes et le nombre de lignes, de sorte que la transpose dune matrice de taille
n p est une matrice de taille p n. Chose intressante : la transpose dune matrice carre est une matrice carre de
mme taille.
0 1 0 1
3 5
t1
t
3 0 1 B . C
Exemple = @0 2A et @ .. A = 1 n .
5 2 7
1 7 n
Dmonstration Seule lassertion sur le produit mrite dtre dmontre. Posons C = t (AB) et D = t B t A.
Montrons que C et D ont les mmes coefficients. Soit (i, j) J1, rKJ1, pK. Il suffit alors dobserver quon a lgalit
X
q
suivante : cij = ajk bki = dij videmment, il faut rflchir deux secondes (voire plus).
k=1
Dfinition (Matrice dune famille de vecteurs dans une base) Soient E un K-espace vectoriel de dimension n,
(e1 , e2 , . . . , en ) une base de E et (x1 , x2 , . . . , xp ) une famille quelconque de vecteurs de E. Pour tout (i, j) J1, nK J1, pK, notons
aij la ime coordonne de xj dans la base (e1 , e2 , . . . , en ).
La matrice aij 16i6n , note Mat (x1 , x2 , . . . , xp ), est appele matrice de la famille (x1 , x2 , . . . , xp ) dans la base
16j6p (e1 ,e2 ,...,en )
(e1 , e2 , . . . , en ). x1 x2 xj xp
0 1
a11 a12 a1j a1p e1
B C
B C
B a21 a2p C
B a22 a2j C e2
B C
B C
B . .. .. .. C
B . C
B . . . . C
B C
Mat (x1 , x2 , . . . , xp ) = B C
(e1 ,e2 ,...,en ) B C
B ai1 ai2 aij aip C ei
B C
B C
B C
B .. .. .. .. C
B . . . . C
B C
@ A
an1 an2 anj anp en
4
c Christophe Bertault - MPSI
Exemple
Soient E un K-espace vectoriel de dimension finie et B une base de E. Alors pour tout x E, Mat(x) est la colonne des
B
coordonnes de x dans B. 0 1
1 2
B0
1C
Soit B4 la base canonique de R . Alors Mat (1, 0, 3, 1), (2, 1, 0, 1) = B
4
@3
C.
B4 0A
1 1
0 1 0 1
1 0 0 0 0 0
B2 1 1C B1 0 0C
B C B C
Mat (X 3 +2X +1, X, X 2 X) = B
B0 0 1 C
C et Mat (X 3 +2X +1, X 2 X, X) = B
B0 1 0C
C.
(1,X,X 2 ,X 3 ,X 4 ) @1 0 0 A (X 4 ,X 3 ,X 2 ,X,1) @2 1 1A
0 0 0 1 0 0
$ $ $ Attention ! Si on change la base dans laquelle on exprime la matrice dune famille de vecteurs, il est bien vident que
la matrice en question change aussi. Lexemple ci-dessus montre en particulier quen changeant lordre des vecteurs on modifie
compltement la tte de la matrice.
Thorme (Toute matrice est gale la matrice de ses colonnes dans la base canonique) Soit A Mn,p (K) de
colonnes C1 , C2 , . . . , Cp Mn,1 (K) ranges dans lordre naturel.
Si BMn,1 (K) est la base canonique de Mn,1 (K), alors : A = Mat (C1 , C2 , . . . , Cp ).
BM
n,1 (K)
Dmonstration Rflchissez !
Dfinition (Matrice dune application linaire dans des bases) Soient E et F deux K-espaces vectoriels de dimensions
respectives p et n, B = (e1 , e2 , . . . , ep ) une base de E et C = (f1 , f2 , . . . , fn ) une base de F .
Soit f une application linaire de E dans F . On appelle matrice de f dans B et C et on note Mat(f ) la matrice de la famille
B,C
$ $ $ Attention ! Si on change les bases dans lesquelles on exprime la matrice dune application linaire, il est bien
vident que la matrice en question change aussi. Un exemple le montre un peu plus bas.
0 1
1 0 0
B0 1 0C
B C
Exemple Si E est de dimension finie n et si B est une base de E, alors Mat(IdE ) est la matrice B . . .. .. C carre de
B @ .. .. . .A
0 0 1
taille n, note In , dont tous les coefficients diagonaux sont gaux 1 et dont tous les autres coefficients sont nuls.
5
c Christophe Bertault - MPSI
R2 R3
Exemple Soit lapplication linaire .
(x, y) 7 (x, x + y, y x)
0 1
1 0
(i) Notons B2 et B3 les bases canoniques respectives de R et R . Alors : 2 3
Mat () = @ 1 1A.
B 2 ,B 3
1 1
(ii) Posons B02 = (0, 1), (1, 0) et B03 = (1, 1, 1), (1, 1, 0), (1, 0, 0) , bases de R2 et R3 respectivement.
0 1
1 1
Alors : Mat () = @ 0 2 A.
B 02 ,B 03
1 0
En effet
(i) Dterminons les coordonnes de (1, 0) et (0, 1) dans la base canonique B3 de R3 .
(1, 0) = (1, 1, 1) et (0, 1) = (0, 1, 1). Ce sont dj les coordonnes voulues.
R4 [X] R5 [X]
Exemple Soit T lapplication linaire . Si B4 et B5 dsignent les bases canoniques
P 7 X 4 P (3) + P (2) + P (X)
0 1
2 2 4 8 16
B0 1 0 0 0C
B C
B0 0 1 0 0C
respectives de K4 [X] et K5 [X], alors : Mat (T ) = BB C.
B 4 ,B 5 B0 0 0 1 0 C C
@0 0 0 6 1A
0 0 0 0 24
En effet Il nous suffit de dterminer les coordonnes des vecteurs T (1), T (X), T (X 2 ), T (X 3 ) et T (X 4 ) dans la
base (1, X, X 2 , X 3 , X 4 , X 5 ), puis de les ranger convenablement dans un tableau.
T (1) = 0 + 1 + 1 = 2, T (X) = 0 + 2 + (X) = X + 2, T X 2 = 0 + 22 + (X)2 = X 2 + 4,
T X 3 = X 4 6 + 23 + (X)3 = 6X 4 X 3 + 8 et T X 4 = X 4 24X + 24 + (X)4 = 24X 5 + X 4 + 16.
Thorme (Toute matrice est gale la matrice de lapplication linaire qui lui est associe
p dans lesn bases
K K
canoniques) Soit A Mn,p (K). Nous savons que A peut tre vue comme une application linaire que
X 7 AX
nous notons aussi A.
Si Bp et Bn sont les bases canoniques respectives de Kp et Kn , alors : A = Mat (A).
B p ,B n
Dmonstration Rflchissez !
Thorme (Une application linaire est entirement dtermine par sa matrice dans des bases) Soient E et F
deux K-espaces vectoriels
( de dimensions respectives p et n, B une base de E et C une base de F .
L(E, F ) Mn,p (K)
Alors lapplication f 7 Mat(f ) est un isomorphisme de L(E, F ) sur Mn,p (K).
B,C
Dmonstration
La construction de la matrice dune application linaire rend vidente la linarit de lapplication Mat du
B,C
thorme cest le genre de choses quon ne comprend bien quen les crivant proprement soi-mme.
Nous savons que : dim L(E, F ) = dim E dim F = np = dim Mn,p (K). Pour montrer que lapplication
du thorme est bijective, il nous suffit donc de montrer quelle est injective.
Soient f, g L(E, F ) telles que Mat(f ) = Mat(g). Notons e1 , e2 , . . . , ep les vecteurs de B, dans lordre. Alors
B,C B,C
par dfinition de la matrice dune application linaire, f (ej ) et g(ej ) ont la mme colonne de coordonnes dans
C pour tout j J1, pK ; on a donc f (ej ) = g(ej ). Or les applications linaires sont entirement dtermines
par limage quelles renvoient dune base de lespace de dpart, donc ici f = g comme voulu.
6
c Christophe Bertault - MPSI
Thorme (Rgles de calcul pour passer dun point de vue vectoriel un point de vue matriciel, et vis versa)
(i) Soient E et F deux K-espaces vectoriels de dimension finie, B une base de E et C une base de F .
Soient en outre u une application linaire de E dans F , x E et y F . Posons U = Mat(u), X = Mat(x) et Y = Mat(y).
B,C B C
On a lquivalence fondamentale suivante :
y = u(x) Y = U X.
Dmonstration
(i) Introduisons les vecteurs de B et C : B = (e1 , e2 , . . . , ep ) et C = (f1 , f2 , . . . , fn ).
!
X
n X
p
X
n X
p
X
n X
p
X
n
y = u(x) yi fi = u x j ej yi fi = xj u(ej ) yi fi = xj uij fi
i=1 j=1 i=1 j=1 i=1 j=1 i=1
!
X
n X
n X
p
X
p
yi fi = uij xj fi i J1, nK, yi = uij xj Y = U X.
i=1 i=1 j=1 j=1
(ii) Posons A = Mat (f ), B = Mat (g) et C = Mat (g f ). Nous devons montrer que BA = C, i.e. que C
B 1 ,B 2 B 2 ,B 3 B 1 ,B 3
et BA ont les mmes colonnes.
Introduisons les vecteurs de B1 : B1 = (e1 , e2 , . . . , en ). Soit alors j J1, nK. La j me colonne de C est,
par dfinition, la colonne des coordonnes de g f (ej ) dans B3 .
Or si Ej dsigne la colonne des coordonnes de ej dans B1 un 1 en j me position, que des 0 ailleurs alors
AEj est la colonne des coordonnes de f (ej ) dans B2 via (i). Mais pour la mme raison, B(AEj ) = (BA)Ej
est donc la colonne des coordonnes de g f (ej ) dans B3 , i.e. la j me colonne de C. Pour finir, on remarque
que (BA)Ej nest autre que la j me colonne du produit BA, de sorte que C et BA ont la mme j me colonne,
comme prvu.
0 1
4 0 0
Exemple Soit R lendomorphisme de R3 dont la matrice dans la base canonique de R3 est @0 1
3A.
0 3 3
Alors Ker R = Vect (0, 3, 1) .
0 1
0 0 1 1
B1 1 1 1C
Exemple Lendomorphisme de R3 [X] dont la matrice dans la base canonique de R3 [X] est = B @ 0
C est la
2 1 2A
1 2 1 2
symtrie par rapport Vec(X 3 + X 2 + X, X 2 + 1) paralllement Vect(X 3 + X + 1, X 3 + X 2 ).
7
c Christophe Bertault - MPSI
En effet
Par dfinition, est linaire. Montrer que est une symtrie revient donc montrer que 2 = IdR3 [X] . Dun
point de vue matriciel, cela revient donc dire que 2 = I4 . On vrifie aisment que cette galit est correcte.
Cherchons le sous-espace vectoriel de R3 [X] par rapport auquel est une symtrie, savoir Ker( IdR3 [X] ).
Pour tout P = aX 3 + bX 2 + cX + d R3 [X] :
0 1 0 1 8
d d >
> b a = d
BcC BcC <
d + c + b a = c
P Ker( IdR3 [X] ) (P ) = P B C B C
@bA = @bA
>
> 2c + b 2a = b
:
a a d + 2c + b 2a = a
8
>
> d + b a = 0
<
d + b a = 0 d + b a = 0
>
> c a = 0 c a = 0
:
d + 2c + b 3a = 0
8
>
> a =
<
b = +
, R/ . Ainsi Ker( IdR3 [X] ) = Vec(X 3 + X 2 + X, X 2 + 1).
>
> c =
:
d =
k
pk A (somme finie).
k=0
Le thorme suivant est une consquence immdiate des rsultats dmontrs prcdemment. Quant aux formules qui le
suivent, on les dmontrerait ici comme on la fait dans C en dbut danne.
Thorme (Anneau Mn (K)) Mn (K), +, est un anneau dlment neutre In pour la multiplication. Pour n > 2, cet
anneau nest ni commutatif ni intgre.
Thorme (Deux formules connatre) Soient A, B Mn (K). On suppose que A et B commutent. Alors pour tout
kN: !
X
k
k
k
(A + B) = Ai B ki (formule du binme de Newton)
i=0
i
X
k1
et Ak B k = (A B) Ai B ki1 .
i=0
8
c Christophe Bertault - MPSI
0 1 0 1
1 1 2 1 k 2k
Exemple Soit A = @0 1 0A. Alors pour tout k N : A = @0
k
1 0 A.
0 0 1 0 0 1
0 1
0 1 2
En effet Pour calculer les puissances de A, crivons A = I3 + J avec J = @0 0 0A. Bien sr, I3 et J
0 0 0
commutent car I3 commute avec toute matrice carre de taille 3, et on remarque 0 que J2 =1 0, donc que J i = 0
!
X k
k 1 k 2k
pour tout i > 2. Par consquent : k N, Ak = I3i J ki = I3 + kJ = @0 1 0 A.
i
i=0 0 0 1
Thorme (Les anneaux( L(E) et Mn (K) sont isomorphes) Soit E un K-espace vectoriel de dimension n et B une base
L(E) Mn (K)
de E. Alors lapplication f 7 Mat(f ) est un isomorphisme danneaux.
B
Dmonstration Cette application, on la dj vu, est un isomorphisme linaire, donc une bijection et un
morphisme de groupes pour laddition. Nous avons galement dj vu quelle transforme les produits en produits,
ici sous la forme suivante : f, g L(E), Mat(f g) = Mat(f ) Mat(g). Enfin : Mat(IdE ) = In .
B B B B
A
$ $ $ Attention ! La notation , o A et B sont deux matrices, est rigoureusement interdite.
B
Dfinition (Groupe linaire) Lensemble des matrices inversibles de Mn (K) est not GLn (K). Alors GLn (K), est un
groupe dinverse In appel le groupe linaire de degr n sur K.
(
L(E) Mn (K)
Remarque Soient E un K-espace vectoriel de dimension n et B une base de E. Nous savons que f 7 Mat(f )
( B
GL(E) GLn (K)
est un isomorphisme danneaux. Alors lapplication restreinte f 7 Mat(f ) est un isomorphisme de groupes.
B
a c
Thorme (Inversibilit des matrices carres de taille 2) Soient a, b, c, d K. On appelle dterminant de ,
b d
a c a c
not det ou , le scalaire ad bc.
b d b d
1
a c a c 1 d c
La matrice est inversible si et seulement si son dterminant est non nul. Alors = .
b d b d ad bc b a
9
c Christophe Bertault - MPSI
Dmonstration
1 c d a c a c 1 d c
Si ad bc 6= 0, alors = = I2 simple calcul
ad bc a b b d b d ad bc b a
a c 1 d c
donc est inversible dinverse .
b d ad bc b a
a c d c a c
Si ad bc = 0, alors = 0. Supposons (par labsurde) inversible. Alors en
b d b a b d
1
a c d c
multipliant par lgalit prcdente on obtient = 0, i.e. a = b = c = d = 0, et donc
b d b a
a c a c a c
= 0. Contradiction, car nous avons suppos inversible, donc non nulle. Ainsi est
b d b d b d
non inversible comme voulu.
Pour pouvoir donner dautres exemples de matrices inversibles, nous avons besoin de rsultats thoriques sur linversiblit
des matrices.
Thorme (Bijectivit = inversibilit) Soient E et F deux K-espaces vectoriels de mme dimension finie, B une base de
E, C une base de F . Soit en outre f une application linaire de E dans F . Alors :
1
Dans ce cas : Mat f 1 = Mat(f ) .
C,B B,C
Dmonstration
Si f est bijective, alors Mat(f ) Mat f 1 = Mat(IdF ) = In et Mat f 1 Mat(f ) = Mat(IdE ) = In , et
B,C C,B
C C,B B,C B
donc Mat(f ) est inversible dinverse Mat f 1 .
B,C C,B
Rciproquement, si A = Mat(f ) est inversible, soit g lunique application linaire de F dans E pour laquelle
B,C
Mat(g) = A1 . Alors Mat(g f ) = Mat(g) Mat(f ) = A1 A = In et de mme Mat(f g) = In . On en
C,B B C,B B,C C
dduit que g f = IdE et que f g = IdF , bref que f est bijective de E sur F , comme voulu.
Corollaire (AB = In suffit) Soient A, B Mn (K) telles que AB = In . Alors A et B sont inversibles, inverses lune de
lautre.
Explication En principe, montrer que A est inversible revient montrer lexistence dune matrice B telle que
AB = In et BA = In . Ce thorme montre que lune ou lautre des assertions suffit en ralit, ce qui est bien pratique.
Corollaire (Caractrisation des matrices inversibles en termes de systmes linaires) Soit A Mn (K). Les
assertions suivantes sont quivalentes :
(i) A est inversible.
(ii) Pour tout second membre Y Kn , le systme linaire Y = AX dinconnue X Kn possde une et une seule
solution ; en dautres termes : Y Kn , ! X Kn / Y = AX.
10
c Christophe Bertault - MPSI
En pratique Ce thorme nous fournit une mthode en or pour montrer quune matrice carre est inversible et
calculer son inverse.
En effet, soit A Mn (K). Faisons lhypothse que, pour tout second membre Y Kn , nous avons su trouver une unique
solution X Kn au systme linaire Y = AX. Alors A est inversible.
De plus, avoir trouv cet unique X, cest avoir transform le systme linaire Y = AX en un systme linaire de la forme
X = BY , o B Mn (K). Ce qui est intressant, cest quon a alors B = A1 . La mthode de rsolution des systmes
linaires la plus systmatique est bien sr la mthode du pivot de Gauss.
0 1 0 1
1 3 1 2 3 4
Exemple La matrice @1 2 2A est inversible dinverse @ 1 1 1 A.
0 0 1 0 0 1
En effet Notons A la matrice tudie.
Soit Y = (y1 , y2 , y3 ) R3 . Pour tout X = (x1 , x2 , x3 ) R3 :
0 10 1 0 1 8
1 3 1 x1 y1 < x1 + 3x2 + x3 = y1
Y = AX @1 2 2A @x2 A = @y2 A x1 + 2x2 + 2x3 = y2
:
0 0 1 x3 y3 x3 = y3
8
< x1 + 3x2 + x3 = y1
x2 x3 = y1 y2 L1 L1 L2
:
x3 = y3 .
Si on est juste intress par linversibilit de A, on peut conclure ds maintenant. En effet, le systme obtenu
ci-dessus est triangulaire coefficients diagonaux non nuls, donc possde une et une seule solution. Ceci
montre que lquation Y = AX dinconnue X possde une et une seule solution pour tout second membre
Y , i.e. que A est inversible.
Et si on veut aussi calculer A1 ? On reprend la rsolution du systme Y = AX o la laiss ci-dessus.
8 0 1 0 10 1
< x1 = 2y1 + 3y2 4y3 x1 2 3 4 y1
Y = AX x2 = y1 y2 + y3 @x2 A = @ 1 1 1 A @y 2 A .
:
x3 = y3 x3 0 0 1 y3
0 1
2 3 4
Et voil : A1 =@ 1 1 1A comme annonc.
0 0 1
0 1
1 0 2
Exemple La matrice @2 3 2A nest pas inversible.
3 6 6
En effet Soit Y = (y1 , y2 , y3 ) R3 . Pour tout X = (x1 , x2 , x3 ) R3 :
0 10 1 0 1 8
1 0 2 x1 y1 < x1 + 2x3 = y1
Y = AX @2 3 2A @x2 A = @y2 A 2x1 + 3x2 2x3 = y2
:
3 6 6 x3 y3 3x1 + 6x2 6x3 = y3
8
< x1 + 2x3 = y1
3x2 6x3 = y2 2y1 L2 L2 2L1
:
6x2 12x3 = y3 3y1 L3 L3 3L1
8
< x1 + 2x3 = y1
3x2 6x3 = y2 2y1
:
0 = y3 2y2 + y1 L3 L3 2L2 .
Le systme obtenu est triangulaire, mais lun de ses coefficients diagonaux est nul, il ne possde donc pas une
unique solution, ce qui prouve la non-inversibilit de la matrice considre.
Thorme (Base = inversibilit) Soient E un K-espace vectoriel de dimension n, B une base de E et F une famille de n
vecteurs de E. Les assertions suivantes sont quivalentes :
(i) F est une base de E. (ii) Mat(F) est inversible.
B
11
c Christophe Bertault - MPSI
Corollaire (Caractrisation des matrices inversibles au moyen de leurs lignes/colonnes) Soit A Mn (K). Les
assertions suivantes sont quivalentes :
(i) A est inversible.
(ii) La famille des colonnes de A est une base de Kn cela revient dire quelle est libre ou gnratrice.
(iii) La famille des lignes de A est une base de Kn cela revient dire quelle est libre ou gnratrice.
Dmonstration
(i) (ii) Nous savons que A est gale la matrice de ses colonnes dans la base canonique de Kn . Le thorme
prcdent montre donc lquivalence (i) (ii).
(ii) (iii) Nous savons que A est inversible si et seulement t A lest, et que la transposition change les lignes
et les colonnes de A. Lquivalence (i) (iii) se dduit donc de lquivalence (i) (ii).
Dfinition (Matrice triangulaire) Une matrice carre est dite triangulaire suprieure (resp. infrieure) si ses coefficients
situs strictement au-dessous (resp. strictement au-dessus) de la diagonale sont nuls.
0 1 0 1
1 2 3 1 0 0
Exemple @0 4 5A est triangulaire suprieure et @2 4 0A est triangulaire infrieure.
0 0 6 3 5 6
Explication Nous avons montr dans ce chapitre quune matrice est inversible si et seulement si le systme linaire
associ cette matrice possde une et une seule solution pour tout second membre. La caractrisation des matrices triangulaires
nonce dans ce thorme est quivalente au principe suivant que nous avons massivement utilis jusquici : Un systme linaire
triangulaire possde une et une seule solution si et seulement si ses coefficients diagonaux sont tous non nuls .
Dmonstration Nous pouvons nous contenter de travailler avec les matrices triangulaires suprieures ; le cas
des matrices triangulaires infrieures sen dduit par transposition.
(i) Il est facile de montrer que lensemble des matrices triangulaires suprieures de taille n est un sous-espace
vectoriel de Mn (K). Il est en outre clair que In est triangulaire suprieure. Pour montrer que nous avons aussi
affaire un sous-anneau, il nous reste montrer que le produit de deux matrices triangulaires suprieures
est encore une matrice triangulaire suprieure.
Soient A, B Mn (K) triangulaires suprieures. Posons C = AB et montrons que C est triangulaire sup-
X
n
rieure. Soient i, j J1, nK tels que i > j. Alors cij = aik bkj . Jaffirme que chacun des termes de cette
k=1
somme est nul. En effet, soit k J1, nK. Comme i > j, alors k < i ou k > j forcment. Dans le premier cas,
aik = 0 ; dans le second, bkj = 0. Dans les deux cas, on a donc aik bkj = 0 comme annonc.
12
c Christophe Bertault - MPSI
Fixons T Mn+1 (K) triangulaire suprieure et notons T 0 la sous-matrice de T obtenue par suppression des
dernire ligne et dernire colonne. Alors T 0 Mn (K) est triangulaire suprieure. Pour tous X, Y Kn+1 :
0 10 1 0 1
t11 t12 t13 t1,n+1 x1 y1
B 0 t22 t23 t2,n+1 C B x 2 C B y2 C
B CB C B C
B 0 0 t33 t3,n+1 C B x 3 C B y3 C
Y = TX B CB C=B C
B . .. .. .. .. CB . C B . C
@ .. . . . . A @ .. A @ .. A
0 0 0 tn+1,n+1 xn+1 yn+1
8
>
>
t11 x1 + t12 x2 + ... + t1,n+1 xn+1 = y1
>
< t22 x2 + ... + t2,n+1 xn+1 = y2
..
>
> .
>
:
tn+1,n+1 xn+1 = yn+1
8
>
>
t11 x1 + t12 x2 + ... + t1n xn = y1 t1,n+1 xn+1
>
< t22 x2 + ... + t2n = y2 t2,n+1 xn+1
.. et tn+1,n+1 xn+1 = yn+1
>
> .
>
:
tnn xn = yn tn,n+1 xn+1
0 10 1 0 1
t11 t12 t13 t1n x1 y1 t1,n+1 xn+1
B 0 t22 t23 t2n C B x2 C B y2 t2,n+1 xn+1 C
B CB C B C
B 0 0 t33 t3n C B C B C
B C B x3 C = B y3 t3,n+1 xn+1 C et tn+1,n+1 xn+1 = yn+1
B . .. .. .. .. C B .. C B .. C
@ .. . . . . A@ . A @ . A
0 0 0 tnn xn yn tn,n+1 xn+1
| {z } | {z }
X0 Y0
@ t A
0 0 0 snn yn
n,n+1
xn+1 x n
tn+1,n+1
8
>
>
s11 y1 + s12 y2 + ... + s1n yn + $ yn+1 = x1
>
>
>
> s22 y2 + ... + s2n yn + $ yn+1 = x2
>
< ..
.
>
>
>
> snn yn + $ yn+1 = xn
>
>
>
: 1
yn+1 = xn+1
tn+1,n+1
Les symboles $ dsignent des quantits que lon na pas souhait expliciter par souci de simplicit. Ce qui
compte de 0 soit triangulaire suprieur. La matrice T 1 est finalement
tout faon, cest que le systme obtenu 1
s11 s12 s13 s1n $
B C
B 0 s22 s23 s2n $ C
B C
B 0 0 s33 s3n $ C
B C
la matrice B
B .
.. .. .. . . .
. .
. C triangulaire suprieure.
C
B . . . . . C
B C
B 0 0 0 snn $ C
@ 1 A
0 0 0 0
tn+1nn+1
0 1 0 1
1 2 5 1 2 11
Exemple Linverse de la matrice @0 1 3A est la matrice @0 1 3 A.
0 0 1 0 0 1
13
c Christophe Bertault - MPSI
(ii) Une matrice diagonale est inversible si et seulement si ses coefficients diagonaux sont tous non nuls. Plus prcisment,
pour tout (1 , 2 , . . . , n ) Kn tel que k 6= 0 pour tout k J1, nK :
1 1 1
diag(1 , 2 , . . . , n )1 = diag , ,..., .
1 2 n
0 1 0 1
1 2 3 0 1 5
Exemple @2 5 0A est symtrique et @1 0 2 A est antisymtrique.
3 0 6 5 2 0
$ $ $ Attention ! Le produit de deux matrices symtriques (resp. antisymtriques) na aucune raison dtre symtrique
(resp. antisymtrique). En effet, si A et B sont symtriques, alors t (AB) = t B t A = BA, et cest pourquoi t (AB) 6= AB en
gnral.
4 Changements de base
Dfinition (Matrice de passage dune base une autre) Soient E un K-espace vectoriel et B et B0 deux bases de E.
On appelle matrice de passage de B B0 la matrice Mat(B0 ) de B0 dans B.
B
14
c Christophe Bertault - MPSI
Thorme Soient E un K-espace vectoriel, B, B0 et B00 trois bases de E, P la matrice de passage de B B0 et P 0 la matrice
de passage de B0 B00 .
(i) P est inversible, P = Mat
0
(IdE ) et P 1 est la matrice de passage de B0 B.
B ,B
Dmonstration
(i) P est inversible comme matrice dune base dans une autre base.
Lidentit P = Mat
0
(IdE ) dcoule de la dfinition de la matrice dune application linaire dans des bases.
B ,B
1
Il en rsulte aussitt que P 1 = Mat
0
IdE = Mat0 Id1
E = Mat0 (IdE ), donc que P 1 est la matrice de
B ,B B,B B,B
passage de B0 B.
(ii) P P 0 = Mat
0
(IdE ) Mat
00 0
(IdE ) = Mat
00
(IdE IdE ) = Mat
00
(IdE ), donc P P 0 est bien la matrice de passage
B ,B B ,B B ,B B ,B
de B B00 .
Thorme (Thorme du changement de base) Soient E et F deux K-espaces vectoriels, B et B0 deux bases de E, C
et C0 deux bases de F , P la matrice de passage de B B0 et Q la matrice de passage de C C0 .
(i) Version coordonnes : Soit x E. On pose X = Mat(x) et X 0 = Mat
0
(x). Alors : X = P X 0.
B B
(ii) Version matrice dune application linaire : Soit f une application linaire de E dans F . On pose A = Mat(f )
B,C
et A0 = Mat
0 0
(f ). Alors : A0 = Q1 AP .
B ,C
(i) En termes matriciels, lgalit x = IdE (x) scrit, dans les bases adaptes, X = P X 0 .
(ii) Cest un simple calcul :
A0 = Mat
0 0
(f ) = Mat
0 0
Id1
F f IdE = Mat
0
Id1
F Mat(f ) Mat
0
(IdE )
B ,C B ,C C,C B,C B ,B
1
= Mat
0
(IdF ) Mat(f ) Mat
0
(IdE ) = Q1 AP.
C ,C B,C B ,B
15
c Christophe Bertault - MPSI
cos sin cos sin
(ii) Puisque est la matrice de passage de (~, ~) (~
u , ~v ), la formule X = X0
sin cos sin cos
est dmontre. Lautre formule se dmontre de la mme manire ; on peut remarquer que la matrice de
1
cos sin cos sin
passage de (~
u , ~v ) (~, ~) est = .
sin cos sin cos
Dfinition (Rang dune matrice) Soit A Mn,p (K). Le rang de A, vue comme application linaire de Kp dans Kn , est
gal au rang de la famille des colonnes de A dans Kn .
On appelle rang de A, not rg(A), la valeur commune de ces deux notions de rang.
Remarque Soit A Mn,p (K). Si A possde une colonne nulle, et si A0 est la matrice obtenue partir de A aprs suppression
de cette colonne nulle, alors rg(A) = rg(A0 ).
En effet Le rang de A est la dimension du sous-espace vectoriel de Kn engendr par les colonnes de A. Or
dans un Vect, on peut toujours se dfaire des vecteurs nuls. Cest pourquoi le rang de A est conserv quand on
supprime une colonne nulle de A.
Corollaire (Rang et inversibilit) Soit A Mn (K). Les assertions suivantes sont quivalentes :
(i) A est inversible. (ii) rg(A) = n.
Dmonstration
A est inversible La famille des colonnes de A est une base de Kn
La dimension du sous-espace vectoriel de Kn engendr par les colonnes de A est n
rg(A) = n.
Thorme (Relation entre les diffrentes notions de rang) Soient E et F deux K-espaces vectoriels de dimension finie,
B une base de E et C une base de F .
(i) Soit F une famille (finie) de vecteurs de E. Alors : rg Mat(F) = rg(F).
B
(ii) Soit f une application linaire de E dans F . Alors : rg Mat(f ) = rg(f ).
B,C
En pratique Ce thorme montre que tout rang (famille de vecteurs ou application linaire) peut tre calcul
comme le rang dune matrice. Or le calcul dun rang fournit de prcieux renseignements. Par exemple, nous avons dmontr les
quivalences suivantes, dans notre chapitre sur les espaces vectoriels de dimension finie :
1) f est injective si et seulement si rg(f ) = dim E. 2) f est surjective si et seulement si rg(f ) = dim F .
Noubliez pas galement le prcieux thorme du rang. Nous tudierons bientt une technique de calcul rapide et simple du rang.
Dmonstration
(i) Introduisons les vecteurs de B et F : B = (e1 , e2 , . . . , en ) et F = (f1 , f2 , . . . , fp ), ainsi que les colonnes
C1 , C2 , . . . , Cp de Mat(F) dans lordre naturel.
B 8
>
< Kn E
Notons en outre lisomorphisme bien connu X
n
B est une base de E. Alors
>
: (k )16k6n 7 k e k
k=1
(Ck ) = fk pour tout k J1, pK puisque Ck est la colonne des coordonnes de fk dans B.
16
c Christophe Bertault - MPSI
(i)
(ii) rg Mat(f ) = rg Mat f (B) = rg f (B) = dim Vect f (B) = dim Im f = rg(f ).
B,C C
Lemme (Invariance du rang par produit par une matrice inversible) Soit A Mn,p (K).
P GLp (K), rg(AP ) = rg(A) et Q GLn (K), rg(QA) = rg(A).
Dmonstration Dans cet nonc, considrons chaque matrice comme une application linaire. Alors tout
matrice P GLp (K) est un automorphisme de Kp et toute matrice Q GLn (K) est un automorphisme de Kn . Or
nous savons que le rang dune application linaire nest pas modifi quand on compose cette application par un
automorphisme. Ici, avec des matrices, composer revient faire un produit. Le rsultat sen dduit aussitt.
Thorme (Dcomposition U Jn,p,r V dune matrice) Soit A Mn,p (K). On note r le rang de A. Il existe alors deux
matrices U GLn (K) et V GLp (K) telles que A = U Jn,p,r V , o Jn,p,r est la matrice de taille n p suivante :
r colonnes
z }| {
0 1
1
B .. C
B . C
B C
B 1 C
Jn,p,r =B
B
C,
C les positions vides de cette matrice tant complter par des 0.
B 0 C
B .. C
@ . A
0
Dmonstration
Considrons A comme une application linaire de Kp dans Kn et notons I un supplmentaire de Ker A dans
Kp . Fixons en outre une base B = (e1 , e2 , . . . , ep ) de Kp dont les r premiers vecteurs forment une base de I
et les (p r) suivants une base de Ker A.
Nous savons que A induit par restriction un isomorphisme de I sur Im A. Par consquent limage de la base
(e1 , e2 , . . . , er ) de I par A est une base de Im A que nous notons (f1 , f2 , . . . , fr ). Compltons cette base de
Im A en une base C = (f1 , f2 , . . . , fn ) de Kn .
La matrice de A dans les bases B et C est alors la matrice Jn,p,r , comme on sen convainc aisment en
crivant cette matrice. Notons alors Bp et Bn les bases canoniques respectives de Kp et Kn , V la matrice
de passage de B Bp et U la matrice de passage de Bn C. La formule de changement de base pour les
applications linaires donne ceci :
A = Mat (A) = Mat IdKn Mat(A) Mat IdKp = U Mat(A) V = U Jn,p,r V.
B p ,B n C,B n B,C B p ,B B,C
On obtient Jn,p,r en calculant tout simplement Mat(A). Il suffit de remarquer que A(ek ) = fk pour tout
B,C
k J1, rK, et que A(ek ) = 0Kn pour k Jr + 1, pK.
Corollaire (Invariance du rang par transposition) Soit A Mn,p (K). Alors : rg t A = rg(A).
17
c Christophe Bertault - MPSI
6.1 Dfinition
Dfinition (Oprations lmentaires sur les lignes et les colonnes) On appelle opration lmentaire sur les lignes
dune matrice les oprations suivantes :
permutation des ime et j me lignes, note Li Lj ;
me
multiplication de la i ligne par le scalaire 6= 0, note Li Li ;
me me
addition de la j ligne multiplie par le scalaire la i ligne (avec i 6= j), note Li Li + Lj .
On dfinit de mme la notion dopration lmentaire sur les colonnes dune matrice. Les notations associes sont respectivement
Ci Cj , Ci Ci et Ci Ci + Cj .
Thorme (Oprations lmentaires = multiplication par certaines matrices inversibles) Soit A Mn,p (K).
Si, au lieu de multiplier gauche, on multiplie A droite par les matrices dcrites ci-dessus, on obtient une simulation des
oprations lmentaires sur les colonnes, respectivement : Ci Cj , Ci Ci et Cj Cj + Ci condition de faire
varier i et j dans J1, pK et non plus dans J1, nK.
Opration lmentaire sur les lignes = Multiplication gauche
$ $ $ Attention ! .
Opration lmentaire sur les colonnes = Multiplication droite
Dmonstration La matrice associe lopration lmentaire Li Lj est inversible car son carr vaut In
cest une symtrie. Quant aux matrices associes aux oprations lmentaires Li Li et Li Li + Lj ,
elle sont triangulaires coefficients diagonaux tous non nuls, donc inversibles.
18
c Christophe Bertault - MPSI
Dmonstration
(i) Les oprations lmentaires ne sont que des multiplications par des matrices inversibles, donc prservent
le rang.
(ii) Nous avons dj prouv le rsultat de lassertion (ii) pour les colonnes. Le cas des lignes sen dduit par
transposition, le rang tant invariant par transposition.
En pratique Dcrivons prsent comment lalgorithme du pivot de Gauss peut tre utilis pour calculer rapidement
le rang dune matrice. Partons dune matrice A Mn,p (K). Chaque tape de lalgorithme ramne le calcul du rang de A au
calcul du rang dune matrice de taille strictement plus petite.
0) Si A = 0, alors rg(A) = 0 sortie de lalgorithme.
1) Sinon au moins un coefficient de A est non nul. En permutant les lignes et les colonnes de A, on se ramne au
calcul du rang dune matrice de mme rang que A dont le coefficient a de position (1, 1) est non nul. Ce coefficient a est
alors qualifi de pivot.
2) A laide du pivot a, on annule par des oprations lmentaires sur les lignes tous les termes de la premire colonne
de la matrice obtenue lissue de ltape 1) ( lexception du pivot).
3) Toujours laide du pivot a, on annule ensuite par des oprations lmentaires sur les colonnes tous les termes de
la premire ligne de la matrice obtenue lissue de ltape 2) ( lexception du pivot).
4) La premire colonne de la matrice obtenue lissue de ltape 3) est clairement non combinaison linaire des
autres colonnes de cette matrice. Ceci explique le rsultat de ltape 4) figur ci-dessous.
Finalement, on reprend les tapes 0) 4) avec la matrice A0 . Lalgorithme se termine avec certitude car A0 est strictement
plus petite que A de par sa taille.
0 1
0 0 1 3
B 1 0 1 2C
B C
Exemple rg B
B 0 0 1 2C
C = 4.
@2 4 4 1A
1 0 3 0
En effet
0 1 0 1 0 1
0 0 1 3 0 0 1 3 4 2 4 1
B 1 0 1 2C B0 1 1 2C B0 1 1 2C
B C B C B C
rg B
B 0 0 1 2C B
C = rg B0 0 1 2C
C C1 C2 = rg B
B0 0 1 2C
C L1 L4
@2 4 4 1A @4 2 4 1A @0 0 1 3A
1 0 3 0 0 1 3 0 0 1 3 0
0 1 0 1
1 1 2 1 1 2
B 0 1 2C B0 1 2C
B
= 1 + rg @ C B
= 1 + rg @ C
0 1 3A 0 1 3A
1 1
1 3 0 0 1 1 L4 L1 + L4
2 2
0 1
1 2
= 2 + rg @1 3A = 2 + 2 = 4 car les deux vecteurs de R3 obtenus sont clairement non colinaires.
1 1
19
c Christophe Bertault - MPSI
Supposons quon puisse ramener A la matrice In par des oprations lmentaires uniquement sur les lignes de A. Si k
oprations lmentaires sont ncessaires, et si chaque opration lmentaire est reprsente par une matrice Pi , i J1, kK, on
a donc : Pk Pk1 . . . P1 A = In , les oprations lmentaires sur les lignes correspondant des multiplications matricielles
gauche. Bref, si P est la matrice Pk Pk1 . . . P1 , alors P A = In . Dans ces conditions, on a montr que A est inversible
et que P = A1 , ou encore A1 = Pk Pk1 . . . P1 In ; A1 sobtient donc partir de la matrice In partir des mmes
oprations qui nous ont fait passer de A In , dans le mme ordre.
Rciproquement, nous admettrons que, si A inversible, alors on peut ramener A la matrice In par des oprations
lmentaires uniquement sur les lignes. La preuve de ce rsultat nest pas difficile, mais ne perdons pas de temps : les
exemples donns ci-dessous vous suffiront amplement.
Et concrtement, comment on fait ? Facile, on crit A et In cte cte. Ensuite on fait subir les mmes oprations lmentaires
aux lignes de ces deux matrices, guids par le souci de transformer A en In . Si cela est possible, alors A est inversible, et dans
ce cas In a t transforme en A1 . Le tour est jou.
$ $ $ Attention ! Il est impratif que vos oprations lmentaires se fassent ici toutes sur les lignes ou bien toutes sur
les colonnes, cest galement possible. Les mlanges sont interdits !
0 1 0 1
1 0 2 3 4 2
Exemple La matrice A = @1 1 2 A est inversible dinverse A1 = @ 1 1 0 A.
0 2 1 2 2 1
En effet Introduisez toujours vos calculs par une petite phrase rituelle dexplication. Par exemple : nous allons
faire subir aux matrices A et In les mmes oprations lmentaires sur les lignes jusqu obtenir, si possible, In
la place de A ; cest alors A1 que nous trouverons la place de In .
0 1 0 1
1 0 2 1 0 0
A= @1 1 2A In = @0 1 0A
00 2 11 0 0 0 1 1
1 0 2 1 0 0
@0 1 0A @1 1 0A L2 L1 L2
00 2 11 0 0 0 11
1 0 2 1 0 0
@0 1 0A @1 1 0A
00 0 11 0 2 2 1 1 L3 2L2 L3
1 0 0 3 4 2 L1 L1 2L3
In = @0 1 0A A1 = @ 1 1 0A
0 0 1 2 2 1
0 1
1 0 2
Exemple La matrice A = @1 3 1 A nest pas inversible.
0 1 1
En effet Nous allons faire subir aux matrices A et In les mmes oprations lmentaires sur les lignes jusqu
obtenir, si possible, In la place de A ; cest alors A1 que nous trouverons la place de In .
0 1 0 1
1 0 2 1 0 0
A= @1 3 1A In = @0 1 0A
00 1 11 00 0 11
1 0 2 1 0 0
@0 3 3A @1 1 0A L2 L1 + L2
00 1 11 00 0 11
1 0 2 1 0 0
@0 3 3A @1 1 0A
0 0 0 1 1 1 L3 L2 + 3L3
Ae ! Dans la partie gauche de la matrice, nous avons transform A en une matrice possdant une ligne nulle par
des oprations lmentaires. Les oprations lmentaires tant des oprations inversibles, cela montre que A nest
pas inversible. Ici, le travail sur la matrice In droite tait donc inutile.
20
c Christophe Bertault - MPSI
Dfinition (Systme linaire homogne) On appelle systme linaire homogne associ (S) ou systme linaire sans
second membre associ (S) le systme linaire AX = 0 dinconnue X Kp .
Dfinition (Rang dun systme linaire) On appelle rang de (S) le rang de la matrice A.
Dmonstration
(i) Par dfinition, S nest autre que le noyau de A vue comme application linaire de Kp dans Kn ; S est donc
un sous-espace vectoriel de Kp . Le thorme du rang nous fournit dim S :
(ii) Supposons lexistence dune solution X0 de (S). On montre alors aisment que lensemble des solutions de
(S) est lensemble X0 + S, sous-espace affine de Kp .
Dfinition (Systme de Cramer) On dit que (S) est de Cramer si A est inversible (n = p ncessairement).
Thorme (Rsolution dun systme de Cramer) Si (S) est de Cramer, (S) admet A1 B comme unique solution.
Dmonstration Rsultat dj dmontr dans notre paragraphe sur les matrices inversibles.
21