Calcul Matriciel
Calcul Matriciel
Calcul Matriciel
Calcul matriciel
Mathieu Mansuy - Professeur de Mathématiques en supérieures PCSI au Lycée Saint Louis (Paris)
mansuy.mathieu@hotmail.fr
PCSI5 Lycée Saint Louis
1.1 Définitions
Définition.
Soient n et p deux entiers ≥ 1.
S’il n’y a pas d’ambiguı̈té sur le nombre de lignes et le nombre de colonnes, on pourra noter
plus simplement A = (ai,j ).
1 0 −2
Exemple. A = ∈ M2,3 (K). La matrice A est de dimension 2×3 et on a par exemple
3 −1 5
:a1,2 = 0, a2,3 = 5.
où l’unique coefficient non nul égal à 1 est en position (i, j). Les n × p matrices Ei,j sont appelées
matrices élémentaires.
Définition.
Toute matrice n×1 est appelée matrice colonne et toute matrice 1×p est appelée matrice
ligne. On identifie les matrices 1 × 1 avec K.
La matrice nulle de Mn,p (K) est la matrice dont tous les coefficients sont nuls. On la note
0n,p , ou 0n si n = p.
La matrice identité d’ordre n est la matrice de Mn,n (K) dont tous les coefficients diago-
naux sont égaux à 1, les autres étant égaux à 0. Cette matrice est notée In .
2
PCSI5 Lycée Saint Louis
Exemple.
1 0 3 1
−2 3
2 + 2 −5 =
1
− 5 −1 0
2
(3) admet pour élément neutre la matrice nulle 0n,p : ∀ A ∈ Mn,p (K), 0n,p + A =
A + 0n,p = A.
(4) est telle que tout élément admet un inverse : ∀ A ∈ Mn,p (K), ∃ B ∈ Mn,p (K),
B + A = A + B = 0. Cet inverse est unique, c’est B = −A.
Preuve. Soient A = (ai,j )1≤i≤n , B = (bi,j )1≤i≤n et C = (ci,j )1≤i≤n des matrices de Mn,p (K).
1≤j≤p 1≤j≤p 1≤j≤p
Donc A + (B + C) = (A + B) + C.
(2) Pour tout (i, j) ∈ [|1, n|]×[|1, p|], [A+B]i,j = ai,j +bi,j = bi,j +ai,j = [B+A]i,j . Donc A+B = B+A.
(3) Pour tout (i, j) ∈ [|1, n|] × [|1, p|], [A + 0n,p ]i,j = ai,j + 0 = ai,j . Donc A + 0n,p = A. Par
commutativité de +, 0n,p + A = A.
(4) Posons B = −A. Alors pour tout (i, j) ∈ [|1, n|] × [|1, p|], [A + B]i,j = ai,j − ai,j = 0. Donc
A + B = 0n,p . Par commutativité de +, B + A = 0n,p . Enfin, si B 0 est un autre inverse de A, on
a par associativité de + :
B = (B 0 + A) + B = B 0 + (A + B) = B 0 .
3
PCSI5 Lycée Saint Louis
Remarque.
Pour calculer le coefficient [C]i,j , on procèdera selon le schéma ci-dessous (où l’on a représenté
en gras les coefficients de A et B utiles au calcul de ci,j ) :
b1,1 · · · b1,j · · · b1,q
.. .. ..
. . .
bk,1 · · · bk,j · · · bk,q
a1,1 · · · a1,k · · · a1,p c1,1 · · · c1,j · · · c1,q
..
.. .. ..
.. .. . . .
.. .. ..
. . . . . .
ai,1 · · · ai,k · · · ai,p
bp,1 · · · bp,j · · · bp,q
= c
i,1 · · · c i,j · · · ci,q
.. .. .. .. .. ..
. . . . . .
an,1 · · · an,k · · · an,p cn,1 · · · cn,j · · · cn,q
Pour pouvoir effectuer le produit de A par B, il faut impérativement que le nombre de colonnes
de A soit égale au nombre de lignes de B.
Calculer, s’ils sont définis, les produits deux à deux de ces matrices.
4
PCSI5 Lycée Saint Louis
On avait introduit alors la matrice des coefficients associée au système A = (ai,j )1≤i≤n , la matrice
1≤j≤p
b1 x1
colonne B = ... des seconds membres, et la matrice colonne X = ... des inconnues. Avec le
bp xp
produit matriciel introduit ici, le système (S) précédent se réécrit ici sous la forme AX = B. Ainsi, le
p-uplet (x1 ; . . . ; xp ) ∈ Kp est solution du système (S) si et seulement si X est solution de l’équation
matricielle AX = B.
Remarques.
x1
Si X = ... ∈ Mp,1 (K) est une matrice colonne, et si A ∈ Mn,p (K), alors AX est la matrice
xp
colonne :
AX = x1 C1 + · · · + xp Cp ,
où Ci sont les colonnes de la matrice A. AX est donc une combinaison linéaire des colonnes de
A.
XA = x1 L1 + · · · + xn Ln ,
Soient A ∈ Mn,p (K) et B ∈ Mp,q (K). La j-ième colonne de AB est le produit de A par la j-ème
colonne de B (1 ≤ j ≤ q). La i-ème ligne de AB est le produit de la i-ième ligne de A par B
(1 ≤ i ≤ n).
Ainsi, le produit de trois matrices A, B et C pourra être noté ABC sans parenthèses.
et
∀ (A, B, C) ∈ Mn,p (K) × Mn,p (K) × Mp,q (K), (A + B)C = AC + BC.
In × A = A et A × Ip = A,
0n × A = 0n,p et A × 0p = 0n,p
Preuve. Montrons l’associativité du produit matriciel (les autres points se démontrent de la même
façon). Soient A = (ai,j )1≤i≤n , B = (bi,j ) 1≤i≤p et C = (ci,j ) 1≤i≤q des matrices. Alors A × (B ×
1≤j≤p 1≤j≤q 1≤j≤r
5
PCSI5 Lycée Saint Louis
C), (A × B) × C ∈ Mn,r (K), et pour tout (i, l) ∈ [|1, n|] × [|1, r|], on a :
p
X p
X q
X p X
X q
[A × (B × C)]i,l = ai,j [B × C]j,l = ai,j bj,k ck,l = ai,j bj,k ck,l
j=1 j=1 k=1 j=1 k=1
et
q
X q X
X p p X
X q
[(A × B) × C]i,l = [A × B]i,k ck,l = ai,j bj,k ck,l = ai,j bj,k ck,l
k=1 k=1 j=1 j=1 k=1
Remarques.
2. Contrairement à ce qui se passe pour la multiplication dans K, on peut avoir AB = 0n,q avec
A 6= 0n,p et B 6= 0p,q . Par exemple,
0 1 0 1 0 0
× =
0 0 0 0 0 0
Les lignes de Ei,k sont nulles, sauf la ieme . Donc les lignes de Ei,k ×El,j sont nulles, sauf peut-être
la ieme .
Les colonnes de El,j sont nulles, sauf la j eme . Donc les colonnes de Ei,k × El,j sont nulles, sauf
peut-être la j eme .
Le seul coefficient de Ei,k × El,j qui peut être non nul est donc en position (i, j), et c’est le
produit de la ieme ligne de Ei,k et de la j eme colonne de El,j . Il vaut donc 1 si k = l, et 0 sinon.
Autrement dit, t A est obtenue à partir de A par échange des lignes et des colonnes :
a1,1 a1,2 · · · a1,p a1,1 a2,1 · · · an,1
a2,1 a2,p a1,p an,2
t
A= . ; A =
.. .. ..
.. . . .
an,1 an,2 · · · an,p a1,p a2,p · · · an,p
6
PCSI5 Lycée Saint Louis
3 5
Exemple. Calculer la transposée de A = 1 −4.
0 2
t tA
(1) ∀ A ∈ Mn,p (K), = A.
Preuve. Les deux premières formules sont immédiates à établir. Montrons la troisième formule.
Soient A = (ai,j )1≤i≤n et B = (bi,j ) 1≤i≤p deux matrices. Alors A × B ∈ Mn,q (K) est donnée par :
1≤j≤p 1≤j≤q
p
X
∀ (i, j) ∈ [[1, n]] × [[1, q]], ci,j = ai,k bk,j
k=1
Ainsi t (A × B) est une matrice de type (q, n) telle que ∀ (j, i) ∈ [[1, q]] × [[1, n]], [t (A × B)]
Pp i,j =
a b
k=1 j,k k,i .
D’autre part, t B ∈ Mq,p (K), t A ∈ Mp,n (K), donc la matrice t B ×t A est bien définie et de type (q, n)
également. De plus on a pour tout (j, i) ∈ [[1, q]] × [[1, n]] :
p
X p
X
t t t t
[ B × A]j,i = [ B]j,k [ A]k,i = bk,j ai,k .
k=1 k=1
Propriété 5
L’addition matricielle et le produit matriciel sont des lois de compositions internes dans
Mn (K), c’est à dire pour tout A, B ∈ Mn (K), A + B ∈ Mn (K) et A × B ∈ Mn (K).
l’addition est associative, commutative, et qu’elle admet un élément neutre qui est la matrice
nulle 0n ;
le produit est associatif, distributif par rapport à l’addition, et qu’il admet pour élément neutre
In
7
PCSI5 Lycée Saint Louis
On dit alors que l’ensemble Mn (K) munie de l’addition, du produit par un scalaire et du produit
matriciel est une algèbre. Cette algèbre est non commutative : en général,A × B 6= B × A pour
A, B ∈ Mn (K). De plus, il existe des diviseurs de zéros dans Mn (K) (on dit aussi que l’algèbre
Mn (K) n’est pas intègre) : A × B = 0n ; A = 0n ou B = 0n .
A est dite triangulaire supérieure (resp. triangulaire supérieure stricte) si, pour tous
i et j tels que i > j (resp. i ≥ j), ai,j = 0, c’est-à-dire si tous les coefficients situés en dessous
de la diagonale sont nuls.
A est dite triangulaire inférieure si, pour tous i et j tels que i < j (resp. i ≤ j), ai,j = 0,
c’est-à-dire si tous les coefficients situés au dessus de la diagonale sont nuls.
Remarque. La transposée d’une matrice triangulaire supérieure (stricte) est une matrice triangulaire
inférieure (stricte). Une matrice diagonale est égale à sa transposée.
Propriété 6
Preuve. Montrons cette proposition lorsque A = (ai,j ) et B = (bi,j ) sont triangulaires supérieures,
i.e. telles que 1 ≤ j < i ≤ n, ai,j = bi,j = 0. Pour tout 1 ≤ j < i ≤ n, on a :
n
X i−1
X n
X
[A × B]i,j = ai,k bk,j = ai,k bk,j + ai,k bk,j
k=1 k=1 k=i
i−1
X Xn
= 0 × bk,j + ai,k × 0 = 0
k=1 k=i
8
PCSI5 Lycée Saint Louis
car pour la deuxième somme k ≤ i > j et donc bk,j = 0. Donc A × B est bien triangulaire supérieure.
De plus, pour tout 1 ≤ i ≤ n,
n
X i−1
X n
X
[A × B]i,i = ai,k bk,i = ai,k bk,i + ai,i bi,i + ai,k bk,i
k=1 k=1 k=i+1
i−1
X n
X
= 0 × bk,j + ai,i bi,i + ai,k × 0 = ai,i bi,i .
k=1 k=i+1
On dit que A est antisymétrique si elle est égale à l’opposée de sa transposée, c’est-à-dire
t A = −A.
On notera Sn (K) (resp. AS n (K)) l’ensemble des matrices symétriques (resp. antisymétriques) de
Mn (K).
1 0 4 0 2 −1
Exemple. La matrice A = 0 2 −1 est symétrique, la matrice B = −2 0 1 est
4 −1 5 1 −1 0
antisymétrique.
Remarque.
Les ensembles Sn (K) et AS n (K) sont stables par combinaison linéaire, mais ils ne sont pas
stables par produit : par exemple,
1 0 1 1 1 1
× = ∈
/ Sn (K).
0 2 1 1 2 2
Exercice. Montrer que toute matrice de Mn (K) s’écrit de manière unique comme une somme d’une
matrice symétrique et d’une matrice antisymétrique.
Définition.
Pour tout entier k ∈ N et pour toute matrice A ∈ Mn (K), on appelle puissance k-ième de A la
matrice, notée Ak , définie par:
Si k = 0, A0 = In .
Si k = 1, A1 = A.
Si k ≥ 2, Ak = A
| × .{z
. . × A}
k fois
9
PCSI5 Lycée Saint Louis
Soit A une matrice triangulaire supérieure (resp. triangulaire inférieure, diagonale). Alors
pour tout p ∈ N, Ap est triangulaire supérieure (resp. triangulaire inférieure, diagonale).
De plus, si λ1 , . . . , λn sont les coefficients diagonaux de A, on a :
p k k
λ1 ··· λ1 0 · · · 0 λ1 0 · · · 0
. .. .. .
0 λp (∗) .. k 0 λk2 . . . ..
p 2
λ 2 . .
A = .. . . . .
, resp.
..
, resp.
.. . . . .
.
. (∗) . . . 0
. . . . . . 0
0 · · · 0 λpn ··· λkn 0 · · · 0 λkn
Remarques.
Il est donc particulièrement facile de calculer les puissances d’une matrice diagonale : il suffit de
prendre les puissances des termes diagonaux.
Définition.
Une matrice A ∈ Mn (K) est dite nilpotente s’il existe p ∈ N∗ tel que Ap = 0n et Ap−1 6= 0n . Cet
entier p est unique et s’appelle l’ordre de nilpotence de la matrice.
Exemple.
10
PCSI5 Lycée Saint Louis
1 −1
La matrice A = est nilpotente d’ordre 2.
1 −1
0 1 0 0
0 0 1 0
La matrice N =
0
est nilpotente d’ordre 4.
0 0 1
0 0 0 0
Remarques.
Plus généralement, on peut montrer que toute matrice de Mn (K) triangulaire supérieure stricte
ou triangulaire inférieure stricte est nilpotente d’ordre ≤ n.
De même que pour les matrices diagonales, le calcul des puissances d’une matrice nilpotente A
est aisé : en effet, pour tout k ≥ p, Ak = 0n , et il suffit donc de calculer un nombre fini de
puissances de A.
Soient A et B deux matrices de Mn (K) qui commutent, c’est-à-dire telles que AB = BA.
Alors, pour tout entier n ∈ N,
k
X k
(A + B)k = Ai B k−i .
i
i=0
I La formule du binôme de Newton, valable pour deux matrices qui commutent, permet dans certains
cas de calculer la puissance d’une matrice.
1 2 6
Exemple. Soit A = 0 1 2. Calculer Ap pour tout p ∈ N.
0 0 1
Multiplication d’une ligne Li par un scalaire λ non nul ce que l’on note Li ← λLi .
Définition.
Soient 1 ≤ i, j ≤ n et λ ∈ K. On définit les matrices d’opérations élémentaires suivantes. On
appelle
11
PCSI5 Lycée Saint Louis
matrice de transvection toute matrice carrée Ti,j (λ) ∈ Mn (K) de la forme suivante :
1
..
. λ
Ti,j (λ) = In + λEi,j =
1 .
. .
.
1
Exemple. Pour n = 2, on a :
1 0 0 1 1 λ
D2 (λ) = ; P1,2 = ; T1,2 (λ) = .
0 λ 1 0 0 1
Preuve. Il suffit de le vérifier directement. Montrons le par exemple pour le produit T1,2 (λ) × A (le
raisonnement général se faisant de la même façon) :
a1,1 a1,2 · · · a1,p a1,1 + λa2,1 a1,2 + λa2,2 · · · a1,p + λa2,p
1 λ a2,1 a2,2 · · · a2,p a2,1 a2,2 ··· a2,p
0 1 × .. .. .. =
.. .. ..
. . . . . .
In−2
an,1 an,2 · · · an,p an,1 an,2 ··· an,p
12
PCSI5 Lycée Saint Louis
Remarque. Ti,j (λ) = Ti,j (λ) × In , ainsi Ti,j (λ) est la matrice obtenue en appliquant Li ← Li + λLj
à In . Cette remarque permet de retrouver l’expression de Ti,j (λ). On peut bien sûr faire la même
remarque pour les matrices Di (λ) et Pi,j .
Théorème 10
Pour toute matrice A ∈ Mn,p (K), il existe une matrice E produit de matrices d’opérations
élémentaires, et une unique matrice échelonnée réduite par lignes R telles que E × A = R.
−2 1 −1 1 1 2 1 1 2
−2 1 −1 L2 ← L2 + 2L1
1 1 2 L1 ↔ L2 0 3 3
L3 ← L3 − 3L1
3 −2 1 3 −2 1 0 −5 −5
1 1 2 1 0 1
1 L1 ← L1 − L2
L2 ← L2 0 1 1 0 1 1
3 L3 ← L3 + 5L2
0 −5 −5 0 0 0
1 0 1 1 0 1
L1 ← L1 + 31 L3
3
L3 ← L3 0 1 1 0 1 1
17 L2 ← L2 − 13 L3
0 0 0 0 0 0
1 0 1
Ainsi, R = 0 1 1 , et :
0 0 0
E = T2,3 (−1/3) × T1,3 (1/3) × D3 (3/17) × T3,2 (5) × T1,2 (−1) × D2 (1/3) × T3,1 (3) × T2,1 (2) × P1,2
13
PCSI5 Lycée Saint Louis
Propriété 11
Propriété 12
Pour toute matrice A ∈ Mn,p (K), il existe une matrice E 0 produit de matrices d’opérations
élémentaires, et une unique matrice échelonnée réduite par colonnes R0 telles que A × E 0 =
R0 .
Remarque. Si A ∈ Mn,p (K) est de rang r, on a vu qu’il existe une matrice E produit de matrices
d’opérations élémentaires et une matrice R échelonnée réduite par ligne avec r pivots telle que :
EA = R.
Si on agit alors sur les colonnes de R, on obtient une matrice E 0 produit de matrices d’opérations
élémentaires telle que :
0 Ir 0r,p−r
EAE = Jr où Jr = .
0n−r,r 0n−r,p−r
AB = BA = In .
On note GLn (K) l’ensemble des matrices inversibles de Mn (K), appelé groupe linéaire d’ordre n.
Remarque.
On ne peut considérer un inverse que pour une matrice carrée.
Et de même, CA = DA ⇒ C = D.
B1 = B1 × In = B1 × (A × B2 ) = (B1 × A) × B2 = In × B2 = B2 .
14
PCSI5 Lycée Saint Louis
5 1 5 1 5 1
I3 = A − A2 = A × ( In − A) = ( In − A) × A.
4 4 4 4 4 4
3/4 −1/4 −1/4
Ainsi, A est inversible et A−1 = 54 In − 14 A = −1/4 3/4 −1/4.
−1/4 −1/4 3/4
Remarque. Pour une matrice carrée (2, 2) quelconque, on vérifiera la relation suivante :
2
a b a b
= (a + d) − (ad − bc)I2 .
c d c d
Propriété 13
a b
La matrice A = est inversible si et seulement si ad − bc 6= 0. Et dans ce cas, son
c d
inverse est :
−1 1 d −b
A = .
ad − bc −c a
Preuve. Si ad − bc 6= 0, alors on a :
1 a+d 1 a+d 1 a+d
I2 = A2 − A=A× A− I2 = A− I2 × A.
ad − bc ad − bc ad − bc ad − bc ad − bc ad − bc
−1 1 a+d 1 d −b
Ainsi A est inversible, et A = A− I2 = . Supposons que ad−bc =
ad − bc ad − bc ad − bc −c a
0, alors 0 = A2 − (a + d)A. Si A est inversible, alors A = (a + d)I2 , et on aurait :
a = a + d
d = a + d ⇔ a = b = c = d = 0,
b=c=0
15
PCSI5 Lycée Saint Louis
(1) Si A, B ∈ Mn (K) sont deux matrices inversibles, alors AB l’est aussi et (AB)−1 =
B −1 A−1 .
−1
(2) Si A ∈ Mn (K) est inversible, alors t A l’est aussi et t A = t A−1 .
Remarque. L’ensemble GLn (K) est donc stable pour le produit matriciel (mais pas pour la somme
!).
Preuve.
(1) Soient A, B ∈ Mn (K) deux matrices inversibles. On a :
(B −1 A−1 ) × (AB) = B −1 (A−1 A)B = B −1 B = In .
(AB) × (B −1 A−1 ) = A(BB −1 )A−1 = A × A−1 = In .
Ainsi AB est inversible et (AB)−1 = B −1 A−1 .
(2) Soit A ∈ Mn (K) inversible. Alors A × A−1 = A−1 × A = In , et en prenant la transposée :
t
(A−1 ) ×t A =t A ×t (A−1 ).
Remarque. Nous avons vu que pour toute matrice A ∈ Mn,p (K), il existe une matrice E produit de
matrices d’opérations élémentaires, et une unique matrice échelonnée réduite par lignes R telles que
E × A = R. On peut réécrire cette égalité sous la forme :
A = E0 × R
avec E 0 = E −1 produit de matrices d’opérations élémentaires (l’inverse d’une matrice élémentaire
étant une matrice élémentaire).
(5) A ∼ In ;
L
(6) pour toute matrice colonne B ∈ Mn,1 (K), le système AX = B admet une unique
solution ;
(7) pour toute matrice colonne B ∈ Mn,1 (K), le système AX = B admet au moins une
solution.
16
PCSI5 Lycée Saint Louis
Preuve. On montre (1) ⇒ (2) ⇒ (3) ⇒ (4) ⇒ (5) ⇒ (1), puis (1) ⇒ (6) ⇒ (7) ⇒ (4).
(2) ⇒ (3) Soit X ∈ Mn,1 (K) tel que AX = 0. Alors A0 AX = 0, et puisque A0 A = In , on obtient X = 0.
(3) ⇒ (4) Supposons que le rang de A soit strictement plus petit que n. Alors d’après le cours sur les
systèmes linéaires, le système AX = 0 admet une infinité de solutions (il y aura n − r > 0
inconnues paramètres). Ce qui par hypothèse est faux. Donc le rang de A est n.
(4) ⇒ (5) Toujours d’après le cours sur les systèmes linéaires, on a vu que si A est de rang n, alors A ∼ In .
L
(5) ⇒ (1) Si A ∼ In , alors il existe une matrice E, produit de matrices d’opérations élémentaires, telle
L
que A = E × In = E. Or les matrices d’opérations élémentaires sont inversibles, donc E l’est
également, et donc A aussi.
(1) ⇒ (6) Supposons que A est inversible et notons A−1 son inverse. Soit également B ∈ Mn,1 (K).
Considérons le système AX = B. En multipliant à gauche par A−1 , on obtient X = A−1 B.
Donc le système admet bien une unique solution.
(7) ⇒ (4) Supposons que pour toute matrice colonne B ∈ Mn,1 (K), le système AX = B admet au moins
une solution. Montrons que A est de rang r = n. Supposons par l’absurde que r < n. Alors A
est équivalente par ligne à une matrice échelonnée réduite ayant r < n pivots. On sait qu’alors
l’ensemble des solutions peut être vide s’il y a un pivot dans la dernière colonne de la matrice
augmentée. Ainsi il existe B ∈ Mn,1 (K) tel que AX = B n’ai pas de solution, ce qui contredit
l’hypothèse. Ainsi le rang de A est égal à n.
Propriété 16
Soit T ∈ Mn (K) une matrice triangulaire. Alors T est inversible si et seulement si ses
coefficients diagonaux sont tous non nuls.
Preuve. Si tous les coefficients diagonaux de T sont non nuls, on sait alors que pour tout B ∈ Mn (K),
le système AX = B est de Cramer, et donc qu’il admet une unique solution. Ainsi par le théorème
précédent, T est inversible.
Réciproquement, supposons que l’un des coefficients diagonaux ti,i de T soit nul. En appliquant
l’algorithme de Gauss, les i − 1 premiers pivots seront sur la diagonale de la réduite, mais le i-ième
(s’il y en a un) sera en position k > i. Dans tous les cas, il y aura alors au plus i − 1 + (n − k + 1)
pivots, donc au plus n − 1 pivots. La matrice T n’est donc pas de rang n, et T n’est pas inversible.
Propriété 17
17
PCSI5 Lycée Saint Louis
Preuve. On a déjà montré que A ∈ GLn (K) ⇔ ∃B ∈ Mn (K), B × A = In . Supposons qu’il existe
B 0 ∈ Mn (K) telle que A × B 0 = In . Alors en prenant la transposée, t B 0 ×t A = In . En utilisant le
Théorème, on obtient que t A est inversible, et donc A =t (t A)) est inversible aussi.
I Pour montrer qu’une matrice A est inversible, il suffit de trouver une matrice B telle que A×B = In
(resp. B × A = In ). Il est donc inutile de vérifier que B × A = In (resp. A × B = In ), c’est
automatiquement vérifié.
Propriété 18
Toute matrice carrée inversible est le produit d’un nombre fini de matrices d’opérations
élémentaires, ce qui se traduit en disant que le groupe linéaire est engendré par les matrices
d’opérations élémentaires.
Preuve. On vient de le voir, si A est inversible alors A ∼ In et A = E qui est un produit d’un nombre
L
fini de matrices d’opérations élémentaires.
Remarque.
Preuve. La première partie de cette proposition a déjà été démontrée au théorème précédent. Sup-
posons que A ∼ In , alors il existe E produit de matrices d’opérations élémentaires telle que E ×A = In .
L
Ainsi A−1 = E = E × In , et A−1 s’obtient en effectuant sur les lignes de la matrice identité les mêmes
opérations que celle effectuées sur les lignes de A.
I Partant de deux matrices M et In , on effectue sur M et sur In les manipulations élémentaires sur
les lignes qui ramènent M à In , et donc In à M −1 .
18
PCSI5 Lycée Saint Louis
1 2 3
Exemple. On considère la matrice A = 1 4 1 . On applique l’algorithme de Gauss-Jordan à
3 2 1
(A|In ).
1 2 3 1 0 0 1 2 3 1 0 0
1 4 1 0 1 0 L2 ← L2 − L1 0 2 −2 −1 1 0
L3 ← L3 − 3L1
3 2 1 0 0 1 0 −4 −8 −3 0 1
1 2 3 1 0 0
L2 ← 21 L2
0 1 −1 −1/2 1/2 0
0 −4 −8 −3 0 1
1 0 5 2 −1 0
L1 ← L1 − 2L2 0 1 −1 −1/2 1/2 0
L3 ← L3 + 4L2
0 0 −12 −5 2 1
1 0 5 2 −1 0
1 0 1 −1 −1/2 1/2
L3 ← − L3 0
12
0 0 1 5/12 −1/6 −1/12
1 0 0 −1/12 −1/6 5/12
L1 ← L1 − 5L3 0 1 0 −1/12 1/3 −1/12
L2 ← L2 + L3
0 0 1 5/12 −1/6 −1/12
−1/12 −1/6 5/12
Ainsi A est inversible, et A−1 = −1/12 1/3 −1/12 .
5/12 −1/6 −1/12
De plus, l’unique solution de ce système est alors X = A−1 Y . Cela va nous fournir une autre méthode
pour déterminer si A est inversible et pour calculer A−1 le cas échéant.
3 2 −1
Exemple. Calculons l’inverse de la matrice A = 1 −1 1
2 −2 1
On échelonne le système (S) AX = Y .
3x1 + 2x2 − x3 = y1
x1 − x2 + x3 = y2
x1 − x2 + x3 = y2
(S) ⇔ x1 − x2 + x3 = y2 ⇔ 3x1 + 2x2 − x3 = y1 ⇔ 5x2 − 4x3 = y1 − 3y2
2x1 − x2 + x3 = y3 2x1 − x2 + x3 = y3 −x3 = y3 − 2y2
19
PCSI5 Lycée Saint Louis
Le système est sous forme triangulaire avec coefficients diagonaux tous non nuls. On en déduit que le
système (S) est de Cramer, et donc que A est inversible. De plus en faisant la remontée (c’est à dire
en cherchant l’échelonnée réduite), on obtient :
x1 = 1/5y1 + +1/5y3
x1 y1
−1
(S) ⇔ x2 = 1/5y1 + y2 − 4/5y3 ⇔ x2 = A × y2
x3 y3
x3 = 2y2 − y3
1 0 1
1
Il ne reste plus qu’à lire les coefficients de A−1 : A−1 = 1 5 −4
5
0 10 −5
20