TDMatrices Corrige

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 53

© Laurent Garcin MP Dumont d’Urville

Matrices
Calculs élémentaires
Solution 1

On obtient après tout calcul,


⎛ − 1 − 𝑖 1 + 2𝑖 ⎞
⎜ − 5 8 − 5𝑖 ⎟.
⎜ ⎟
⎝ −2 𝑖 ⎠
Solution 2

D’après la formule définissant le produit matriciel,

𝑎2 + 𝑏𝑐 𝑎𝑏 + 𝑏𝑑
M2 = ( ).
𝑎𝑐 + 𝑐𝑑 𝑏𝑐 + 𝑑 2

Or,
𝑎2 + 𝑎𝑑 𝑎𝑏 + 𝑏𝑑
(𝑎 + 𝑑)M = ( ).
𝑎𝑐 + 𝑐𝑑 𝑎𝑑 + 𝑑 2
On a donc
M 2 + (𝑎 + 𝑑)M + (𝑎𝑑 − 𝑏𝑐)𝕀 2 = 𝕆2 .
Solution 3

Notons, pour tout 1 ⩽ 𝑘 ⩽ 𝑛, S𝑘 la somme des coefficients de la 𝑘-ième colonne de A. D’après la formule définissant le produit matriciel,

⎛ S1 S2 … S𝑛 ⎞
⎜ S1 S2 … S𝑛 ⎟
UA = ⎜ ⎟
⋮ ⋮ ⋮
⎜ ⎟
⎝ S1 S2 … S𝑛 ⎠
De même, puisque S1 + … + S𝑛 = σ(A), on a
⎛ σ(A) σ(A) … σ(A) ⎞
⎜ σ(A) σ(A) … σ(A) ⎟
UAU = ⎜ ⎟
⋮ ⋮ ⋮
⎜ ⎟
⎝ σ(A) σ(A) … σ(A) ⎠
ainsi ,
UAU = σ(A)U.
Solution 4

On a
A(B − A − 𝕀 𝑛 ) = 𝕀 𝑛
ainsi A est-elle inversible d’inverse B − A − 𝕀 𝑛 et donc

A(B − A − 𝕀 𝑛 ) = (B − A − 𝕀 𝑛 )A

d’où AB = BA.
Solution 5

Notons
C = (𝑐𝑖,𝑗 )1⩽𝑖,𝑗⩽𝑛 et D = (𝑑𝑖,𝑗 )1⩽𝑖,𝑗⩽𝑛 .

http://lgarcin.github.io 1
© Laurent Garcin MP Dumont d’Urville

• Calcul de C : pour tous 1 ⩽ 𝑖, 𝑗 ⩽ 𝑛, on a


𝑐𝑖,𝑗 = 𝑎𝑖,𝑗 − 𝑏𝑖,𝑗 = 2𝑗.

• Calcul de D : pour tous 1 ⩽ 𝑖, 𝑗 ⩽ 𝑛, on a


𝑛 𝑛
𝑑𝑖,𝑗 = ∑ 𝑎𝑖,𝑘 𝑏𝑘,𝑗 = ∑ (𝑖 + 𝑘)(𝑘 − 𝑗)
𝑘=1 𝑘=1
𝑛 𝑛 𝑛
= (𝑖 − 𝑗) ∑ 𝑘 + ∑ 𝑘2 − 𝑖𝑗 ∑ 1
𝑘=1 𝑘=1 𝑘=1
𝑛(𝑛 + 1) 𝑛(𝑛 + 1)(2𝑛 + 1)
= (𝑖 − 𝑗) + − 𝑛𝑖𝑗
2 6

Solution 6

On vérifie facilement que pour 𝑥, 𝑦 ∈ ℝ, M(𝑥)M(𝑦) = M(𝑥 + 𝑦). On a en particulier pour tout 𝑥 ∈ ℝ, M(𝑥)M(−𝑥) = M(0) = I3 , ce qui
prouve que M(𝑥) est inversible. Ainsi G ⊂ GL3 (ℝ).
Vérifions que G est un sous-groupe de GL3 (ℝ) :
• I3 = M(0) ∈ G ;
• pour 𝑥, 𝑦 ∈ ℝ, M(𝑥)M(𝑦) = M(𝑥 + 𝑦) ∈ G ;
• pour 𝑥 ∈ ℝ, M(𝑥)−1 = M(−𝑥) ∈ G.
Ceci prouve que G est un sous-groupe de GL3 (ℝ). De plus, l’application M ∶ 𝑥 ↦ M(𝑥) est un morphisme de (ℝ, +) dans (G, ×) puisque
M(𝑥)M(𝑦) = M(𝑥 + 𝑦) pour tous 𝑥, 𝑦 ∈ ℝ. M est surjectif par définition de G. De plus, M(𝑥) = I3 implique 𝑥 = 0, ce qui prouve que M est
injectif. Ainsi M est un isomorphisme de (ℝ, +) sur (G, ×).
Solution 7

Soit (𝑖, 𝑗) ∈ J1, 𝑛K × J1, 𝑞K. Alors


𝑛
(AB)𝑖𝑗 = ∑ A𝑖𝑘 B𝑘𝑗 ≥ 0
𝑘=1
comme somme de termes positifs.
Soit 𝑗 ∈ J1, 𝑞K. La somme des coefficients de la 𝑗ème colonne de AB est :
𝑛 𝑛 𝑝
∑(AB)𝑖𝑗 = ∑ ∑ A𝑖𝑘 B𝑘𝑗
𝑖=1 𝑖=1 𝑘=1
𝑝 𝑛
= ∑ (B𝑘𝑗 ∑ A𝑖𝑘 )
𝑘=1 𝑖=1
𝑝 𝑛
= ∑ B𝑘𝑗 car ∑ A𝑖𝑘 = 1
𝑘=1 𝑖=1
=1

Ainsi AB est stochastique.

Puissances
Solution 8

1. Posons
⎛ 0 2 3 ⎞
J=⎜ 0 0 2 ⎟
⎜ ⎟
⎝ 0 0 0 ⎠

http://lgarcin.github.io 2
© Laurent Garcin MP Dumont d’Urville

de sorte que A = I3 + J. On remarque que J3 = 0 et que J et I3 commutent. On a donc, d’après la formule du binôme,
𝑛(𝑛 − 1) 2
A𝑛 = I3 + 𝑛J + J .
2
Puisque
⎛ 0 0 4 ⎞
2
J = ⎜ 0 0 0 ⎟,
⎜ ⎟
⎝ 0 0 0 ⎠
on a,
2
⎛ 1 2𝑛 2𝑛 + 𝑛 ⎞
A2 = ⎜ 0 1 2𝑛 ⎟.
⎜ ⎟
⎝ 0 0 1 ⎠
2. Posons
0 1
J = ( )
0 0
de sorte que A = 𝑎I3 + 𝑏J. On remarque que J2 = 0 et que 𝑏J et 𝑎I3 commutent. On a donc, d’après la formule du binôme,
A𝑛 = 𝑎𝑛 I3 + 𝑛𝑎𝑛−1 𝑏J.
Ainsi, pour 𝑛 ⩾ 2,
𝑎𝑛 𝑛𝑎𝑛−1 𝑏
A𝑛 = ( ).
0 𝑎𝑛

3. Grâce aux formules d’addition trigonométriques, on prouve sans peine par récurrence sur 𝑛 que

cos(𝑛θ) − sin(𝑛θ)
A𝑛 = ( ).
sin(𝑛θ) cos(𝑛θ)

Remarque. A est une matrice de rotation vectorielle plane , ce qui rend le calcul de A𝑛 banal…

4. On a
14 −10
A2 = ( ),
5 −1
ainsi, par un calcul sans difficulté,
A2 − 5A + 6I2 = 0.
On remarque que le polynôme
P = X2 − 5X + 6 = (X − 2)(X − 3)
est annulateur de la matrice A. Effectuons la division euclidienne de X𝑛 par P ≠ 0. Il existe un polynôme réel Q et deux réels 𝑎𝑛 , 𝑏𝑛
tels que
X𝑛 = PQ + 𝑎𝑛 X + 𝑏𝑛 .
Après évaluation en 2 et 3 , on obtient le système
2𝑛 = 2𝑎𝑛 + 𝑏𝑛
{ ,
3𝑛 = 3𝑎𝑛 + 𝑏𝑛
d’où
𝑎𝑛 = 3𝑛 − 2𝑛 et 𝑏𝑛 = 3 ⋅ 2𝑛 − 2 ⋅ 3𝑛 .
On a donc
A𝑛 = 𝑎𝑛 A + 𝑏𝑛 I2
2𝑛+1 − 3𝑛 2𝑛 − 3𝑛
= ( ).
2 ⋅ 3𝑛 − 2𝑛+1 2 ⋅ 3𝑛 − 2𝑛

http://lgarcin.github.io 3
© Laurent Garcin MP Dumont d’Urville

Solution 9

Notons
⎛ 𝑢𝑛 ⎞
X𝑛 = ⎜ 𝑣𝑛 ⎟.
⎜ ⎟
⎝ 𝑤𝑛 ⎠
Le système se traduit par l’égalité matricielle
X𝑛+1 = MX𝑛 ,
où l’on a posé
⎛ 0 1 1 ⎞
M = ⎜ 1 0 1 ⎟.
⎜ ⎟
⎝ 1 1 0 ⎠
Ainsi, par une récurrence immédiate,
∀𝑛 ⩾ 0 , X𝑛 = M 𝑛 X0 .
Notons U = (1)1⩽𝑖,𝑗⩽3 de sorte que
M = U − I3 .
Puisque U2 = 3U, on a
(M + I3 )2 = 3(M + I3 ),
c’est-à-dire M 2 − M − 2I3 . Le polynôme
P = X2 − X − 2 = (X + 1)(X − 2)
est annulateur de la matrice M. Effectuons la division euclidienne de X𝑛 par P ≠ 0. Il existe un polynôme réel Q et deux réels 𝑎𝑛 , 𝑏𝑛 tels que

X𝑛 = PQ + 𝑎𝑛 X + 𝑏𝑛 .

Après évaluation en −1 et 2, on obtient le système


2𝑛 = 2𝑎𝑛 + 𝑏𝑛
{ ,
(−1)𝑛 = −𝑎𝑛 + 𝑏𝑛
d’où
2𝑛 − (−1)𝑛 2𝑛 + 2(−1)𝑛
𝑎𝑛 = et 𝑏𝑛 = .
3 3
On a donc M 𝑛 = 𝑎𝑛 M + 𝑏𝑛 I3 , d’où l’expression de M 𝑛 ,
2𝑛 +2(−1)𝑛 2𝑛 −(−1)𝑛 2𝑛 −(−1)𝑛
⎛ 3 3 3 ⎞
2𝑛 −(−1)𝑛 2𝑛 +2(−1)𝑛 2𝑛 −(−1)𝑛
M =⎜
𝑛 ⎟
⎜ 3 3 3 ⎟
2𝑛 −(−1)𝑛 2𝑛 −(−1)𝑛 2𝑛 +2(−1)𝑛
⎝ 3 3 3 ⎠
puis
2𝑛 +2(−1)𝑛 2𝑛 −(−1)𝑛 2𝑛 −(−1)𝑛
⎧ 𝑢𝑛 = 3
𝑢0 +
3
𝑣0 +
3
𝑤0

⎪ 2𝑛 −(−1)𝑛 2𝑛 +2(−1)𝑛 2𝑛 −(−1)𝑛
𝑣 = 𝑢0 + 𝑣0 + 𝑤0
⎨ 𝑛 3 3 3

⎪ 2𝑛 −(−1)𝑛 2𝑛 −(−1)𝑛 2𝑛 +2(−1)𝑛
⎩ 𝑤𝑛 = 3
𝑢0 +
3
𝑣0 +
3
𝑤0
Solution 10

Le polynôme
P = X3 − X2 − 4X + 4 = (X − 1)(X − 2)(X + 2)
est annulateur de la matrice A. Effectuons la division euclidienne de X𝑛 par P ≠ 0. Il existe un polynôme réel Q et trois réels 𝑎𝑛 , 𝑏𝑛 , 𝑐𝑛 tels
que
X𝑛 = PQ + 𝑎𝑛 X2 + 𝑏𝑛 X + 𝑐𝑛 .

http://lgarcin.github.io 4
© Laurent Garcin MP Dumont d’Urville

Après évaluation en ±2 et 1, on obtient le système


1 = 𝑎𝑛 + 𝑏𝑛 + 𝑐𝑛
{ 2𝑛 = 4𝑎𝑛 + 2𝑏𝑛 + 𝑐𝑛 ,
(−2)𝑛 = 4𝑎𝑛 − 2𝑏𝑛 + 𝑐𝑛
d’où
−1 + 2𝑛 − 2𝑛−2 [1 + (−1)𝑛+1 ]
⎧ 𝑎𝑛 =
⎪ 3

𝑏𝑛 = [1 + (−1)𝑛+1 ]2𝑛−2 ,


⎪ 4 − 2𝑛 − 2𝑛−1 [1 + (−1)𝑛+1 ]
⎩ 𝑐𝑛 =
3
et
A𝑛 = 𝑎𝑛 A2 + 𝑏𝑛 A + 𝑐𝑛 𝕀 𝑝 .
Solution 11

1. On a A2 = I3 ,
⎛ 0 1 0 ⎞
2
B =⎜ 0 0 1 ⎟
⎜ ⎟
⎝ 1 0 0 ⎠
et B3 = I3 . On en déduit les calculs suivants :

▶ Puissances de A : si 𝑛 est pair A𝑛 = I3 , sinon A𝑛 = A.

▶ Puissances de B : si 𝑛 ≡ 0 [3], B𝑛 = I3 ; si 𝑛 ≡ 1 [3], B𝑛 = B ; si 𝑛 ≡ 2 [3], B𝑛 = B2 .


2. On a
⎛ 0 0 1 ⎞ ⎛ 0 1 0 ⎞
AB = ⎜ 0 1 0 ⎟ , BA = ⎜ 1 0 0 ⎟ ,
⎜ ⎟ ⎜ ⎟
⎝ 1 0 0 ⎠ ⎝ 0 0 1 ⎠
puis
⎛ 0 1 0 ⎞ ⎛ 0 0 1 ⎞
2
AB = ⎜ 1 0 0 ⎟ et B A = ⎜ 0 1 0
2 ⎟.
⎜ ⎟ ⎜ ⎟
⎝ 0 0 1 ⎠ ⎝ 1 0 0 ⎠
Solution 12

Posons
⎛ 1 0 1 ⎞
I = I3 et K = ⎜ 0 0 0 ⎟
⎜ ⎟
⎝ 1 0 1 ⎠
de sorte que M = 𝑏I + 𝑎K. Comme I et K commutent, on peut appliquer la formule du binôme :
𝑛
𝑛
M 𝑛 = (𝑏I + 𝑎K)𝑛 = ∑ ( )𝑎ℓ 𝑏𝑛−ℓ Kℓ .
ℓ=0

On prouve par une récurrence immédiate que, pour tout entier 𝑚 ⩾ 1, on a :
𝑚−1
⎛ 2 0 2𝑚−1 ⎞
𝑚
K =⎜ 0 0 0 ⎟.
⎜ ⎟
𝑚−1
⎝ 2 0 2𝑚−1 ⎠

http://lgarcin.github.io 5
© Laurent Garcin MP Dumont d’Urville

En notant 𝑛
𝑛
𝑠 = ∑ ( )𝑎ℓ 𝑏𝑛−ℓ 2ℓ−1 ,
ℓ=1

on aboutit donc à :
𝑛
⎛ 𝑠+𝑏 0 𝑠 ⎞
𝑛
M =⎜ 0 𝑏𝑛 0 ⎟.
⎜ ⎟
⎝ 𝑠 0 𝑠 + 𝑏𝑛 ⎠
On conclut en appliquant à nouveau la formule du binôme :
𝑛
𝑛
𝑠 = ∑ ( )𝑎ℓ 𝑏𝑛−ℓ 2ℓ−1
ℓ=1

𝑛
1 𝑛
= ( ∑ ( )𝑎ℓ 𝑏𝑛−ℓ 2ℓ − 𝑏𝑛 )
2 ℓ=1 ℓ
(𝑏 + 2𝑎)𝑛 − 𝑏𝑛
= .
2
Solution 13

Notons B𝑘 = A𝑘 + A−𝑘 . On a l’égalité suivante en termes de fractions rationnelles :

X𝑘+2 + X−(𝑘+2) = (X𝑘+1 + X−(𝑘+1) ) (X + X−1 ) − (X𝑘 + X−𝑘 )

On peut tout à fait substituer la matrice A à X, ce qui donne B𝑘+2 = B𝑘+1 B1 − B𝑘 = B𝑘+1 − B𝑘 puisque B1 = I𝑛 . Quitte à raisonner coefficient
par coefficient, on peut appliquer les résultats connus sur les suites récurrentes linéaires d’ordre deux pour affirmer qu’il existe C, D ∈ ℳ𝑛 (ℝ)
telles que :
∀𝑘 ∈ ℕ, B𝑘 = 𝑟𝑛 (cos(𝑘θ)C + sin(𝑘θ)D)
π
où 𝑟𝑒±𝑖θ sont les racines complexes conjuguées de X2 − X + 1. On trouve facilement 𝑟 = 1 et θ = . On a de plus B0 = 2I𝑛 et B1 = I𝑛 . Les
3
matrices C et D sont donc solutions du système :
C = 2I𝑛
{1 √3
C+ D = I𝑛
2 2
On obtient C = 2I𝑛 et D = 0. On a donc
𝑘π
∀𝑘 ∈ ℕ, A𝑘 + A−𝑘 = 2 cos ( ) I𝑛
3
Solution 14

1 0 0 0 0 1
1. a. On pose U = ( ), V = ( ), W = ( ). On a E = vect(U, V, W). Ainsi E est un sous-espace vectoriel de ℳ2 (ℝ)
0 0 0 1 0 0
donc un ℝ-espace vectoriel. La famille (U, V, W) est libre : c’est donc une base de E et dim E = 3.
b. E est un sous-espace vectoriel de E donc un sous-groupe additif de E. De plus, Le produit de deux matrices triangulaires supé-
rieures est une matrice triangulaire supérieure. Enfin, I2 ∈ E. E est un sous-anneau de ℳ2 (ℝ) donc un anneau.
0 1 1 1
Cet anneau n’est pas commutatif : considérer par exemple les matrices ( ) et ( ).
0 0 0 2
c. Le produit de deux matrices triangulaires supérieures est une matrice triangulaire supérieure dont les coefficients diagonaux sont
les produits des coefficients diagonaux des deux matrices : on en déduit que le produit de deux éléments G est un élément de
G. De plus, une matrice triangulaire supérieure dont les coefficients diagonaux sont non nuls est inversible et les coefficients
diagonaux de l’inverse sont les inverses des coefficients diagonaux : on en déduit que tout élément de G admet un inverse dans
G. Ainsi G est un sous-groupe de GL2 (ℝ) donc un groupe.

http://lgarcin.github.io 6
© Laurent Garcin MP Dumont d’Urville

0 𝑐
2. Considérons dans un premier temps le cas 𝑎 = 𝑏. Alors A = 𝑎I2 + C avec C = ( ). Comme 𝑎I2 et C commutent, la formule du
0 0
binôme de Newton donne : 𝑝
𝑝
A𝑝 = ∑ ( )𝑎𝑝−𝑘 C𝑘
𝑘=0
𝑘

𝑎𝑝 𝑝𝑎𝑝−1 𝑐
On a C𝑘 = 0 pour 𝑘 ≥ 2 donc pour 𝑝 ≥ 1, A𝑝 = ( ) et bien entendu, A0 = I2 .
0 𝑎𝑝
Considérons maintenant le cas 𝑎 ≠ 𝑏. Alors, à l’aide des résultats sur les matrices triangulaires supérieures énoncés plus haut, on peut
𝑎𝑝 𝑐𝑝
affirmer que A𝑝 = ( ) où 𝑐𝑝 est un réel. En considérant que M 𝑝+1 = M 𝑝 .M = M.M 𝑝 , on obtient 𝑐𝑝+1 = 𝑎𝑝 𝑐 + 𝑏𝑐𝑝 = 𝑎𝑐𝑝 + 𝑏𝑝 𝑐.
0 𝑏𝑝
𝑏𝑝 −𝑎𝑝
𝑏 𝑝 − 𝑎𝑝 𝑎𝑝 𝑐
On obtient donc 𝑐𝑝 = 𝑐 . Ainsi A𝑝 = ( 𝑏−𝑎 ) pour tout 𝑝 ∈ ℕ.
𝑏−𝑎 0 𝑏𝑝
3. D’après l’inégalité de Taylor-Lagrange, pour tout 𝑛 ∈ ℕ :
| 𝑛 𝑝| 𝑛+1
|𝑒𝑥 − ∑ 𝑥 | ≤ |𝑥| |𝑥|𝑛+1
| | sup 𝑒𝑡 = max(1, 𝑒𝑥 )
| 𝑝=0
𝑝! | (𝑛 + 1)! 𝑡∈[0,𝑥] (𝑛 + 1)!
𝑛
|𝑥|𝑛 𝑥𝑝
car exp est de classe 𝒞 ∞ sur ℝ. Or lim = 0 donc lim ∑ = 𝑒𝑥 .
𝑛→+∞ 𝑛! 𝑛→+∞ 𝑝!
𝑝=0
𝑛 𝑛−1 𝑛
𝑝𝑥𝑝−1 𝑥𝑝 𝑝𝑥𝑝−1
De plus, ∑ = ∑ . On en déduit qu’on a également lim ∑ = 𝑒𝑥 .
𝑝=1
𝑝! 𝑘=0
𝑝 𝑛→+∞
𝑝=1
𝑝!
𝑛
A𝑝
Considérons dans un premier temps le cas 𝑎 = 𝑏. En raisonnant coefficient par coefficient et en utilisant ce qui précède, lim ∑ =
𝑛→+∞
𝑝=0
𝑝!
𝑒𝑎 𝑒𝑎 𝑐
( ).
0 𝑒𝑎
𝑛 𝑒𝑏 −𝑒𝑎
A𝑝 𝑒𝑎 𝑐
Considérons maitenant le cas 𝑎 ≠ 𝑏. En raisonnant à nouveau coefficient par coefficient : lim ∑ =( 𝑏−𝑎 ).
𝑛→+∞
𝑝=0
𝑝! 0 𝑏
𝑒

𝑎 𝑐 𝑎 ′ 𝑐′
4. 𝑓(02 ) = I2 ≠ 02 donc 𝑓 n’est pas linéaire. Soient A = ( ) et A′ = ( ) des éléments de E tels que 𝑓(A) = 𝑓(A′ ). Comme
0 𝑏 0 𝑏′
la fonction exp est injective (sur ℝ), 𝑎 = 𝑎′ et 𝑏 = 𝑏′ . On en déduit ensuite 𝑐 = 𝑐′ . Par conséquent, A = A′ ce qui prouve l’injectivité
de 𝑓.
𝑓 n’est pas surjective, il suffit de considérer un élément de E dont l’un des éléments diagonaux est négatif, il ne peut admettre d’anté-
cédent par 𝑓.
𝑎′ 𝑐′
Il est clair que tout élément de E admet une image par 𝑓 dans G donc Im 𝑓 ⊂ G. Réciproquement soit B = ( ) ∈ G. Par
0 𝑏′
𝑎 𝑐
conséquent 𝑎′ > 0 et 𝑏′ > 0. Soit A = ( ) ∈ E.
0 𝑏

Cas 𝑎′ ≠ 𝑏′ : Si 𝑓(A) = B alors nécessairement 𝑎 ≠ 𝑏.


𝑒𝑎 = 𝑎′ 𝑎 = ln 𝑎′
⎧ ⎧
⎪ 𝑒𝑏 = 𝑏′ ⎪ 𝑏 = ln 𝑏′
𝑓(A) = B ⇔ ⇔
⎨ 𝑒𝑏 − 𝑒𝑎 ⎨
⎪𝑑C = 𝑐′ ln 𝑏 − ln 𝑎
′ ′
⎪𝑑C = 𝑐′
⎩ 𝑏−𝑎 ⎩ 𝑏 ′ − 𝑎′
Cas 𝑎′ = 𝑏′ :
𝑒𝑎 = 𝑎 ′ 𝑎 = ln 𝑎′
𝑓(A) = B ⇔ { 𝑎 ⇔ { 𝑐′
𝑐𝑒 = 𝑐′ 𝑑C = ′
𝑎

http://lgarcin.github.io 7
© Laurent Garcin MP Dumont d’Urville

Ainsi tout élément de G admet un antécédent par 𝑓 dans E, ce qui prouve que G ⊂ Im 𝑓. Finalement G = Im 𝑓.
Solution 15

Première méthode Le calcul de M 2 donne M 2 = M + 2I i.e. M 2 − M − 2I = 0. Soit R𝑛 le reste de la division euclidienne de X𝑛 par
P = X2 − X − 2 = (X + 1)(X − 2). R𝑛 est de degré 1 donc de la forme 𝑎𝑛 X + 𝑏𝑛 avec 𝑎𝑛 , 𝑏𝑛 ∈ ℝ. Comme −1 et 2 sont racines de P,
2𝑛 − (−1)𝑛 2𝑛 + 2.(−1)𝑛
on trouve −𝑎𝑛 + 𝑏𝑛 = (−1)𝑛 et 2𝑎𝑛 + 𝑏𝑛 = 2𝑛 . Il vient 𝑎𝑛 = et 𝑏𝑛 = . On a alors M 𝑛 = 𝑎𝑛 M + 𝑏𝑛 I.
3 3
Deuxième méthode En calculant les premières puissances de M, on est amené à faire l’hypothèse de récurrence suivante :
HR(𝑛) : M 𝑛 est de la forme 𝑎𝑛 I + 𝑏𝑛 M.
La récurrence est facile et nous donne de plus les relations de récurrence 𝑎𝑛+1 = 2𝑏𝑛 et 𝑏𝑛+1 = 𝑎𝑛 + 𝑏𝑛 pour tout 𝑛 ∈ ℕ. Un calcul
rapide nous montre que les suites (𝑎𝑛 ) et (𝑏𝑛 ) vérifient la relation de récurrence 𝑢𝑛+2 − 𝑢𝑛+1 + 2𝑏𝑛 = 0 pour tout 𝑛 ∈ ℕ. Le polynôme
caractéristique associé à cette relation de récurrence est P = X2 − X + 2 = (X + 1)(X − 2). Ainsi 𝑎𝑛 et 𝑏𝑛 sont de la forme λ(−1)𝑛 + μ2𝑛 .
2𝑛 − (−1)𝑛 2𝑛 + 2.(−1)𝑛
Comme 𝑎0 = 1 et 𝑏0 = 0, on trouve λ et μ dans les deux cas puis 𝑎𝑛 = et 𝑏𝑛 = .
3 3

Inverses
Solution 16

Raisonnons par l’absurde en supposant l’existence d’un vecteur colonne non nul

⎛ 𝑥1 ⎞
X = ⎜ ⋮ ⎟
⎜ ⎟
⎝ 𝑥𝑛 ⎠

tel que AX = 0. Soit 𝑖0 ⩽ 𝑛 tel que |𝑥𝑖0 | > 0 soit le maximum des |𝑥𝑖 |, 𝑖 ⩽ 𝑛. Puisque AX = 0 , on a en particulier
𝑛
−𝑎𝑖0,𝑖0 𝑥𝑖0 = ∑ 𝑎𝑖0,𝑗 𝑥𝑗 .
𝑗≠𝑖0

Or , d’après l’inégalité triangulaire ,


𝑛 𝑛
| |
| ∑ 𝑎𝑖0,𝑗 𝑥𝑗 | ⩽ ∑ |𝑎𝑖0,𝑗 ||𝑥𝑗 |,
| |
𝑗≠𝑖0 𝑗=1,𝑗≠𝑖0

et , par définition de 𝑖0 ,
𝑛 𝑛
∑ |𝑎𝑖0,𝑗 ||𝑥𝑗 | ⩽ ( ∑ |𝑎𝑖0,𝑗 |)|𝑥𝑖0 |
𝑗≠𝑖0 𝑗≠𝑖0

d’où 𝑛
|𝑎𝑖0,𝑖0 ||𝑥𝑖0 | ⩽ ( ∑ |𝑎𝑖0,𝑗 |)|𝑥𝑖0 |
𝑗≠𝑖0

et puisque |𝑥𝑖0 | ≠ 0 ,
𝑛
|𝑎𝑖0,𝑖0 | ⩽ ∑ |𝑎𝑖0,𝑗 |
𝑗≠𝑖0

ce qui contredit l’hypothèse de l’énoncé.


Solution 17

• 𝔘𝑛 est non vide car contient la matrice I𝑛 .

http://lgarcin.github.io 8
© Laurent Garcin MP Dumont d’Urville

• 𝔘𝑛 est stable par le produit matriciel. Soient M et N dans 𝔘𝑛 . Pour tous 1 ⩽ 𝑖, 𝑗 ⩽ 𝑛, on


𝑛
(MN)𝑖,𝑗 = ∑ (M)𝑖,𝑘 (N)𝑘,𝑗 .
𝑘=1

§ Si 𝑗 < 𝑖, on a (M)𝑖,𝑘 = 0 pour tout 𝑘 < 𝑖 et (N)𝑘,𝑗 = 0 pour tout 𝑘 > 𝑗. Ainsi, pour tout 𝑘, (M)𝑖,𝑘 (N)𝑘,𝑗 = 0. la matrice MN est
donc triangulaire suppérieure.
§ Si 𝑖 = 𝑗, on peut reprendre les mêmes arguments : (M)𝑖,𝑘 = 0 pour tout 𝑘 < 𝑖 et (N)𝑘,𝑖 = 0 pour tout 𝑘 > 𝑖. Ainsi, pour tout
𝑘 ≠ 𝑖, (M)𝑖,𝑘 (N)𝑘,𝑗 = 0. De plus, (M)𝑖,𝑖 (N)𝑖,𝑖 = 1 × 1 = 1. On a donc MN ∈ 𝔘𝑛 .
𝑥1 𝑦1
• 𝔘𝑛 est stable par passage à l’inverse. Soit M = (𝑚𝑖,𝑗 )1⩽𝑖,𝑗⩽𝑛 dans 𝔘𝑛 . Soient X = ( 𝑥… ) et Y = ( 𝑦… ) deux vecteurs colonnes de taille
𝑛 𝑛
𝑛 tels que MX = Y. Cette égalité équivaut au système suivant,
𝑛
∀1 ⩽ 𝑖 ⩽ 𝑛 − 1 , 𝑥𝑖 + ∑ 𝑚𝑖,𝑗 𝑥𝑗 = 𝑦𝑖 et 𝑥𝑛 = 𝑦𝑛 .
𝑗=𝑖+1

Ainsi, 𝑥𝑛 = 𝑦𝑛 , puis
𝑥𝑛−1 = 𝑦𝑛−1 − 𝑚𝑛−1,𝑛 𝑥𝑛 = 𝑦𝑛−1 − 𝑚𝑛−1,𝑛 𝑦𝑛 .
Par une récurrence finie, on prouve alors sans peine que 𝑥𝑛−𝑘 peut s’écrire sous la forme
𝑛
𝑥𝑛−𝑘 = 𝑦𝑛−𝑘 + ∑ 𝑛𝑛−𝑘,𝑗 𝑦𝑗 ,
𝑗=𝑛−𝑘+1

avec les 𝑛𝑘,ℓ dans ℝ. On a donc prouvé que Y = MX équivaut à X = NY avec N = (𝑛𝑖,𝑗 )1⩽𝑖,𝑗⩽𝑛 matrice triangulaire supérieure avec
des 1 sur la diagonale : M est inversible et son inverse N appartient à 𝔘𝑛 .
• 𝔘𝑛 est donc un sous-groupe de T𝑛+ .
Solution 18

A
On pivote en colonnes sur la matrice ( ) de manière à ramener la partie supérieure à 𝕀 4 . La partie inférieure sera alors A−1 .
𝕀4

⎛ 0 −1 1 1 ⎞
⎜ ⎟
−9 2 1 2
⎜ ⎟
⎜ 1 −1 1 0 ⎟
⎜ ⎟
−3 0 1 1
⎜ ⎟
⎜ ⎟
⎜ 1 0 0 0 ⎟
⎜ ⎟
⎜ 0 1 0 0 ⎟
⎜ 0 0 1 0 ⎟
⎜ ⎟
⎝ 0 0 0 1 ⎠

⎛ 1 −1 0 1 ⎞
⎜ ⎟
1 2 −9 2
⎜ ⎟
⎜ 1 −1 1 0 ⎟
⎜ ⎟
1 0 −3 1
⎜ ⎟
⎜ ⎟ C1 ↔ C 3
⎜ 0 0 1 0 ⎟
⎜ ⎟
⎜ 0 1 0 0 ⎟
⎜ 1 0 0 0 ⎟
⎜ ⎟
⎝ 0 0 0 1 ⎠

http://lgarcin.github.io 9
© Laurent Garcin MP Dumont d’Urville

⎛ 1 0 0 0 ⎞
⎜ ⎟
1 3 −9 1
⎜ ⎟
⎜ 1 0 1 −1 ⎟
⎜ ⎟
1 1 −3 0
⎜ ⎟ C2 ← C2 + C1
⎜ ⎟ C4 ← C4 − C1
⎜ 0 0 1 0 ⎟
⎜ ⎟
⎜ 0 1 0 0 ⎟
⎜ 1 1 0 −1 ⎟
⎜ ⎟
⎝ 0 0 0 1 ⎠

⎛ 1 0 0 0 ⎞
⎜ ⎟
1 1 −9 3
⎜ ⎟
⎜ 1 −1 1 0 ⎟
⎜ ⎟
1 0 −3 1
⎜ ⎟
⎜ ⎟ C2 ↔ C 4
⎜ 0 0 1 0 ⎟
⎜ ⎟
⎜ 0 0 0 1 ⎟
⎜ 1 −1 0 1 ⎟
⎜ ⎟
⎝ 0 1 0 0 ⎠

⎛ 1 0 0 0 ⎞
⎜ ⎟
1 1 0 0
⎜ ⎟
⎜ 1 −1 −8 3 ⎟
⎜ ⎟
1 0 −3 1
⎜ ⎟ C3 ← C3 + 9C2
⎜ ⎟ C4 ← C4 − 3C2
⎜ 0 0 1 0 ⎟
⎜ ⎟
⎜ 0 0 0 1 ⎟
⎜ 1 −1 −9 4 ⎟
⎜ ⎟
⎝ 0 1 9 −3 ⎠

⎛ 1 0 0 0 ⎞
⎜ ⎟
1 1 0 0
⎜ ⎟
⎜ 1 −1 1 3 ⎟
⎜ ⎟
1 0 0 1
⎜ ⎟
⎜ ⎟C3 ← C3 + 3C4
⎜ 0 0 1 0 ⎟
⎜ ⎟
⎜ 0 0 3 1 ⎟
⎜ 1 −1 3 4 ⎟
⎜ ⎟
⎝ 0 1 0 −3 ⎠

http://lgarcin.github.io 10
© Laurent Garcin MP Dumont d’Urville

⎛ 1 0 0 0 ⎞
⎜ ⎟
1 1 0 0
⎜ ⎟
⎜ 1 −1 1 0 ⎟
⎜ ⎟
1 0 0 1
⎜ ⎟
⎜ ⎟C4 ← C4 − 3C3
⎜ 0 0 1 −3 ⎟
⎜ ⎟
⎜ 0 0 3 −8 ⎟
⎜ 1 −1 3 −5 ⎟
⎜ ⎟
⎝ 0 1 0 −3 ⎠

⎛ 1 0 0 0 ⎞
⎜ ⎟
1 1 0 0
⎜ ⎟
⎜ 1 0 1 0 ⎟
⎜ ⎟
1 0 0 1
⎜ ⎟
⎜ ⎟ C2 ← C 2 + C 3
⎜ 0 1 1 −3 ⎟
⎜ ⎟
⎜ 0 3 3 −8 ⎟
⎜ 1 2 3 −5 ⎟
⎜ ⎟
⎝ 0 1 0 −3 ⎠

⎛ 1 0 0 0 ⎞
⎜ ⎟
0 1 0 0
⎜ ⎟
⎜ 0 0 1 0 ⎟
⎜ ⎟
0 0 0 1
⎜ ⎟
⎜ ⎟ C1 ← C 1 − C 2 − C 3 − C 4
⎜ 1 1 1 −3 ⎟
⎜ ⎟
⎜ 2 3 3 −8 ⎟
⎜ 1 2 3 −5 ⎟
⎜ ⎟
⎝ 2 1 0 −3 ⎠

⎛ 1 1 1 −3 ⎞
⎜ ⎟
Ainsi A−1 = ⎜ 2 3 3 −8 ⎟.
⎜ 1 2 3 −5 ⎟
⎜ ⎟
⎝ 2 1 0 −3 ⎠
Solution 19

1. Comme A⊤𝑛 = −A𝑛 , det(A𝑛 ) = (−1)𝑛 det(A𝑛 ). Comme 𝑛 est impair, det(A𝑛 ) = 0 et A𝑛 n’est pas inversible.
2. On procède par pivot de Gauss : on effectue les mêmes opérations sur les lignes de A𝑛 et I𝑛 . Commençons par effectuer les opérations

http://lgarcin.github.io 11
© Laurent Garcin MP Dumont d’Urville

L𝑖 ← L𝑖 − L𝑖+1 pour 𝑖 variant de 1 à 𝑛. Ainsi A𝑛 est transformé en :

⎛ 1 1 0 … 0⎞
⎜ 0 ⋱ ⋱ ⋱ ⋮⎟
⎜ ⎟
⎜ ⋮ ⋱ ⋱ ⋱ 0⎟
⎜ 0 … 0 1 1⎟
⎜ ⎟
⎝ −1 … … −1 0 ⎠

et la matrice I𝑛 est transformée en :


⎛1 −1 0 … 0 ⎞
⎜0 ⋱ ⋱ ⋱ ⋮ ⎟
⎜ ⎟
⎜⋮ ⋱ ⋱ ⋱ 0 ⎟
⎜⋮ ⋱ 1 −1 ⎟
⎜ ⎟
⎝0 … … 0 1 ⎠
Deux cas se présentent alors :

• Si 𝑛 est impair, on effectue l’opération L𝑛 ← L1 + L3 + ⋯ + L𝑛−2 et A𝑛 est alors transformée en une matrice dont la dernière
ligne est nulle. A𝑛 n’est donc pas inversible.
• Si 𝑛 est pair, on effectue l’opération L𝑛 ← L1 + L3 + ⋯ + L𝑛−1 . Ainsi A𝑛 est transformée en :

⎛1 1 0 … 0⎞
⎜0 ⋱ ⋱ ⋱ ⋮⎟
⎜ ⎟
⎜⋮ ⋱ ⋱ ⋱ 0⎟
⎜0 … 0 1 1⎟
⎜ ⎟
⎝0 … … 0 1⎠

et la matrice I𝑛 est transformée en :


⎛1 −1 0 … 0 ⎞
⎜0 ⋱ ⋱ ⋱ ⋮ ⎟
⎜ ⎟
⎜⋮ ⋱ ⋱ ⋱ 0 ⎟
⎜0 … ⋱ 1 −1 ⎟
⎜ ⎟
⎝1 −1 … 1 0 ⎠
On effectue enfin les opérations L𝑖 ← L𝑖 − L𝑖+1 pour 𝑖 variant de 𝑛 − 1 à 1. A𝑛 est alors transformée en I𝑛 et I𝑛 est transformée en

⎛ 0 −1 1 −1 … −1 ⎞
⎜ 1 0 −1 1 ⋱ ⋮ ⎟
⎜ −1 1 0 ⋱ ⋱ −1 ⎟
⎜ ⎟
⎜ 1 −1 ⋱ ⋱ ⋱ 1 ⎟
⎜ ⋮ ⋱ ⋱ ⋱ ⋱ −1 ⎟
⎜ ⎟
⎝ 1 … 1 −1 1 0 ⎠

Solution 20

⎛1 1 1 … 1⎞
⎜1 2 2 … 2⎟
⎜ ⎟
On a A = ⎜ 1 2 3 … 3 ⎟. On va effectuer les mêmes opérations sur les lignes de A𝑛 et I𝑛 .
⎜⋮ ⋮ ⋮ ⋱ ⋮⎟
⎜ ⎟
⎝1 2 3 … 𝑛⎠

http://lgarcin.github.io 12
© Laurent Garcin MP Dumont d’Urville

On effectue d’abord les opérations L𝑖 ← L𝑖 − L𝑖−1 pour 𝑖 variant de 𝑛 à 2. A𝑛 est alors transformée en la matrice triangulaire supérieure
où tous les coefficients de la partie triangulaire supérieure sont égaux à 1 et I𝑛 est tranformée en la matrice avec une diagonale de 1, une
sous-diagonale de −1 et des 0 ailleurs.
On effectue ensuite les opérations L𝑖 ← L𝑖 − L𝑖+1 pour 𝑖 variant de 1 à 𝑛 − 1. A est transformée en I𝑛 et I𝑛 est transformée en la matrice
B𝑛 formée d’une diagonale de 2, d’une sous-diagonale et d’une sur-diagonale de −1 et de zéros partout ailleurs. Ceci prouve que A𝑛 est
inversible d’inverse B𝑛 .
Solution 21

Dans tout ce qui suit, on notera les vecteurs colonnes


⎛ 𝑥1 ⎞
X = ⎜ 𝑥2 ⎟ ,
⎜ ⎟
⎝ 𝑥3 ⎠
et
⎛ 1 ⎞ ⎛ 0 ⎞ ⎛ 0 ⎞
𝑒1 = ⎜ 0 ⎟ , 𝑒2 = ⎜ 1 ⎟ , 𝑒3 = ⎜ 0 ⎟ .
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 0 ⎠ ⎝ 0 ⎠ ⎝ 1 ⎠
1. La première ligne de A1 étant nulle, A1 n’est pas inversible. Un vecteur colonne X appartient à Ker(A1 ) si et seulement si

−𝑥1 + 𝑥2 = 0 et − 2𝑥3 = 0,

ie X est de la forme

⎛ 𝑥1 ⎞
X = ⎜ 𝑥1 ⎟ , avec 𝑥1 ∈ ℝ.
⎜ ⎟
⎝ 0 ⎠
On a donc
1
Ker(A1 ) = vect [( 1 )] = vect(𝑒2 + 𝑒3 ).
0

Puisque les deux premières colonnes de A1 sont colinéaires à 𝑒2 et la dernière à 𝑒3 , on a

Im(A1 ) = vect(𝑒2 , 𝑒3 ) et rg(A1 ) = 2.

2. Appliquons la méthode du pivot de Gauss…


0 1 0 1 0 0
[ − 1 1 1 0 1 0 ]
−1 2 −2 0 0 1
par L1 ← −L2 et L2 ← L1 ,
1 −1 −1 0 −1 0
[ 0 1 0 1 0 0 ]
−1 2 −2 0 0 1
puis, en effectuant L3 ↔ L3 + L1 ,
1 −1 −1 0 −1 0
[ 0 1 0 1 0 0 ]
0 1 −3 0 −1 1
continuons par L3 ← (−L3 + L2 )/3,
1 −1 −1 0 −1 0
[ 0 1 0 1 0 0 ]
0 0 1 1/3 1/3 −1/3
puis L1 ↔ L1 + L2 + L3 ,
1 0 0 4/3 −2/3 −1/3
[ 0 1 0 1 0 0 ]
0 0 1 1/3 1/3 −1/3

http://lgarcin.github.io 13
© Laurent Garcin MP Dumont d’Urville

La matrice A2 est donc inversible d’inverse


⎛ 4/3 −2/3 −1/3 ⎞
A−1
2 = ⎜ 1 0 0 ⎟.
⎜ ⎟
⎝ 1/3 1/3 −1/3 ⎠

3. La dernière ligne de A3 étant la différence des deux premières, les lignes de la matrice forment une famille liée de ℝ3 et A3 n’est donc
pas inversible. Un vecteur colonne X appartient à Ker(A3 ) si et seulement si

−𝑥1 + 𝑥2 = 0 et 2𝑥3 = 0,

ie X est de la forme

⎛ 𝑥1 ⎞
X = ⎜ 𝑥1 ⎟ , avec 𝑥1 ∈ ℝ.
⎜ ⎟
⎝ 0 ⎠
On a donc
1
Ker(A3 ) = vect [( 1 )] = vect(𝑒2 + 𝑒3 ).
0

Puisque les deux premières colonnes de A1 sont égales, on a

1 0
Im(A3 ) = vect [( 0 ), ( −1 )] = vect(𝑒1 + 𝑒3 , −𝑒2 + 𝑒3 ),
1 1

et rg(A3 ) = 2.

4. La deuxième ligne de A4 étant nulle, A4 n’est pas inversible. Un vecteur colonne X appartient à Ker(A4 ) si et seulement si 2𝑥1 −𝑥3 = 0,
ie X est de la forme

⎛ 𝑥1 ⎞
X = ⎜ 𝑥2 ⎟ , avec 𝑥1 , 𝑥2 ∈ ℝ.
⎜ ⎟
⎝ 2𝑥1 ⎠
On a donc
1 0
Ker(A4 ) = vect [( 0 ), ( 1 )] = vect(𝑒1 + 2𝑒3 , 𝑒2 ).
2 0

Puisque toutes les colonnes de A4 sont colinéaires à la dernière, on a

−1
Im(A4 ) = vect [( 0 )] = vect(𝑒3 − 𝑒1 ),
1

et rg(A4 ) = 1.

5. La dernière ligne de A5 étant égale à la première, les lignes de la matrice forment une famille liée de ℝ3 et A5 n’est donc pas inversible.
Un vecteur colonne X appartient à Ker(A5 ) si et seulement si

−𝑥1 = 0 et − 𝑥1 + 𝑥2 + 𝑥3 = 0,

ie X est de la forme

⎛ 0 ⎞
X = ⎜ 𝑥2 ⎟ , avec 𝑥2 ∈ ℝ.
⎜ ⎟
⎝ − 𝑥2 ⎠

http://lgarcin.github.io 14
© Laurent Garcin MP Dumont d’Urville

On a donc
0
Ker(A5 ) = vect [( 1 )] = vect(𝑒2 − 𝑒3 ).
−1

Puisque les deux dernières colonnes de A5 sont égales mais non colinéaires à la première, on a
1 0
Im(A5 ) = vect [( 1 ), ( 1 )] = vect(𝑒1 + 𝑒2 + 𝑒3 , 𝑒2 ),
1 0

et rg(A5 ) = 2.

6. Les première et troisième lignes de A6 étant nulles, A6 n’est donc pas inversible. Un vecteur colonne X appartient à Ker(A6 ) si et
seulement si 𝑥1 − 𝑥2 − 𝑥3 = 0, ie X est de la forme

⎛ 𝑥1 ⎞
X=⎜ 𝑥2 ⎟ , avec 𝑥1 , 𝑥2 ∈ ℝ.
⎜ ⎟
⎝ 𝑥1 − 𝑥2 ⎠
On a donc
1 0
Ker(A6 ) = vect [( 0 ), ( 1 )] = vect(𝑒1 + 𝑒3 , 𝑒2 − 𝑒3 ).
1 −1

Puisque toutes les colonnes de A6 sont colinéaires à la première, on a


0
Im(A6 ) = vect [( 1 )] = vect(𝑒2 ),
0

et rg(A6 ) = 1.

7. La deuxième ligne de A7 étant nulle, A7 n’est pas inversible. Un vecteur colonne X appartient à Ker(A7 ) si et seulement si −𝑥2 = 0 et
−2𝑥1 = 0, ie X est de la forme

⎛ 0 ⎞
X = ⎜ 0 ⎟ , avec 𝑥3 ∈ ℝ.
⎜ ⎟
⎝ 𝑥3 ⎠
On a donc
0
Ker(A7 ) = vect [( 0 )] = vect(𝑒3 ).
1

Puisque la dernière colonne de A7 est nulle et les deux autres non-colinéaires, on a


0 1
Im(A7 ) = vect [( 0 ), ( 0 , )] = vect(𝑒1 , 𝑒3 ),
1 0

et rg(A7 ) = 2.

8. Appliquons la méthode du pivot de Gauss…


1 1 1
[ 1 3 5 ]
5 3 1
par L2 ← L2 − L1 et L3 ← L3 − 5L1 ,
1 1 1
[ 0 2 4 ]
0 −2 −4
puis, en effectuant L3 ↔ L3 + L2 ,
1 1 1
[ 0 2 4 ].
0 0 0

http://lgarcin.github.io 15
© Laurent Garcin MP Dumont d’Urville

Un vecteur X appartient donc à Ker(A8 ) si et seulement si


𝑥1 + 𝑥2 + 𝑥3 = 0 et 𝑥2 + 2𝑥3 = 0,
ie X est de la forme
⎛ 𝑥3 ⎞
X = ⎜ − 2𝑥3 ⎟ , avec 𝑥3 ∈ ℝ.
⎜ ⎟
⎝ 𝑥3 ⎠
On a donc
1
Ker(A8 ) = vect [( −2 )] = vect(𝑒1 − 2𝑒2 + 𝑒3 ).
1

Puisque les deux premières colonnes de A8 ne sont pas colinéaires, on a


1 1
Im(A8 ) = vect [( 1 ), ( 3 )],
5 3

donc Im(A8 ) = vect(𝑒1 + 𝑒2 + 5𝑒3 , 𝑒1 + 3𝑒2 + 3𝑒3 ), et rg(A8 ) = 2.


Solution 22

1. Il est clair que le carré de la matrice vaut l’identité : elle est donc inversible et égale à son propre inverse.

2. Notons M la matrice de l’énoncé et U la matrice (1)1⩽𝑖,𝑗⩽𝑛 . Puisque M + I𝑛 = U et que U2 = 𝑛U, on a


(M + I𝑛 )2 = 𝑛(M + I𝑛 ),
ie M 2 + (2 − 𝑛)M = (𝑛 − 1)I𝑛 . Ainsi,
M 𝑛−2
M( − I ) = I𝑛 .
𝑛−1 𝑛−1 𝑛
La matrice M est donc inversible d’inverse
M 𝑛−2 U
M −1 = − I = − I𝑛 .
𝑛−1 𝑛−1 𝑛 𝑛−1
Solution 23

1. On a clairement
(𝕀 𝑛 − A)(𝕀 𝑛 + A) = (𝕀 𝑛 + A)(𝕀 𝑛 − A),
d’où après multiplication à droite et à gauche par l’inverse de 𝕀 𝑛 + A ,
(𝕀 𝑛 + A)−1 (𝕀 𝑛 − A) = (𝕀 𝑛 − A)(𝕀 𝑛 − A)−1 .

2. Soient X, Y deux vecteurs colonnes de taille 𝑛. D’après la question précédente , on a


(𝕀 𝑛 + B)X = Y
si et seulement si
X + (𝕀 𝑛 + A)−1 (𝕀 𝑛 − A)X = Y.
Puisque 𝕀 𝑛 + A est inversible , ceci est encore équivalent à ,
(𝕀 𝑛 + A)X + (𝕀 𝑛 − A)X = (𝕀 𝑛 + A)Y,
c’est-à-dire
𝕀𝑛 + A
X= Y.
2
La matrice 𝕀 𝑛 + B est donc inversible d’inverse
𝕀𝑛 + A
.
2

http://lgarcin.github.io 16
© Laurent Garcin MP Dumont d’Urville

Solution 24

1. En effectuant successivement sur A les opérations


L𝑘 ⟵ L𝑘 − L𝑘+1
pour 𝑘 variant de 1 à 𝑛 − 1 , on transforme la matrice en I𝑛 . La matrice est donc inversible et son inverse d’obtient en effectuant la
même séquence d’opérations sur I𝑛 , on a donc

⎛ 1 −1 0 … 0 ⎞
⎜ 0 1 ⋱ ⋱ ⋮ ⎟
⎜ ⎟
A−1 =⎜ ⋮ ⋱ ⋱ ⋱ 0 ⎟.
⎜ ⋮ ⋱ ⋱ −1 ⎟
⎜ ⎟
⎝ 0 … … 0 1 ⎠

2. Une méthode d’inversion avec polynômes.


a. D’après la définition du produit matriciel, pour tout 0 ⩽ 𝑘 ⩽ 𝑛 − 1, J𝑘 est la matrice dont tous les cœfficients sont nuls sauf ceux
de la 𝑘 + 1-ième diagonale qui valent 1.
b. La matrice J est nilpotente d’indice 𝑛 (ie J𝑛 = 0 et J𝑛−1 ≠ 0). On a

A = I𝑛 + J + … + J𝑛−1 .

c. Posons
P(X) = 1 + X + … + X𝑛 .
On a A = P′ (J). On remarque que
(1 − X)P(X) = 1 − X𝑛+1 .
Ainsi , en subsituant J à X dans cette égalité polynomiale,

(I𝑛 − J)P(J) = I𝑛

donc (I𝑛 − J)A = I𝑛 et A est inversible d’inverse

⎛ 1 −1 0 … 0 ⎞
⎜ 0 1 ⋱ ⋱ ⋮ ⎟
⎜ ⎟
I𝑛 − J = ⎜ ⋮ ⋱ ⋱ ⋱ 0 ⎟.
⎜ ⋮ ⋱ ⋱ −1 ⎟
⎜ ⎟
⎝ 0 … … 0 1 ⎠

Solution 25

Effectuons des pivots en miroir :

1. En avant :
1 3 4 1 0 0
[2 −1 5 0 1 0]
4 −2 −1 0 0 1
On obtient par L2 ← L2 − 2L1 et L3 ← L3 − 4L1 :

1 3 4 1 0 0
[0 −7 −3 −2 1 0]
0 −14 −17 −4 0 1

http://lgarcin.github.io 17
© Laurent Garcin MP Dumont d’Urville

puis L3 ← L3 − 2L2 :
1 3 4 1 0 0
[0 −7 −3 −2 1 0]
0 0 −11 0 −2 1
par L2 ← L2 / − 7 et L3 ← −L3 /11 :
1 3 4 1 0 0
[0 1 3/7 2/7 −1/7 0 ]
0 0 1 0 2/11 −1/11
Effectuons alors L2 ← L2 − (3/7)L3 et L1 ← L1 − 4L3 :

1 3 0 1 −8/11 4/11
[0 1 0 2/7 −17/77 3/77 ]
0 0 1 0 2/11 −1/11

et finalement, par L1 ← L1 − 3L2 :


1 0 0 1/7 −5/77 19/77
[0 1 0 2/7 −17/77 3/77 ] .
0 0 1 0 2/11 −1/11
Ainsi la matrice est inversible et son inverse vaut

⎛ 1/7 −5/77 19/77 ⎞


⎜ 2/7 −17/77 3/77 ⎟ .
⎜ ⎟
⎝ 0 2/11 −1/11 ⎠

2. Let’s pivot !
2 −1 10 1 0 0
[ 1 −1 6 0 1 0]
−1 −4 5 0 0 1
On obtient en échangeant L1 et L2 :
1 −1 6 0 1 0
[ 2 −1 10 1 0 0]
−1 −4 5 0 0 1
par L2 ← L2 − 2L1 et L3 ← L3 + L1 :
1 −1 6 0 1 0
[0 1 −2 1 −2 0]
0 −5 11 0 1 1
puis L3 ← L3 + 5L2 :
1 −1 6 0 1 0
[0 1 −2 1 −2 0]
0 0 1 5 −9 1
puis L2 ← L2 + 2L3 et L1 ← L1 − 6L3 :
1 −1 0 −30 55 −6
[0 1 0 11 −20 2]
0 0 1 5 −9 1
et finalement, par L1 ← L1 + L2 :
1 0 0 −19 35 −4
[0 1 0 11 −20 2 ] .
0 0 1 5 −9 1
Ainsi la matrice est inversible d’inverse
⎛ −19 35 −4 ⎞
⎜ 11 −20 2 ⎟ .
⎜ ⎟
⎝ 5 −9 1 ⎠

http://lgarcin.github.io 18
© Laurent Garcin MP Dumont d’Urville

3. Kein problem…

2 −2 1 1 0 0
[ 2 −3 2 0 1 0]
−1 2 0 0 0 1
Permutons les lignes L1 et L3 et multiplions la nouvelle première ligne par −1 :
1 −2 0 0 0 −1
[2 −3 2 0 1 0]
2 −2 1 1 0 0
Effectuons L2 ← L2 − 2L1 et L3 ← L3 − 2L1 :
1 −2 0 0 0 −1
[0 1 2 0 1 2]
0 2 1 1 0 2
et par L3 ← −(L3 − 2L1 )/3 :
1 −2 0 0 0 −1
[0 1 2 0 1 2 ]
0 0 1 −1/3 2/3 2/3
et par L2 ← L2 − 2L3 :
1 −2 0 0 0 −1
[0 1 0 2/3 −1/3 2/3]
0 0 1 −1/3 2/3 2/3
et finalement L1 ← L1 + 2L2 :
1 0 0 4/3 −2/3 1/3
[0 1 0 2/3 −1/3 2/3]
0 0 1 −1/3 2/3 2/3
ainsi la matrice est inversible et son inverse vaut :
⎛ 4/3 −2/3 1/3 ⎞
⎜ 2/3 −1/3 2/3 ⎟ .
⎜ ⎟
⎝ −1/3 2/3 2/3 ⎠
4. Pivotons.

1 2 3 4 1 0 0 0
⎡ ⎤
⎢2 3 1 3 0 1 0 0⎥
⎢1 1 1 −1 0 0 1 0⎥
⎢ ⎥
⎣1 0 −2 5 0 0 0 1⎦
Effectuons les opérations L2 ← L2 − 2L1 , L3 ← −L3 + L1, L4 ← L4 − L1 :
1 2 3 4 1 0 0 0
⎡ ⎤
⎢0 1 5 5 2 −1 0 0⎥
⎢0 −1 −2 −5 −1 0 1 0⎥
⎢ ⎥
⎣0 −2 −5 1 −1 0 0 1⎦
puis L3 ← (L3 + L2 )/3 et L4 ← L4 + 2L2 :
1 2 3 4 1 0 0 0
⎡ ⎤
⎢0 1 5 5 2 −1 0 0⎥
⎢0 0 1 0 1/3 −1/3 1/3 0⎥
⎢ ⎥
⎣0 0 5 11 3 −2 0 1⎦
et par L4 ← (L4 − 5L3 )/11 :
1 2 3 4 1 0 0 0
⎡ ⎤
⎢0 1 5 5 2 −1 0 0 ⎥
⎢0 0 1 0 1/3 −1/3 1/3 0 ⎥
⎢ ⎥
⎣0 0 0 1 4/33 −1/33 −5/33 1/11⎦

http://lgarcin.github.io 19
© Laurent Garcin MP Dumont d’Urville

puis L2 ← L2 − 5L4 et L1 ← L1 − 4L4 :

1 2 3 0 17/33 4/33 20/33 −4/11


⎡ ⎤
⎢0 1 5 0 46/33 −28/33 25/33 −5/11⎥
⎢0 0 1 0 1/3 −1/3 1/3 0 ⎥
⎢ ⎥
⎣0 0 0 1 4/33 −1/33 −5/33 1/11 ⎦

et L2 ← L2 − 5L3 et L1 ← L1 − 3L3 :

1 2 0 0 −16/33 37/33 −13/33 −4/11


⎡ ⎤
⎢0 1 0 0 −3/11 9/11 −10/11 −5/11⎥
⎢0 0 1 0 1/3 −1/3 1/3 0 ⎥
⎢ ⎥
⎣0 0 0 1 4/33 −1/33 −5/33 1/11 ⎦

et finalement L1 ← L1 − 2L2 :
1 0 0 0 2/33 −17/33 47/33 6/11
⎡ ⎤
⎢0 1 0 0 −3/11 9/11 −10/11 −5/11⎥
⎢0 0 1 0 1/3 −1/3 1/3 0 ⎥
⎢ ⎥
⎣0 0 0 1 4/33 −1/33 −5/33 1/11 ⎦
donc la matrice est inversible d’inverse :
⎛ 2/33 −17/33 47/33 6/11 ⎞
⎜ −3/11 9/11 −10/11 −5/11 ⎟
⎜ 1/3 .
−1/3 1/3 0 ⎟
⎜ ⎟
⎝ 4/33 −1/33 −5/33 1/11 ⎠
Solution 26

1. Un calcul donne A3 − A = 4𝕀 3 .
2. On a
1
A × (A2 − 𝕀 3 ) = 𝕀 3 ,
4
ainsi A est inversible et
2 −4 2 ⎞
−1 1 2 1⎛
A = (A − 𝕀 3 ) = ⎜ 1 −2 −1 ⎟ .
4 4⎜ ⎟
⎝ 1 2 −1 ⎠

Image et noyau
Solution 27

1.
⎛1 0 0⎞
M=⎜0 1 0⎟
⎜ ⎟
⎝0 0 0⎠
On a clairement
Im(𝑓) = vect((1, 0, 0), (0, 1, 0)) et Ker(𝑓) = vect((0, 0, 1))

2.
⎛ 1 −1 ⎞
M=⎜1 1 ⎟
⎜ ⎟
⎝1 2 ⎠

http://lgarcin.github.io 20
© Laurent Garcin MP Dumont d’Urville

On a clairement
Im(𝑓) = vect((1, 1, 1), (−1, 1, 2)) et Ker(𝑓) = {0}

3.
M = ( 1 −3 2 )
On a clairement
Im(𝑓) = ℝ et Ker(𝑓) = vect((3, 1, 0), (2, 0, −1))

4.
⎛0 1 0 0⎞
⎜0 0 2 0⎟
M=⎜
0 0 0 3⎟
⎜ ⎟
⎝0 0 0 0⎠
On a clairement
Im(𝑓) = vect(1, 2X, 3X2 ) = ℝ2 [X] et Ker(𝑓) = vect(1) = ℝ0 [X]

Solution 28

On note (𝑒1 , 𝑒2 , 𝑒3 ) la base canonique de ℝ3 .


• Après tout calcul, on trouve
Ker(𝑓) = vect(𝑒1 + 𝑒2 + 𝑒3 ).

• De même,
Im(𝑓) = vect(2𝑒1 − 𝑒2 − 𝑒3 , −𝑒1 + 2𝑒2 − 𝑒3 ).

• Comme A2 = A, 𝑓 est un projecteur de ℝ3 .

Solution 29

http://lgarcin.github.io 21
© Laurent Garcin MP Dumont d’Urville

Pour trouver des bases de l’image et du noyau, on pivote en colonnes sur la matrice suivante :

⎛ −11 7 0 3 ⎞
⎜ ⎟
0 1 11 2
⎜ ⎟
⎜ 1 0 7 1 ⎟
⎜ ⎟
⎜ ⎟
⎜ 1 0 0 0 ⎟
⎜ 0 1 0 0 ⎟
⎜ ⎟
0 0 1 0
⎜ ⎟
⎝ 0 0 0 1 ⎠

⎛ −11 0 0 0 ⎞
⎜ ⎟
0 11 11 22
⎜ ⎟
⎜ 1 7 7 14 ⎟
⎜ ⎟ C2 ← 11C2 + 7C1
⎜ ⎟ C ← 11C4 + 3C1
⎜ 1 7 0 3 ⎟ 4
⎜ 0 11 0 0 ⎟
⎜ ⎟
0 0 1 0
⎜ ⎟
⎝ 0 0 0 11 ⎠

⎛ −11 0 0 ⎞
0
⎜ ⎟
0 11 0 0
⎜ ⎟
⎜ 1 7 0 0 ⎟
⎜ ⎟ C3 ← C3 − C2
⎜ ⎟ C ← C4 − 2C2
⎜ 1 7 −7 −11 ⎟ 4
⎜ 0 11 −11 −22 ⎟
⎜ ⎟
0 0 1 0
⎜ ⎟
⎝ 0 0 0 11 ⎠

⎛ −11 0 0 0 ⎞
⎜ ⎟
0 11 0 0
⎜ ⎟
⎜ 1 7 0 0 ⎟
⎜ ⎟ C4
⎜ ⎟C4 ← 11
⎜ 1 7 −7 −1 ⎟
⎜ 0 11 −11 −2 ⎟
⎜ ⎟
0 0 1 0
⎜ ⎟
⎝ 0 0 0 1 ⎠

⎛⎛ −7 ⎞ ⎛ −1 ⎞⎞
⎜⎜ −11 ⎟ ⎜ −2 ⎟⎟ ⎛⎛ −11 ⎞ ⎛ 0 ⎞⎞
Par conséquent, ⎜⎜ , est une base de Ker A et ⎜⎜ 0 ⎟ , ⎜ 11 ⎟⎟ est une base de Im A.
1 ⎟ ⎜ 0 ⎟⎟ ⎜⎜ ⎟ ⎜ ⎟⎟
⎜⎜ ⎟ ⎜ ⎟⎟ ⎝⎝ 1 ⎠ ⎝ 7 ⎠⎠
⎝⎝ 0 ⎠ ⎝ 1 ⎠⎠

http://lgarcin.github.io 22
© Laurent Garcin MP Dumont d’Urville

Pour trouver des systèmes d’équations cartésiennes de l’image et du noyau, on pivote en lignes sur la matrice suivante :

⎛ −11 7 0 3 1 0 0 ⎞
⎜ ⎟
0 1 11 2 0 1 0
⎜ ⎟
⎝ 1 0 7 1 0 0 1 ⎠

⎛ −11 7 0 3 1 0 0 ⎞
⎜ ⎟L3 ← 11L3 + L1
0 1 11 2 0 1 0
⎜ ⎟
⎝ 0 7 77 14 1 0 11 ⎠

⎛ −11 7 0 3 1 0 0 ⎞
⎜ ⎟L3 ← L3 − 7L2
0 1 11 2 0 1 0
⎜ ⎟
⎝ 0 0 0 0 1 −7 11 ⎠

Ainsi un système d’équations cartésiennes minimal de Ker A est

−11𝑥 + 7𝑦 + 3𝑡 = 0
{
𝑦 + 11𝑧 + 2𝑡 = 0

et une équation cartésienne de Im A est


𝑥 − 7𝑦 + 11𝑧 = 0
Solution 30

Notons E1 , E2 , E3 , E4 la base canonique de ℳ4,1 (𝕂) et C1 , C2 , C3 , C4 les colonnes de A. On a donc AE𝑖 = C𝑖 pour tout 𝑖 ∈ J1, 4K. On
remarque que C3 = 0 et que C4 = −2C1 . Enfin, C2 et C1 ne sont pas proportionnelles donc (C1 , C2 ) est une base de Im A.
Comme C3 = 0, on a E3 ∈ Ker A. Comme 2C1 + C4 = 0, 2E1 + E4 ∈ Ker A. Ainsi vect(E3 , 2E1 + E4 ) ⊂ Ker A. D’après le théorème du
rang matriciel, dim Ker A = 2. Donc Ker A = vect(E3 , 2E1 + E4 ) et (E3 , 2E1 + E4 ) est une base de Ker A.

Rang
Solution 31

Déterminons le rang de A par la méthode du pivot de Gauss…

⎛ 2 1 1 3 ⎞
⎜ 1 0 −1 0 ⎟
⎜ 𝑎 2 1 1 ⎟
⎜ ⎟
⎝ 4 3 2 4 ⎠

Effectuons la permutation L1 ⟺ L2 ,
⎛ 1 0 −1 0 ⎞
⎜ 2 1 1 3 ⎟
⎜ 𝑎 2 1 1 ⎟
⎜ ⎟
⎝ 4 3 2 4 ⎠
puis L2 ⟺ L2 − 2L1 , L3 ⟺ L3 − 𝑎L1 et L4 ⟺ L4 − 4L1 ,

⎛ 1 0 −1
0 ⎞
⎜ 0 1 3 3 ⎟
⎜ 0 2 1+𝑎 1 ⎟
⎜ ⎟
⎝ 0 3 6 4 ⎠

http://lgarcin.github.io 23
© Laurent Garcin MP Dumont d’Urville

et L3 ⟺ L3 − 2L2 , L4 ⟺ L4 − 3L2
⎛ 1 0 −1 ⎞0
⎜ 0 1 3 ⎟3
⎜ .
0 0 −5 + 𝑎 −5 ⎟
⎜ ⎟
⎝ 0 0 −3 −5 ⎠
Il est clair que les deux dernières lignes de cette matrices sont liées si et seulement si

| −5 + 𝑎 −5 |
| | = −5𝑎 + 10 = 0,
| |
| −3 −5 |

ie 𝑎 = 2.
• Cas 1 : 𝑎 ≠ 2. Le rang vaut 4.
• Cas 2 : 𝑎 = 2. Le rang vaut 3.
Solution 32

1. Comme dim(Im(M)) = 1, il existe un vecteur colonne non nul U tel que Im(M) = vect(U). Pour tout 1 ⩽ 𝑗 ⩽ 𝑛, il existe 𝑣𝑗 ∈ ℝ tel
que la 𝑗-ième colonne de M soit égale à 𝑣𝑗 U. En notant V le vecteur colonne de composantes 𝑣1 , … , 𝑣𝑛 , on a bien M = UV⊤ .
2. Pour tout 𝑛 ⩾ 2, par associativité du produit matriciel :

M 𝑛 = U(V⊤ U)𝑛−1 V⊤ .

Or V⊤ U est la matrice de taille 1 égale à (tr(M)). Ainsi :

∀𝑛 ⩾ 2, M 𝑛 = (tr(M))𝑛−1 M.

3. D’après le calcul précédent, une matrice M de rang 1 est une matrice de projection si et seulement si tr(M) = 1.
4. D’après ce qui précède, une matrice M de rang 1 est nilpotente si et seulement si tr(M) = 0.
Solution 33

Soit X ∈ Ker A. On a donc AX = 0 puis A⊤ AX = 0 donc X ∈ Ker A⊤ A. Ainsi Ker A ⊂ Ker A⊤ A.


Soit maintenant X ∈ Ker A⊤ A. On a donc A⊤ AX = 0 puis X⊤ A⊤ AX = 0. Notons Y = AX. Ainsi Y⊤ Y = 0. Or Y⊤ Y est la somme des carrés
des composantes de Y donc Y = 0 i.e. AX = 0. D’où X ∈ Ker A. Ainsi Ker A⊤ A ⊂ Ker A.
Finalement, Ker A = Ker A⊤ A et rg A = rg A⊤ A via le théorème du rang (A et A⊤ A ont le même nombre de colonnes). En changeant A en
A⊤ , on a également rg A⊤ = rg AA⊤ . Or rg A = rg A⊤ . Ainsi rg A⊤ A = rg AA⊤ = rg A.
Solution 34

1. Supposons qu’il existe A ∈ GL𝑛 (ℝ) telle que 𝑓(A) = 0. Alors pour tout M ∈ ℳ𝑛 (ℝ), 𝑓(M) = 𝑓(MA−1 A) = 𝑓(MA−1 )𝑓(A) = 0, ce
qui contredit le fait que 𝑓 est non constamment nulle.
2. a. Soit A𝑖 diagonale, dont les 𝑟+1 premiers éléments diagonaux valent 1, à l’exception du 𝑖ème nul, ainsi que tous les autres éléments
diagonaux (ceci a du sens car 𝑟 < 𝑛). Le rang de A𝑖 est clairement égal à 𝑟 qui est le rang de A : A𝑖 est donc équivalente à A ; par
𝑟+1
ailleurs, ∏𝑘=1 A𝑘 = 0.
b. 𝑓(0) = 𝑓(0 × 0) = 𝑓(0)2 donc 𝑓(0) = 0 ou 𝑓(0) = 1. On ne peut avoir 𝑓(0) = 1 sinon pour toute matrice M de ℳ𝑛 (ℝ),
𝑓(M) = 𝑓(M)𝑓(0) = 𝑓(M×0) = 𝑓(0) = 1, ce qui contredit le fait que 𝑓 n’est pas constamment égale à 1. Ainsi 𝑓(A1 )...𝑓(A𝑟+1 ) =
𝑓(0) = 0 ; l’un des 𝑓(A𝑖 ) est donc nul. Or il existe des matrices inversibles P et Q telles que A = PA𝑖 Q, ce qui donne 𝑓(A) = 0.
3. Ainsi, 𝑓 est nulle sur les matrices non inversibles, et par ailleurs induit un morphisme de groupe de GL𝑛 (ℝ) vers ℝ∗ . Exemple : le
déterminant (qu’on peut composer avec un morphisme de ℝ∗ dans lui-même, par exemple 𝑥 ↦ 𝑥𝑘 , 𝑘 ∈ ℤ∗ ...)

http://lgarcin.github.io 24
© Laurent Garcin MP Dumont d’Urville

Solution 35

On a U ∈ Ker(A − λI𝑛 ) donc dim Ker(A − λI𝑛 ) ≥ 1. Ainsi rg(A − λI𝑛 ) < 𝑛. Donc rg(A − λI𝑛 )⊤ < 𝑛 i.e. rg(A⊤ − λI𝑛 ) < 𝑛. Par conséquent,
dim Ker(A⊤ − λI𝑛 ) ≥ 1. Ainsi il existe V ∈ ℳ𝑛,1 (𝕂) non nul tel que A⊤ V = λV.
Solution 36

I𝑟 0
Supposons rg(M) = 𝑟. Il existe donc des matrices P, Q ∈ GL𝑛 (𝕂) telles que M = PJ𝑟 Q avec J𝑟 = ( ). Notons X1 , … , X𝑛 les colonnes
0 0
de P et Y1 , … , Y𝑛 les colonnes de Q⊤ . On vérifie alors que M = X1 Y1⊤ + ⋯ + X𝑟 Y𝑟⊤ . Les colonnes de P et Q⊤ forment des familles libres
puisque ces matrices sont inversibles. A fortiori, les sous-familles (X1 , … , X𝑟 ) et (Y1 , … , Y𝑟 ) sont libres.
Réciproquement soient (X1 , … , X𝑟 ) et (Y1 , … , Y𝑟 ) deux familles libres de ℳ𝑛,1 (𝕂). On peut les compléter respectivement en des bases
(X1 , … , X𝑛 ) et (Y1 , … , Y𝑛 ) de ℳ𝑛,1 (𝕂). Notons P la matrice de GL𝑛 (𝕂) dont les colonnes sont X1 , … , X𝑛 et Q la matrice de GL𝑛 (𝕂) dont
les lignes sont Y1⊤ , … , Y𝑛⊤ . Puisque (X1 , … , X𝑛 ) et (Y1 , … , Y𝑛 ) sont des bases de ℳ𝑛,1 (𝕂), les matrices P et Q sont inversibles. On vérifie que
M = PJ𝑟 Q de sorte que M est de rang 𝑟.

Matrices définies par blocs


Solution 37

Notons
𝕀𝑛 𝕆𝑛
P=( )
− 𝕀𝑛 𝕀𝑛
et
𝕀 𝑛 −𝕀 𝑛
Q=( ).
𝕆𝑛 𝕀𝑛
Un calcul par bloc élémentaire aboutit à
A 𝕆𝑛
N = PMQ = ( ).
𝕆𝑛 B
Les matrices P et Q étant triangulaires sans coefficients nuls sur la diagonales, elles sont inversibles et le rang de M est donc égal à celui de
N. Puisque les espaces vectoriels engendrés respectivement par les 𝑛 premières colonnes et les 𝑛 dernières colonnes de N sont en somme
directe (cf. les blocs de zéros sur la diagonale « montante» de N) et de dimensions respectives rg(A) et rg(B), le rang de N vaut le rang de A
plus celui de B.
Solution 38

A−1 C′
Supposons que A et B soient inversibles et posons N = ( ) avec C′ = −A−1 CB−1 . On vérifie alors que MN = I𝑛+𝑝 donc M est
0 B−1
inversible d’inverse N.
A′ C′
Supposons M inversible. Posons M −1 = ( ) avec A′ ∈ ℳ𝑛 (𝕂), B′ ∈ ℳ𝑝 (𝕂), C′ ∈ ℳ𝑛,𝑝 (𝕂) et D′ ∈ ℳ𝑝,𝑛 (𝕂). Puisque MM −1 =
D′ B′
AA′ + CD′ = I𝑛
⎧ ′
⎪ AC + CB′ = 0
I𝑛,𝑝 , on obtient . Puisque BB′ = I𝑝 , B est inversible. Mais alors la relation BD′ = 0 entraîne D = 0, qui elle-même entraîne
⎨ BD′ = 0

⎩ BB′ = I𝑝
AA = I𝑛 . A et B sont bien inversibles (et on obtient à nouveau le fait que M −1 est de la forme donnée dans l’énoncé).

Remarque. Bien évidemment, on peut généraliser le résultat par récurrence à des matrices triangulaires par blocs à plus de deux blocs
diagonaux.
Par transposition, le résultat est également valable pour des matrices triangulaires par blocs inférieures.

Solution 39

http://lgarcin.github.io 25
© Laurent Garcin MP Dumont d’Urville

A B
1. Soit M = ( ) ∈ 𝒢 avec A ∈ ℳ𝑟 (𝕂). Puisque ME = EM = M, un calcul par blocs donne B = 0, C = 0 et D = 0.
C D
A′ 0
Soit M ′ l’inverse de M dans 𝒢. D’après ce qui précède, M ′ est de la forme ( ) avec A′ ∈ ℳ𝑟 (𝕂). Or MM ′ = E donc AA′ = I𝑟 ,
0 0
ce qui prouve que A est inversible.
A 0
Il suffit alors de vérifier que l’application qui à M = ( ) ∈ 𝒢 associe A est un morphisme de groupes de 𝒢 dans GL𝑟 (𝕂). Ce
0 0
morphisme est clairement injectif donc 𝒢 est isomorphe à un sous-groupe de GL𝑟 (𝕂).

I𝑟 0
2. On sait que E 2 = E donc E est une matrice de projecteur. Elle est donc semblable à une matrice J𝑟 = ( ) avec 𝑟 ∈ J1, 𝑛K
0 0
(E ne peut être nulle sinon 𝒢 = {0}). Soit P ∈ GL𝑛 (𝕂) telle que E = P−1 J𝑟 P. L’application qui à M ∈ 𝒢 associe PMP−1 induit
un isomorphisme de groupes de 𝒢 sur un groupe 𝒢 ′ d’élément neutre J𝑟 . La question précédente montre que 𝒢 ′ est isomorphe à un
sous-groupe de GL𝑟 (𝕂) et donc 𝒢 également.
Solution 40

I𝑛 −A−1 C A 0
Supposons A inversible. Posons N = ( ). Alors MN = (
). Puisque N est inversible, rg M = rg MN. Or rg(MN) =
0 I𝑛 0 B
rg A+rg B, soit en considérant le sous-espace vectoriel engendré par les colonnes ou les lignes de MP, soit en introduisant (P1 , Q1 ) ∈ GL𝑛 (𝕂)2
J𝑛,𝑛,𝑟 0
et (P2 , Q2 ) ∈ GL𝑝 (𝕂)2 tels que P1 AQ1 = J𝑛,𝑛,𝑟 et P2 BQ2 = J𝑝,𝑝,𝑟 : alors P(MN)Q = ( ) où P et Q sont respectivement les
0 J𝑝,𝑝,𝑟
P1 0 Q1 0
matrices inversibles ( ) et ( ).
0 P2 0 Q2
Si A n’est plus supposée inversible, le résultat tombe. Il suffit par exemple de prendre A et B nulles et C non nulle.
Solution 41

On sait qu’il existe (P1 , Q1 , P2 , Q2 ) ∈ GL𝑛 (𝕂) × GL𝑝 (𝕂) × GL𝑞 (𝕂) × GL𝑟 (𝕂) tel que P1 AQ1 = J𝑛,𝑝,𝑠1 et P2 BQ2 = J𝑞,𝑟,𝑠2 où 𝑠1 = rg(A) et
P1 0𝑛,𝑞 Q1 0𝑝,𝑟 J𝑛,𝑝,𝑠1 0𝑛,𝑟
𝑠2 = rg(B). En posant P = ( ) et Q = ( ), on a PMQ = ( ). Il est clair que rg(PMQ) = 𝑠1 + 𝑠2 . On
0𝑞,𝑛 P2 0𝑟,𝑝 Q2 0𝑞,𝑝 J𝑞,𝑟,𝑠2
P1−1 0𝑛,𝑞 Q−1 0𝑝,𝑟
montre facilement que P et Q sont inversibles : il suffit de vérifier que ( ) et ( ) sont leurs inverses respectifs. Ainsi
1
0𝑞,𝑛 P2−1 0𝑟,𝑝 Q−1
2
rg(M) = rg(PMQ) = 𝑠1 + 𝑠2 = rg(A) + rg(B).

Changement de base
Solution 42

1. Les ensembles des solutions des équations AX = 0, AX = X et AX = 2X d’inconnue X ∈ ℳ3,1 (ℝ) sont respectivement

⎛⎛ 1 ⎞⎞ ⎛⎛ 0 ⎞⎞ ⎛⎛ 1 ⎞⎞
vect ⎜⎜ 1 ⎟⎟ vect ⎜⎜ 1 ⎟⎟ vect ⎜⎜ 0 ⎟⎟
⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟
⎝⎝ 1 ⎠⎠ ⎝⎝ −1 ⎠⎠ ⎝⎝ 1 ⎠⎠
En choisissant
ε1 = 𝑒1 + 𝑒2 + 𝑒3 ε2 = 𝑒2 − 𝑒3 ε3 = 𝑒1 + 𝑒3
on a alors
𝑓(ε1 ) = 0E 𝑓(ε2 ) = ε2 𝑓(ε3 ) = 2ε3

http://lgarcin.github.io 26
© Laurent Garcin MP Dumont d’Urville

⎛⎛ 1 ⎞ ⎛ 0 ⎞ ⎛ 1 ⎞⎞
Comme la famille ⎜⎜ 1 ⎟ , ⎜ 1 ⎟ , ⎜ 0 ⎟⎟ est clairement une base de ℳ3,1 (ℝ), 𝒞 est également une base de E. Dans cette base, la
⎜⎜ ⎟ ⎜ ⎟ ⎜ ⎟⎟
⎝⎝ 1 ⎠ ⎝ −1 ⎠ ⎝ 1 ⎠⎠
matrice de 𝑓 est D.

⎛1 0 1⎞
2. Il suffit de prendre pour P la matrice de passage de ℬ vers 𝒞, autrement dit P = ⎜ 1 1 0 ⎟.
⎜ ⎟
⎝ 1 −1 1 ⎠
𝑛+1
⎛ −1 1 1 ⎞ ⎛ 2 −2𝑛 −2𝑛 ⎞
3. On calcule P−1 = ⎜ 1 0 −1 ⎟. Pour tout 𝑛 ∈ ℕ∗ , A𝑛 = PD𝑛 P−1 = ⎜ 1 0 −1 ⎟.
⎜ ⎟ ⎜ ⎟
𝑛+1
⎝ 2 −1 −1 ⎠ ⎝2 − 1 −2 1 − 2𝑛
𝑛

⎛ 𝑥𝑛 ⎞
4. Il suffit de remarquer qu’en posant X𝑛 = ⎜ 𝑦𝑛 ⎟, on a X0 = ( 1 0 0 ) et pour tout 𝑛 ∈ ℕ, X𝑛+1 = AX𝑛 . Ainsi pour tout 𝑛 ∈ ℕ∗ ,
⎜ ⎟
⎝ 𝑧𝑛 ⎠
X𝑛 = A𝑛 X0 . On en déduit que pour tout 𝑛 ∈ ℕ∗ ,

𝑥𝑛 = 2𝑛+1 𝑦𝑛 = 1 𝑧𝑛 = 2𝑛+1 − 1

Solution 43

1. Les vecteurs 𝑢 et 𝑣 n’étant pas colinéaires, ℬ est libre. Comme dim(ℝ2 ) = 2, ℬ est une base de ℝ2 .
2. On a bien-sûr
1 1
mat(ℬ0 → ℬ) = ( ).
1 −1
Appliquons la méthode du pivot de Gauss pour inverser P…

1 1 1 0
[ ]
1 −1 0 1

Par l’opération L2 ↔ (−L2 + L1 )/2,


1 1 1 0
[ ]
0 1 1/2 −1/2
puis, en effectuant L1 ↔ L1 − L2 ,
1 0 1/2 1/2
[ ].
0 1 1/2 −1/2
L’inverse de mat(ℬ0 → ℬ) vaut donc
1/2 1/2
mat(ℬ → ℬ0 ) = [ ].
1/2 −1/2

Solution 44

1. On a bien-sûr
⎛ 2 −1 0 ⎞
M = ⎜ 0 1 −1 ⎟ .
⎜ ⎟
⎝ 2 0 −1 ⎠

http://lgarcin.github.io 27
© Laurent Garcin MP Dumont d’Urville

2. Appliquons la méthode du pivot de Gauss…


1 1 0
[ −1 0 1 ]
0 1 −1
par L2 ← L2 + L1 ,
1 1 0
[ 0 1 1 ]
0 1 −1
puis, en effectuant L3 ↔ L3 − L2 ,
1 1 0
[ 0 1 1 ].
0 0 −2
La famille ℬ′ = (𝑓1 , 𝑓2 , 𝑓3 ) est donc libre. Puisque dim(E) = 3, ℬ′ est une base de E.
3. On a
⎛ 0 −1 1 ⎞
P = mat(ℬ → ℬ′ ) = ⎜ 1 0 1 ⎟.
⎜ ⎟
⎝ −1 1 0 ⎠
Inversons P par la méthode du pivot de Gauss…
0 −1 1 1 0 0
[ 1 0 1 0 1 0 ]
−1 1 0 0 0 1
par L1 ↔ L2 ,
1 0 1 0 1 0
[ 0 −1 1 1 0 0 ]
−1 1 0 0 0 1
puis, en effectuant L3 ↔ L3 + L1 ,
1 0 1 0 1 0
[ 0 −1 1 1 0 0 ]
0 1 1 0 1 1
continuons par L3 ← (L3 + L2 )/2,
1 0 1 0 1 0
[ 0 −1 1 1 0 0 ]
0 0 1 1/2 1/2 1/2
puis, en effectuant L2 ↔ −L2 + L3 et L1 ← L1 − L3 ,
1 0 0 −1/2 1/2 −1/2
[ 0 1 0 −1/2 1/2 1/2 ] .
0 0 1 1/2 1/2 1/2
L’inverse de P vaut donc
⎛ − 1/2 1/2 −1/2 ⎞
P−1 = mat(ℬ′ → ℬ) = ⎜ − 1/2 1/2 1/2 ⎟ .
⎜ ⎟
⎝ 1/2 1/2 1/2 ⎠
4. On a, après tout calcul,
𝑓(𝑓1 ) = (−1, 2, 1) , 𝑓(𝑓2 ) = (−2, −1, −3) , 𝑓(𝑓3 ) = (1, 1, 2).
En résolvant u système voire en tâtonnant un peu, on trouve sans peine que
𝑓(𝑓1 ) = 𝑓1 + 2𝑓2 + 𝑓3 , 𝑓(𝑓2 ) = 2𝑓1 − 𝑓2 − 3𝑓3 ,
et 𝑓(𝑓3 ) = −𝑓1 + 𝑓2 + 2𝑓3 . D’où
⎛ 1 2 −1 ⎞
M ′ = ⎜ 2 −1 1 ⎟.
⎜ ⎟
⎝ 1 −3 2 ⎠

http://lgarcin.github.io 28
© Laurent Garcin MP Dumont d’Urville

5. D’après la formule du changement de base, on a


M = PM ′ P−1 .

Solution 45

1. Après des calculs élémentaires, on trouve


Ker(𝑓) = vect((−3, −2, 1, 0), (−2, −1, 0, 1))
puis
Im(𝑓) = vect((1, 1, −1, 1), (2, −1, 1, 0))
et
Ker(𝑓) ∩ Im(𝑓) = vect((1, 1, −1, 1)).

2. Par un pivot de Gauss élémentaire, on trouve


rg(ℱ) = 4 = dim(ℝ4 )
ainsi ℱ est une base de ℝ4 .
3. Après tout calcul,
⎛0 0 0 0⎞
⎜1 0 −4 0 ⎟
mat ℱ (𝑓) = ⎜
0 0 0 0⎟
⎜ ⎟
⎝0 0 1 1⎠

Représentation des applications linéaires


Solution 46

1. Comme A, P ∈ ℝ2 [X], deg(AP) ≤ 4. Ainsi deg(AP)″ ≤ 2 i.e. 𝑓(P) ∈ E.

⎛ 2𝑐 2𝑏 2𝑎 ⎞
2. 𝑓(1) = 2𝑐, 𝑓(X) = 2𝑏 + 6𝑐X, 𝑓(X2 ) = 2𝑎 + 6𝑏X + 12𝑐X2 . Ainsi M = ⎜ 0 6𝑐 6𝑏 ⎟.
⎜ ⎟
⎝ 0 0 12𝑐 ⎠
3. det M = 144𝑐3 . Ainsi M est inversible si et seulement si 𝑐 ≠ 0 i.e. deg A = 2.

⎛2 0 2 ⎞
4. On a alors 𝑎 = 1, 𝑏 = 0 et 𝑐 = 0. Ainsi M = ⎜ 0 6 0 ⎟. On sait que les coefficients diagonaux d’un produit de matrice triangulaire sont
⎜ ⎟
⎝ 0 0 12 ⎠
les produits des coefficients diagonaux. De plus, on voit sur quelques exemples que les coefficients de la surdiagonale de M sont nuls.
𝑛
⎛ 2 0 𝑎𝑛 ⎞
On est donc amené à formuler l’hypothèse de recurrence HR(𝑛) suivante : M 𝑛 = ⎜ 0 6𝑛 0 ⎟. HR(0) est évidemment vraie. On
⎜ ⎟
𝑛
⎝ 0 0 12 ⎠
suppose HR(𝑛) pour un certain 𝑛 ∈ ℕ. M 𝑛+1 = M 𝑛 .M. Comm M 𝑛 et M sont triangulaires supérieures, M 𝑛+1 est triangulaire supérieure
et les coefficients diagonaux de M 𝑛+1 sont 2𝑛+1 , 6𝑛+1 et 12𝑛+1 . On s’aperçoit également que les coefficients de la surdiagonale de M 𝑛+1
12𝑛 −2𝑛
sont nuls. M 𝑛+1 est bien de la forme annoncé et on obtient en plus, 𝑎𝑛+1 = 2𝑛+1 + 12𝑎𝑛 = 2𝑎𝑛 + 2.12𝑛 . Ainsi 𝑎𝑛 = . Donc
5
HR(𝑛) est vraie pour tout 𝑛 ∈ ℕ et on obtient en sus une expression de 𝑎𝑛 en fonction de 𝑛. Par conséquent,
𝑛 12𝑛 −2𝑛
⎛2 0 5 ⎞
M 𝑛 = ⎜ 0 6𝑛 0 ⎟
⎜ ⎟
⎝ 0 0 12𝑛 ⎠

http://lgarcin.github.io 29
© Laurent Garcin MP Dumont d’Urville

La formule devrait être vraie pour 𝑛 négatif. Prenons donc 𝑛 = −1 dans la formule précédente. On vérifie que la matrice ainsi obtenue
est bien l’inverse de M. Ainsi
1 1
⎛ 0 − ⎞
2 12
1
M −1 = ⎜ 0 0 ⎟
⎜ 6
1 ⎟
⎝0 0 12 ⎠

Solution 47

1. Les applications P ↦ P(X + 𝑎) pour 𝑎 ∈ ℝ sont linéaires. Donc 𝑓 est bien linéaire comme somme d’applications linéaires.
De plus, deg P(X + 𝑎) = deg P pour 𝑎 ∈ ℝ. Donc deg 𝑓(P) ≤ max(deg P(X + 1), deg P(X − 1), deg P) = deg(P).
Ainsi 𝑓 est un endomorphisme de ℝ3 [X].
2. Des calculs élémentaires donnent ;

𝑓(1) = 0 𝑓(X2 ) = (X + 2)2 + X2 − 2(X + 1)2 = 2


𝑓(X) = (X + 2) + X − 2(X + 1) = 0 𝑓(X3 ) = (X + 2)3 + X3 − 2(X + 1)3 = 6X + 6

⎛0 0 2 6⎞
⎜0 0 0 6⎟
La matrice de 𝑓 dans la base canonique est donc A = ⎜ . Il est alors clair que Ker 𝑓 = Im 𝑓 = vect(1, X).
0 0 0 0⎟
⎜ ⎟
⎝0 0 0 0⎠

3. Posons P3 = X2 , P4 = X3 , P1 = 𝑓(X2 ) = 2 et P2 = 𝑓(X3 ) = 6X + 6. La famille (P1 , P2 , P3 , P4 ) est une base de ℝ3 [X] car c’est une
famille de quatre polynômes à degrés échelonnés. P1 et P2 appartiennent au noyau de 𝑓. Il est alors clair que la matrice de 𝑓 dans la
base (P1 , P2 , P3 , P4 ) est de la forme voulue.
Solution 48

1. Il est clair que 𝑓 est bien à valeurs dans ℳ𝑛 (ℝ). 𝑓 est linéaire par linéarité de la trace et bilinéarité du produit matriciel. 𝑓 est donc un
endomorphisme de ℳ𝑛 (ℝ).
2. 𝑓 est une symétrie si et seulement si 𝑓2 = Idℳ𝑛(𝕂) . Or

𝑓2 (X) = X + tr(AX)B + tr (A(X + tr(AX)B)) B = X + tr(AX)B + tr (AX + tr(AX)AB) B


= X + (2 tr(AX) + tr(AX) tr(AB)) B = X + tr(AX)(2 + tr(AB))B

Ainsi 𝑓 est une symétrie si et seulement si tr(AX)(2 + tr(AB))B = 0 pour tout X ∈ ℳ𝑛 (ℝ), c’est-à-dire si et seulement si l’une des
trois conditions suivantes est réalisée :
• B = 0;
• tr(AB) = −2 ;
• ∀X ∈ ℳ𝑛 (ℝ), tr(AX) = 0 ce qui équivaut à A = 0 (prendre pour X les éléments de la base canonique de ℳ𝑛 (ℝ).
3. Si A = 0 ou B = 0, alors 𝑓 = Idℳ𝑛(𝕂) donc la base de 𝑓 est ℳ𝑛 (ℝ) et sa direction est le sous-espace nul.
Supposons maintenant A ≠ 0 et B ≠ 0 ; on a donc tr(AB) = −2. La base de 𝑓 est Ker(𝑓 − Idℳ𝑛(𝕂) ). Or

X ∈ Ker(𝑓 − Idℳ𝑛(𝕂) ) ⟺ tr(AX)B = 0 ⟺ tr(AX) = 0 car B ≠ 0

La direction de 𝑓 est Ker(𝑓 + Idℳ𝑛(𝕂) ). Soit X ∈ Ker(𝑓 + Idℳ𝑛(𝕂) ). Alors 2X = tr(AX)B et donc X ∈ vect(B). Réciproquement soit
X ∈ vect(B). Il existe donc λ ∈ ℝ tel que X = λB. Alors 𝑓(X) = λB + λ tr(AB)B = −λB = −X car tr(AB) = −2. Donc 𝑓(X) = −X.
La base de 𝑓 est donc le noyau de la forme linéaire X ↦ tr(AX) non nulle car A ≠ 0 : c’est un hyperplan de ℳ𝑛 (ℝ). La direction de 𝑓
est vect(B) : c’est une droite vectorielle de ℳ𝑛 (ℝ).

http://lgarcin.github.io 30
© Laurent Garcin MP Dumont d’Urville

Solution 49

0𝑝 I𝑝
Supposons que 𝑛 soit pair et qu’il existe une base ℬ = (𝑒1 , … , 𝑒𝑛 ) de E telle que la matrice de 𝑓 dans la base soit A = ( ). Un
0𝑝 0𝑝
calcul par blocs montre que A2 = 0 et donc 𝑓2 = 0. Par conséquent, Im 𝑓 ⊂ Ker 𝑓. Par ailleurs, il est clair que rg A = 𝑝 et donc rg 𝑓 = 𝑝.
Mais d’après le théorème du rang, dim E = rg 𝑓 + dim Ker 𝑓 donc dim Ker 𝑓 = 𝑝 = dim Im 𝑓. Mais puisqu’on a déjà Im 𝑓 ⊂ Ker 𝑓, on peut
conclure que Im 𝑓 = Ker 𝑓.
Supposons maintenant que Im 𝑓 = Ker 𝑓. Le théorème du rang assure alors que 𝑛 est pair et que dim Ker 𝑓 = dim Im 𝑓 = 𝑝 où 𝑛 = 2𝑝. Soit
(𝑒𝑝+1 , … , 𝑒𝑛 ) une base d’un supplémentaire S de Ker 𝑓 dans E. Posons 𝑒𝑖 = 𝑓(𝑒𝑝+𝑖 ) pour tout 𝑖 ∈ J1, 𝑝K. Puisque 𝑓 induit un isomorphisme
de S sur Im 𝑓 et que (𝑒𝑝+1 , … , 𝑒𝑛 ) est une base de S, (𝑒1 , … , 𝑒𝑝 ) est une base de Im 𝑓 et donc de Ker 𝑓. Récapitulons : (𝑒1 , … , 𝑒𝑝 ) est une base
de Ker 𝑓, (𝑒𝑝+1 , … , 𝑒𝑛 ) est une base de S et E = Ker 𝑓 ⊕ S donc (𝑒1 , … , 𝑒𝑛 ) est une base de E. Il est alors clair que la matrice de 𝑓 dans cette
base est de la forme voulue.
Solution 50

1. Soient P et Q dans E𝑛 et λ ∈ ℝ.

T𝑛 (P + λQ) = (𝑛X + 1)(P + λQ) + (1 − X2 )(P + λQ)′


= (𝑛X + 1)(P + λQ) + (1 − X2 )(P′ + λQ′ )
= (𝑛X + 1)P + (1 − X2 )P′ +
λ[(𝑛X + 1)Q + (1 − X2 )Q′ ]
= T𝑛 (P) + λT𝑛 (Q)

par linéarité de la dérivation et du produit. Vérifions quele degré de T𝑛 (P) est inférieur ou égal à 𝑛 lorsque P ∈ E𝑛 . §Un tel polynôme
s’écrit 𝑛
P = ∑ 𝑝𝑘 X𝑘 ,
𝑘=0
et donc 𝑛
P′ = ∑ 𝑘𝑝𝑘 X𝑘−1 .
𝑘=1

Le polynôme (1 + 𝑛X)P est donc de degré au plus 𝑛 + 1 et le cœfficient de X𝑛+1 dans ce polynôme vaut 𝑛𝑝𝑛 X𝑛+1 . De même, le
polynôme (1 − X2 )P′ est donc de degré au plus 𝑛 + 1 et le cœfficient de X𝑛+1 dans ce polynôme vaut 𝑛𝑝𝑛 X𝑛+1 . Par différence, T𝑛 (P)
est de degré au plus 𝑛.
2. On a, pour tout entier 0 ⩽ 𝑘 ⩽ 𝑛,

T𝑛 (X𝑘 ) = (𝑛X + 1)X𝑘 + (1 − X2 )𝑘X𝑘−1


= 𝑘X𝑘−1 + X𝑘 + (𝑛 − 𝑘)X𝑘+1

On a donc
⎛ 1 1 0 … 00 ⎞
⎜ 𝑛 1 2 ⋱ ⋮ 0 ⎟
⎜ 0 𝑛−1 1 ⋱ 0 ⋮ ⎟
M𝑛 = ⎜ ⎟
⎜ ⋮ 0 𝑛−2 ⋱ 𝑛−1 0 ⎟
⎜ ⋮ ⋮ 0 ⋱ 1 𝑛 ⎟
⎜ ⎟
⎝ 0 0 … 0 1 1 ⎠

3. Lorsque 𝑛 = 3, on a
⎛ 1 1 0 0 ⎞
⎜ 3 1 2 0 ⎟
M3 = ⎜ .
0 2 1 3 ⎟
⎜ ⎟
⎝ 0 0 1 1 ⎠

http://lgarcin.github.io 31
© Laurent Garcin MP Dumont d’Urville

Déterminons le noyau de M 3 par la méthode du pivot de Gauss…


1 1 0 0
⎡ ⎤
⎢ 3 1 2 0 ⎥
⎢ 0 2 1 3 ⎥
⎢ ⎥
⎣ 0 0 1 1 ⎦
par L2 ← L2 − 3L1 ,
1 1 0 0
⎡ ⎤
⎢ 0 −2 2 0 ⎥
⎢ 0 2 1 3 ⎥
⎢ ⎥
⎣ 0 0 1 1 ⎦
puis L3 ← (L3 + L2 )/3,
1 1 0 0
⎡ ⎤
⎢ 0 −2 2 0 ⎥
.
⎢ 0 0 1 1 ⎥
⎢ ⎥
⎣ 0 0 1 1 ⎦
Un vecteur
⎛ 𝑥1 ⎞
⎜ 𝑥2 ⎟
X=⎜
𝑥3 ⎟
⎜ ⎟
⎝ 𝑥4 ⎠
appartient donc à Ker(M 3 ) si et seulement si
𝑥1 + 𝑥2 = −𝑥2 + 𝑥3 = 𝑥3 + 𝑥4 = 0,
ie X est de la forme
⎛ 𝑥1 ⎞
⎜ − 𝑥1 ⎟
X=⎜
− 𝑥1 ⎟ avec 𝑥1 ∈ ℝ.
⎜ ⎟
⎝ 𝑥1 ⎠
On a donc
1
Ker(M 3 ) = vect [( −1
−1 )],
1

et donc
Ker(T3 ) = vect(1 − X − X2 + X3 ).
D’après le théorème du rang, rg(M 3 ) = 3. Les trois premières colonnes de M 𝑛 formant manifestement une famille libre, on a
1 1 0
Im(M 3 ) = vect [( 03 ), ( 21 ), ( 21 )],
0 0 1

et donc
Im(T3 ) = vect(1 + 3X, 1 + X + 2X2 , 2X + X2 + X3 ).
Solution 51

1. Soient M, N ∈ ℳ2 (ℝ) et λ ∈ ℝ. D’après la structure d’algèbre de ℳ2 (ℝ),


φA (M + λN) = A(λM + N)
= A(λM) + AN
= λAM + AN
= λφA (M) + φA (N)
ainsi φA est un endomorphisme de ℳ2 (ℝ).

http://lgarcin.github.io 32
© Laurent Garcin MP Dumont d’Urville

2. Une matrice
𝑥 𝑦
M = ( )
𝑧 𝑡
appartient à Ker(φA ) si et seulement si

2𝑧 − 2𝑦 −2𝑥 − 3𝑦 + 2𝑡
φA (M) = ( ) = 0,
2𝑥 + 3𝑧 − 2𝑡 2𝑦 − 2𝑧

ie
𝑧 − 𝑦 = 2𝑥 + 3𝑧 − 2𝑡 = 0.
Les éléments du noyau de φA sont donc les matrices de la forme
3
𝑡− 𝑧 𝑧
M=( 2 ).
𝑧 𝑡

D’après le théorème du rang, l’image de φA est de dimension 2. Puisque qu’elle est engendrée par l’image de la base canonique de
ℳ2 (ℝ) et que
0 −2
φA (E1,1 ) = ( )
2 0
et
− 2 −3
φA (E1,2 ) = ( )
0 2
forment une famille libre, une base de Im(φA ) est

0 −2 − 2 −3
(( ),( ) ).
2 0 0 2

3. Le commutant de A est égal au noyau de φA . Or, d’après les calculs précédents, une matrice M appartient à Ker(φA ) si et seulement
si il existe deux réels 𝑡 et 𝑧 tels que
3
1 0 − 1
M = 𝑡( ) + 𝑧( 2 ).
0 1 1 0

Solution 52

1. Soit P ∈ ℝ2 [X]. Puisque P′ est alors de degré au plus un, 𝑓(P) est de degré au plus deux donc appartient à ℝ2 [X]. L’application 𝑓 est
clairement linéaire par linéarité de la dérivation sur ℝ2 [X] : on a bien 𝑓 ∈ ℒ(ℝ2 [X]).
2. On a clairement
𝑓(1) = 1 , 𝑓(X) = 1 + X , 𝑓(X2 ) = 2X + X2 .
Ainsi,
⎛ 1 1 0 ⎞
M = ⎜ 0 1 2 ⎟.
⎜ ⎟
⎝ 0 0 1 ⎠

3. La matrice M étant clairement de rang 3, 𝑓 est un automorphisme de E. Inversons M par la méthode du pivot de Gauss…

1 1 0 1 0 0
[ 0 1 2 0 1 0 ]
0 0 1 0 0 1

http://lgarcin.github.io 33
© Laurent Garcin MP Dumont d’Urville

par L2 ← L2 − 2L3 ,
1 1 0 1 0 0
[ 0 1 0 0 1 −2 ]
0 0 1 0 0 1
puis, en effectuant L1 ← L1 − L2 ,
1 0 0 1 −1 2
[ 0 1 0 0 1 −2 ] .
0 0 1 0 0 1
L’inverse de M vaut donc
1 −1 2
M −1 = [ 0 1 −2 ] .
0 0 1

4. Notons U le vecteur colonne des coordonnées du polynôme P = 𝑓−1 (1 + X + X2 ) dans la base canonique de E. Puisque le vecteur
colonne des coordonnées de 1 + X + X2 dans la base canonique de E est

⎛ 1 ⎞
V = ⎜ 1 ⎟,
⎜ ⎟
⎝ 1 ⎠

on a U = M −1 V, c’est-à-dire
⎛ 2 ⎞
U=⎜ −1 ⎟
⎜ ⎟
⎝ 1 ⎠
et donc P = 2 − X + X2 .
Solution 53

1. Notons (𝑒1 , 𝑒2 , 𝑒3 ) la base canonique de ℝ3 . Il est clair que rg(𝑓) = 2 avec

Ker(𝑓) = vect(𝑒1 ) et Im(𝑓) = vect(𝑒1 , 𝑒2 + 𝑒3 ).

2. On a clairement
⎛ 0 0 3 ⎞
A = mat ℬ (𝑓 ) = ⎜ 0 0 1 ⎟ .
2 2
⎜ ⎟
⎝ 0 0 1 ⎠
Ainsi :
Ker(𝑓2 ) = vect(𝑒1 , 𝑒2 ) et Im(𝑓2 ) = vect(3𝑒1 + 𝑒2 + 𝑒3 ).

3. On a
dim(Ker(𝑓2 )) = 2 et dim(Im(𝑓2 )) = 1
et Im(𝑓2 ) = vect(3𝑒1 + 𝑒2 + 𝑒3 ) avec
3𝑒1 + 𝑒2 + 𝑒3 ∉ vect(𝑒1 , 𝑒2 ) = Ker(𝑓2 )
donc Ker(𝑓2 ) ∩ Im(𝑓2 ) = {0}. On en déduit que Ker(𝑓2 ) et Im(𝑓2 ) sont supplémentaires dans ℝ3 .
Solution 54

http://lgarcin.github.io 34
© Laurent Garcin MP Dumont d’Urville

1. Pour tous polynômes P et Q de ℝ[X], tout λ dans ℝ, on a

𝑓(P + λQ) = X(P(X) + λQ(𝑥)) = XP(X) + λXQ(X) = 𝑓(P) + λ𝑓(Q)

d’après les règles de calculs dans l’algèbre ℝ[X]. La dérivation est linéaire d’après le cours, ainsi 𝑔 est linéaire. Comme

ℎ(1) = 1 mais ℎ(2 × 1) = 2 ≠ 2ℎ(1) = 2,

ℎ n’est pas linéaire.


2. L’application 𝑓 est clairement injective car XP(X) = 0 équivaut par intégrité de ℝ[X] à P = 0, d’où Ker(𝑓) = {0}. En revenche, 𝑓 n’est
pas surjective car
Im(𝑓) = {P ∈ ℝ[X] | P(0) = 0} ≠ ℝ[X].
L’application 𝑔 est surjective car tout polynôme admet un polynôme primitif d’après le cours. En revenche, 𝑔 n’est pas injective car

Ker(𝑓) = ℝ0 [X] ≠ {0}.

On a
dim(Ker(𝑔)) = 1 et dim(Ker(𝑓)) = 0.

3. Puisque
∀P ∈ ℝ𝑛 [X], deg(𝑓(P)) = 1 + deg(P) ⩽ 𝑛 + 1,
et
∀P ∈ ℝ𝑛 [X], deg(𝑔(P)) ⩽ deg(P) ⩽ 𝑛,
on a
Im(𝑓𝑛 ) ⊂ ℝ𝑛+1 [X] et Im(𝑔𝑛 ) ⊂ ℝ𝑛 [X]

4. Pour tout 0 ⩽ 𝑘 ⩽ 𝑛, on a
𝑓𝑛 (X𝑘 ) = X𝑘+1 et 𝑔𝑛 (X𝑘 ) = 𝑘X𝑘−1 ,
avec la convention 𝑔𝑛 (X0 ) = 0. Ainsi
⎛0 0 … 0⎞
⎜1 0 ⋱ ⋮⎟
⎜ ⎟
mat ℬ𝑛,ℬ𝑛+1 (𝑓𝑛 ) = ⎜ 0 1 ⋱ ⋮⎟
⎜⋮ ⋱ ⋱ 0⎟
⎜ ⎟
⎝0 … 0 1⎠
et
⎛0 1 0 … 0⎞
⎜0 0 2 ⋱ ⋮⎟
⎜ ⎟
mat ℬ𝑛 (𝑔𝑛 ) = ⎜ ⋮ ⋱ ⋱ ⋱ 0 ⎟.
⎜⋮ ⋱ ⋱ ⋱ 𝑛⎟
⎜ ⎟
⎝0 … … … 0⎠

5. Les matrices de 𝑓𝑛 et 𝑔𝑛 calculées précédemment sont respectivement clairement de rang 𝑛 et 𝑛 − 1. Ainsi,

rg(𝑓𝑛 ) = 𝑛 et rg(𝑔𝑛 ) = 𝑛 − 1.

Solution 55

http://lgarcin.github.io 35
© Laurent Garcin MP Dumont d’Urville

1. Soient P, Q dans ℝ𝑛 [X] et λ ∈ ℝ, on a

𝑓(P + λQ) = (P + λQ)(X + 1) + (P + λQ)(X − 1) − 2(P + λQ)(X)


= P(X + 1) + λQ(X + 1) + P(X − 1) + λQ(X − 1) − 2P(X) − 2λQ(X)
= P(X + 1) + P(X − 1) − 2P(X) + λ(Q(X + 1) + Q(X − 1) − 2Q(X))
= 𝑓(P) + λ𝑓(Q)

Ainsi 𝑓 est linéaire. On remarque que, pour tout P ∈ ℝ𝑛 [X], on a

deg(𝑓(P)) ⩽ max(P(X + 1), P(X − 1), P(X)) = deg(P) ⩽ 𝑛.

Ainsi Im(𝑓) ⊂ ℝ𝑛 [X].


2. Pour tout 0 ⩽ 𝑘 ⩽ 𝑛, on a
𝑘−1
𝑘
𝑓(X𝑘 ) = (X + 1)𝑘 + (X − 1)𝑘 − 2X𝑘 = ∑ ( )(1 + (−1)ℓ )X𝑘−ℓ
ℓ=0

avec la convention ∑∅ = 0. Ainsi, pour 𝑛 = 3, on obtient

⎛0 0 2 0⎞
⎜0 0 0 6⎟
mat (1,…,X3) (𝑓) = ⎜ .
0 0 0 0⎟
⎜ ⎟
⎝0 0 0 0⎠

Pour 𝑛 entier naturel non nul quelconque, on a

mat (1,…,X𝑛) (𝑓) = A = (𝑎ℓ,𝑘 )1⩽ℓ,𝑘⩽𝑛+1

avec A triangulaire supérieure stricte définie par

𝑘−1
∀1 ⩽ ℓ < 𝑘 ⩽ 𝑛 + 1, 𝑎ℓ,𝑘 = ( )(1 + (−1))𝑘−ℓ ).
𝑘−ℓ

3. D’après les calculs précédents, pour tout 𝑛 ⩾ 3,


• Les deux premières colonnes de A sont nulles et les autres forment une famille libre en tant que système de vecteurs-colonnes
échelonné. Ainsi
Ker(𝑓) = vect(1, X) = ℝ1 [X] et Im(𝑓) = vect(1, X, … , X𝑛−1 ) = ℝ𝑛−1 [X].
• On a clairement
rg(𝑓) = 𝑛 − 1 et dim(Ker(𝑓)) = 2.
4. Soient Q ∈ Im(𝑓) : il existe P0 ∈ ℝ𝑛 [X] tel que 𝑓(P0 ) = Q. Pour tout polynôme P de degré inférieur ou égal à 𝑛, on a 𝑓(P) = Q si et
seulement si
𝑓(P) = 𝑓(P0 )
ie P − P0 ∈ Ker(𝑓). Or,
Ker(𝑓) = ℝ1 [X] = vect(1, X).
Ainsi 𝑓(P) = Q si et seulement si il existe (𝑎, 𝑏) ∈ ℝ2 tel que

P = P0 + 𝑎 + 𝑏X.

Comme le système
P(0) = P0 (0) + 𝑎 = 0
{
P′ (0) = P0′ (0) + 𝑏 = 0
admet l’unique solution (𝑎, 𝑏) = −(P(0), P′ (0)), il existe un unique P ∈ ℝ𝑛 [X] tel que

𝑓(P) = Q et P(0) = P′ (0) = 0.

http://lgarcin.github.io 36
© Laurent Garcin MP Dumont d’Urville

Solution 56

Notons ℬ = (𝑒1 , 𝑒2 , 𝑒3 ) la base canonique de ℝ3 .


1. On a
⎛ 1 2 −1 ⎞
M = mat ℬ (L) = ⎜ 0 1 1 ⎟.
⎜ ⎟
⎝ 1 1 −2 ⎠

2. Après tout calcul, on obtient

• Ker(L) = vect(3𝑒1 − 𝑒2 + 𝑒3 ), de dimension un.


• Im(L) = vect(𝑒1 + 𝑒3 , 2𝑒1 + 𝑒2 + 𝑒3 ), de dimension deux.
• Ker(L) ∩ Im(L) = {0} = vect(∅), de dimension nulle.
3. La matrice de L2 dans ℬ vaut
⎛ 0 3 3 ⎞
2
M = ⎜ 1 2 −1 ⎟ .
⎜ ⎟
⎝ −1 1 4 ⎠
Celle de L3 vaut
M 3 = 3M.
On a donc

mat ℬ (L16 ) = M 16 = M 3×5+1


= (M 3 )5 M = (3M)5 M
= 35 M 2×3 = 35 (3M)2
= 35+2 M 2 = 37 M 2

Solution 57

1. Pour toutes matrices M et M ′ et pour tous scalaires λ et μ, on a Φ(λM + μM ′ ) = A(λM + μM ′ ) = λAM + μAM ′ = λΦ(M) + μΦ(M ′ ),
donc Φ est linéaire.
2. On vérifie facilement que A est inversible , donc on peut définir l’application Ψ de ℳ2 (ℝ) dans ℳ2 (ℝ) par Ψ(M) = A−1 M. Ψ est
linéaire pour la même raison que Φ, et pour tout matrice M ∈ ℳ2 (ℝ) on a Ψ(Φ(M)) = A−1 AM = M et Φ(Ψ(M)) = AA−1 M = M,
donc Φ est un isomorphisme d’application inverse Φ−1 = Ψ.
1 0 0 1
3. Avec les notations du cours, la base canonique de ℳ2 (ℝ) est constituée des quatre matrices E1,1 = ( ) , E1,2 = ( ) , E2,1 =
0 0 0 0
0 0 0 0
( ) , e𝑡 E2,2 = ( ) . On calcule les images de ces quatre matrices par Φ, et on les décompose dans cette même base :
1 0 0 1

1 0 0 1
Φ(E1,1 ) = ( ) = E1,1 + 3E2,1 , Φ(E1,2 ) = ( ) = E1,2 + 3E2,2
3 0 0 3
2 0 0 2
Φ(E2,1 ) = ( ) = 2E1,1 + 4E2,1 , Φ(E2,2 ) = ( ) = 2E1,2 + 4E2,2 .
4 0 0 4

On en déduit la matrice de Φ dans cette base ℬ :


1 0 2 0
⎛ ⎞
0 1 0 2
M𝑎𝑡ℬ (Φ) = ⎜ ⎟
⎜ 3 0 4 0 ⎟
⎝ 0 3 0 4 ⎠

http://lgarcin.github.io 37
© Laurent Garcin MP Dumont d’Urville

Solution 58

1. On vérifie sans difficulté que pour tous P, Q ∈ ℝ3 [X] et tous λ, μ ∈ ℝ, on a ϕ(λP + μQ) = λϕ(P) + μϕ(Q), ce qui prouve la linéarité
de ϕ.
Par ailleurs, si P est de degré inférieur ou égal à 3, alors P(X + 1) l’est aussi et donc ϕ(P) aussi : ainsi on a bien ϕ(ℝ3 [X]) ⊂ ℝ3 [X], et
ϕ est donc un endomorphisme de ℝ3 [X].
2. On calcule les images des quatre polynômes 1, X, X2 et X3 de la base ℬ :

ϕ(1) = 1 + 1 = 2

⎪ ϕ(X) = X + 1 + X = 2X + 1
⎨ ϕ(X2 ) = (X + 1)2 + X2 = 2X2 + 2X + 1
⎪ 3 3 3
⎩ ϕ(X ) = (X + 1) + X = 2X3 + 3X2 + 3X + 1

2 1 1 1
⎛ ⎞
0 2 2 3
On en déduit donc : M = ⎜ ⎟.
⎜ 0 0 2 3 ⎟
⎝ 0 0 0 2 ⎠
3. a. M est une matrice triangulaire supérieure et tous ses coefficients diagonaux sont non nuls, donc elle est inversible. Pour calculer
son inverse, on fixe (𝑦1 , 𝑦2 , 𝑦3 , 𝑦4 ) ∈ ℝ4 et on résout le système :
1
2𝑥1 + 𝑥2 + 𝑥3 + 𝑥4 = 𝑦1 ⎧ 𝑥1 =
2
(𝑦1 − 𝑥2 − 𝑥3 − 𝑥4 )
⎧ ⎪ 𝑥2 1
⎪ 2𝑥2 + 2𝑥3 + 𝑥4 = 𝑦2 = (𝑦2 − 2𝑥3 − 𝑥4 )
⟺ 2
1
⎨ 2𝑥3 + 3𝑥4 = 𝑦3 ⎨ 𝑥3 = (𝑦3 − 3𝑥4 )
⎪ ⎪ 2
⎩ 2𝑥4 = 𝑦4 1
⎩ 𝑥4 =
2
𝑦4
1 1 1
⎧ 𝑥1 =
2
(𝑦1 − 𝑦2 + 𝑦4 )
2 4
⎪ 𝑥2 1
= (𝑦2 − 𝑦3 )
⟺ 2
1 3
⎨ 𝑥3 = = (𝑦3 − 𝑦4 )
⎪ 2
1
2
⎩ 𝑥4 =
2
𝑦4

1 1
⎛ 1 −2 0 4 ⎞
1 ⎜ 0 1 −1 0 ⎟
Ceci montre que M = ⎜
−1
.
1 − ⎟⎟
3
⎜ 0 0
2
2
⎝ 0 0 0 1 ⎠
b. Puisque la matrice M de ϕ dans ℬ est inversible, ϕ est bijective, donc c’est un automorphisme de ℝ3 [X]. De plus on sait que
M𝑎𝑡ℬ (ϕ−1 ) = M −1 .
4. Notons P0 le polynôme 4X3 − 2X2 + X − 1. Pour tout P ∈ ℝ3 [X], on a P(X + 1) + P(X) = 4X3 − 2X2 + X − 1 ⟺ ϕ(P) = P0 ⟺ P =
ϕ−1 (P0 ) ; l’équation admet donc l’unique solution ϕ−1 (P0 ), dont on calcule les coefficients en passant par M −1 :
1
−1 −
⎛ ⎞ ⎛ 34 ⎞
1
−1
M𝑎𝑡ℬ (ϕ (P0 )) = M −1 ⎜ ⎟ = ⎜⎜ 2 ⎟

⎜ −2 ⎟ ⎜ −4 ⎟
⎝ 4 ⎠ ⎝ 2 ⎠
3 1
Ainsi l’unique solution cherchée est 2X3 − 4X2 + X − .
2 4

Solution 59

http://lgarcin.github.io 38
© Laurent Garcin MP Dumont d’Urville

1. a. Notons (H) l’hypothèse que ∀𝑥 ∈ ℝ, 𝑎𝑥𝑒𝑥 + 𝑏𝑥𝑒−𝑥 + 𝑐𝑒𝑥 + 𝑑𝑒−𝑥 = 0 . On sait que lim 𝑏𝑥𝑒−𝑥 + 𝑑𝑒−𝑥 = 0, donc en prenant
𝑥→+∞
la limite en +∞, on déduit de (H) que lim (𝑎𝑥 + 𝑐)𝑒𝑥 = 0. Si 𝑎 ≠ 0, on sait qu’au voisinage de +∞, (𝑎𝑥 + 𝑐)𝑒𝑥 ∼ 𝑎𝑥𝑒𝑥 . Or
𝑥→+∞
si 𝑎 > 0, (resp. 𝑎 < 0,) on a lim 𝑎𝑥𝑒𝑥 = +∞ (resp. −∞), ce qui est contradictoire avec lim (𝑎𝑥 + 𝑐)𝑒𝑥 = 0. On en conclut
𝑥→+∞ 𝑥→+∞
que 𝑎 = 0, et il reste donc lim 𝑐𝑒𝑥 = 0, qui implique de même que 𝑐 = 0.
𝑥→+∞
b. Soient (𝑎, 𝑏, 𝑐, 𝑑) ∈ ℝ tels que 𝑎𝑔1 + 𝑏𝑔2 + 𝑐𝑔3 + 𝑑𝑔4 = 0. Ceci équivaut à l’hypothèse (H) de la question précédente. On a vu
4

qu’alors 𝑎 = 𝑐 = 0, donc il reste 𝑏𝑔2 + 𝑑𝑔4 = 0, c’est-à-dire : ∀𝑥 ∈ ℝ, (𝑏𝑥 + 𝑑)𝑒−𝑥 = 0 , ce qui équivaut à ∀𝑥 ∈ ℝ, 𝑏𝑥 + 𝑑 = 0
(puisque 𝑒−𝑥 > 0 pour tout 𝑥 ∈ ℝ). Avec 𝑥 = 0 on obtient 𝑑 = 0, puis en prenant par exemple 𝑥 = 1 on a aussi 𝑏 = 0. Finalement
𝑎 = 𝑏 = 𝑐 = 𝑑 = 0, ce qui prouve que (𝑔1 , 𝑔2 , 𝑔3 , 𝑔4 ) est une famille libre. De plus c’est par définition une famille génératrice de
F. On en conclut que c’est une base de F, et donc dim F = 4.
2. a. 𝑔1 est dérivable sur ℝ et pour tout 𝑥 ∈ ℝ, 𝑔′1 (𝑥) = 𝑥𝑒𝑥 + 𝑒𝑥 = 𝑔1 (𝑥) + 𝑔3 (𝑥), donc 𝑔′1 = 𝑔1 + 𝑔3 ∈ F. De même, 𝑔2 est dérivable
sur ℝ et pour tout 𝑥 ∈ ℝ, 𝑔′2 (𝑥) = −𝑥𝑒−𝑥 + 𝑒−𝑥 = −𝑔2 (𝑥) + 𝑔4 (𝑥), donc 𝑔′2 = −𝑔2 + 𝑔4 ∈ F.
b. Puisque la famille (𝑔1 , 𝑔2 , 𝑔′1 , 𝑔′2 ) est de cardinal 4 et que dim F = 4, il suffit de montrer que c’est une famille libre. Soit (α, β, γ, δ)
quatre réels tels que α𝑔1 + β𝑔2 + γ𝑔′1 + δ𝑔′2 = 0. Ceci équivaut à (α + γ)𝑔1 + (β − δ)𝑔2 + γ𝑔3 + δ𝑔4 = 0. Puisque la famille
(𝑔1 , 𝑔2 , 𝑔3 , 𝑔4 ) est libre, cela implique que α + γ = β − δ = γ = δ = 0, d’où α = β = γ = δ = 0. Ainsi la famille (𝑔1 , 𝑔2 , 𝑔′1 , 𝑔′2 )
est libre et est donc une base de F.
On a vu que 𝑔′1 = 𝑔1 + 𝑔3 (resp. 𝑔′2 = −𝑔2 + 𝑔4 ) donc les coordonnées de 𝑔′1 (resp. 𝑔′2 ) dans ℬ1 sont (1, 0, 1, 0) (resp. (0, −1, 0, 1)).
On en déduit donc que la matrice de passage de ℬ1 à ℬ2 est :

1 0 1 0
⎛ ⎞
0 1 0 −1
P=⎜ ⎟ .
⎜ 0 0 1 0 ⎟
⎝ 0 0 0 1 ⎠

3. a. Soient 𝑓 et 𝑔 deux fonctions de F et soit (λ, μ) ∈ ℝ2 . Par définition, on a φ(λ𝑓 + μ𝑔) = (λ𝑓 + μ𝑔)′ = λ𝑓′ + μ𝑔′ = λφ(𝑓) + μφ(𝑔).
On en conclut que φ est linéaire.
Puisque Im(φ) = vect(φ(𝑔1 ), φ(𝑔2 ), φ(𝑔3 ), φ(𝑔4 )), il suffit de montrer que φ(𝑔𝑖 ) ∈ F pour tout 1 ≤ 𝑖 ≤ 4 pour conclure que φ est
un endomorphisme de F.
On a déjà vu que φ(𝑔1 ) = 𝑔′1 ∈ F et φ(𝑔2 ) = 𝑔′2 ∈ F. Par ailleurs, on a immédiatement φ(𝑔3 ) = 𝑔3 ∈ F et φ(𝑔4 ) = −𝑔4 ∈ F,
d’où la conclusion.
b. On a déja calculé les coordonnées de φ(𝑔1 ) = 𝑔′1 et φ(𝑔2 ) = 𝑔′2 dans la base ℬ1 . Celles de φ(𝑔3 ) = 𝑔3 sont (0, 0, 1, 0) et celles de
φ(𝑔4 ) = −𝑔4 sont (0, 0, 0, −1). On en déduit que

1 0 0 0
⎛ ⎞
0 −1 0 0
M=⎜ ⎟ .
⎜ 1 0 1 0 ⎟
⎝ 0 1 0 −1 ⎠

c. Puisque M est triangulaire inférieure avec que des éléments non nuls sur la diagonale, on sait que c’est une matrice inversible, ce
qui implique que φ est un automorphisme de F.
d. On applique la formule de changement de base : N = P−1 MP. Le calcul P−1 s’obtient très aisément par résolution d’un système
triangulaire (ou par opérations élémentaires sur P et I4 en parallèle). On obtient

1 0 −1 0
⎛ ⎞
0 1 0 1
P−1 =⎜ ⎟ .
⎜ 0 0 1 0 ⎟
⎝ 0 0 0 1 ⎠

On en déduit finalement que


0 0 −1 0
⎛ ⎞
0 0 0 −1
N=⎜ ⎟ .
⎜ 1 0 2 0 ⎟
⎝ 0 1 0 −2 ⎠
On sait sans aucun calcul que N est inversible, puisque c’est la matrice de l’automorphisme φ dans la base ℬ2 .

http://lgarcin.github.io 39
© Laurent Garcin MP Dumont d’Urville

Solution 60

1. Comme ℒ(ℝ𝑛 ) = H1 + H2 , tout élément de ℒ(ℝ𝑛 ) – en particulier Id – peut s’écrire comme la somme d’un élément de H1 et d’un
élément de H2 .
2. On compose l’identité 𝑝1 + 𝑝2 = Id par 𝑝1 une fois à gauche et une fois à droite pour obtenir :

𝑝12 + 𝑝1 ∘ 𝑝2 = 𝑝1 𝑝12 + 𝑝2 ∘ 𝑝1 = 𝑝1

On additionne ces deux égalités de sorte que


2𝑝12 + 𝑝1 ∘ 𝑝2 + 𝑝2 ∘ 𝑝1 = 2𝑝1
Mais comme 𝑝1 ∈ H1 et 𝑝2 ∈ H2 , 𝑝1 ∘ 𝑝2 + 𝑝2 ∘ 𝑝1 = 0. Ainsi 2𝑝12 = 2𝑝1 et finalement 𝑝12 = 𝑝1 . Donc 𝑝1 est un projecteur.
Quitte à échanger 𝑝1 et 𝑝2 , on démontre de même que 𝑝2 est un projecteur.
3. Soit 𝑓 ∈ H1 . On a donc 𝑓 ∘ 𝑝2 + 𝑝2 ∘ 𝑓 = 0. Comme 𝑝2 est un projecteur, il existe une base ℬ de ℝ𝑛 dans laquelle la matrice de
I𝑟 0𝑟,𝑛−𝑟 A B
𝑝2 est P2 = ( ) où 𝑟 = rg 𝑝2 . Notons F = ( ) la matrice de 𝑓 dans cette même base ℬ avec A ∈ ℳ𝑟 (ℝ),
0𝑛−𝑟,𝑟 0𝑟 C D
B ∈ ℳ𝑟,𝑛−𝑟 (ℝ), C ∈ ℳ𝑛−𝑟,𝑟 (ℝ) et D ∈ ℳ𝑛−𝑟 (ℝ). On a donc FP2 + P2 F = 0, ce qui entraîne A = B = C = 0. Par conséquent,
0𝑟 0𝑟,𝑛−𝑟
F = ( ). Notons Φ l’isomorphisme qui associe à un endomorphisme de ℝ𝑛 sa matrice dans la base ℬ. On a donc
0𝑛−𝑟,𝑟 D
0𝑟 0𝑟,𝑛−𝑟
Φ(H1 ) ⊂ G où G est le sous-espace vectoriel des matrices de la forme ( ) où D ∈ ℳ𝑛−𝑟 (ℝ). Par conséquent dim H1 ≤
0𝑛−𝑟,𝑟 D
dim G. Or dim G = (𝑛 − 𝑟)2 . Ainsi dim H1 ≤ (𝑛 − 𝑟)2 = (𝑛 − rg 𝑝2 )2 .
On prouve de la même manière que dim H2 ≤ (𝑛 − rg 𝑝1 )2 .
4. Comme H1 ⊕ H2 = ℒ(ℝ𝑛 ), dim H1 + dim H2 = 𝑛2 . On déduit de la question précédente que

𝑛2 ≤ (𝑛 − rg 𝑝1 )2 + (𝑛 − rg 𝑝2 )2

Comme 𝑛 − rg 𝑝1 ≥ 0 et 𝑛 − rg 𝑝2 ≥ 0,

(𝑛 − rg 𝑝1 )2 + (𝑛 − rg 𝑝2 )2 ≤ [(𝑛 − rg 𝑝1 ) + (𝑛 − rg 𝑝2 )] = [2𝑛 − (rg 𝑝1 + rg 𝑝2 )]


2 2

On sait que 𝑝1 + 𝑝2 = Id. Donc rg(𝑝1 + 𝑝2 ) = 𝑛. Or c’est un exercice classique que de montrer que rg 𝑝1 + rg 𝑝2 ≥ rg(𝑝1 + 𝑝2 ). On
en déduit que rg 𝑝1 + rg 𝑝2 ≥ 𝑛. De plus rg 𝑝1 + rg 𝑝2 ≤ 2𝑛 donc

[2𝑛 − (rg 𝑝1 + rg 𝑝2 )] ≤ 𝑛2
2

Finalement,
𝑛2 ≤ (𝑛 − rg 𝑝1 )2 + (𝑛 − rg 𝑝2 )2 ≤ [2𝑛 − (rg 𝑝1 + rg 𝑝2 )] ≤ 𝑛2
2

On en déduit que [2𝑛 − (rg 𝑝1 + rg 𝑝2 )] = 𝑛2 i.e. rg 𝑝1 + rg 𝑝2 = 𝑛 et que 𝑛2 = (𝑛 − rg 𝑝1 )2 + (𝑛 − rg 𝑝2 )2 . Notons 𝑟 = rg 𝑝1 . On a


2

alors 𝑛2 = (𝑛 − 𝑟)2 + 𝑟2 i.e. 𝑟(𝑛 − 𝑟) = 0. Deux cas se présentent.


• Si 𝑟 = 0, alors 𝑝1 = 0 et donc 𝑝2 = Id. On a alors dim H1 ≤ (𝑛 − rg 𝑝2 )2 = 0. Donc H1 = {0}. Par conséquent H2 = ℒ(ℝ𝑛 ).
• Si 𝑟 = 𝑛, alors 𝑝1 = Id. On a alors dim H2 ≤ (𝑛 − rg 𝑝1 )2 = 0. Donc H2 = {0}. Par conséquent H1 = ℒ(ℝ𝑛 ).
Réciproquement, on vérifie que ces deux couples (H1 , H2 ) vérifient bien les hypothèses de l’énoncé.
Solution 61
𝑛 𝑛 𝑛
Puisque Im 𝑝𝑘 ⊂ E pour tout 𝑘 ∈ J1, 𝑛K, ∑𝑘=1 Im 𝑝𝑘 ⊂ E. De plus, E = Im IdE = Im (∑𝑘=1 𝑝𝑘 ) ⊂ ∑𝑘=1 Im 𝑝𝑘 . Par double inclusion,
𝑛
∑𝑘=1 Im 𝑝𝑘 = E.
𝑛
Montrons maintenant que la somme est directe. Les 𝑝𝑘 étant des projecteurs, rg 𝑝𝑘 = tr(𝑝𝑘 ) pour tout 𝑘 ∈ J1, 𝑛K. De plus, ∑𝑘=1 𝑝𝑘 =
𝑛 𝑛
IdE donc, par linéarité de la trace ∑𝑘=1 tr(𝑝𝑘 ) = tr(IdE ) ou encore ∑𝑘=1 rg(𝑝𝑘 ) = dim E. C’est donc que les sous-espaces vectoriels
Im 𝑝1 , … , Im 𝑝𝑛 sont en somme directe.

http://lgarcin.github.io 40
© Laurent Garcin MP Dumont d’Urville

Solution 62

• Solution 1
Soit S un supplémentaire de Ker 𝑢 dans E. On définit l’application linéaire

Ψ ∶ Im Φ ⟶ ℒ(S, Im 𝑣)
| Im 𝑣
𝑔 ⟼ 𝑔|S

Cette application est bien définie car, pour tout 𝑓 ∈ ℒ(E), Im(𝑣 ∘ 𝑓 ∘ 𝑢) ⊂ Im 𝑣. Montrons que c’est un isomorphisme.
Soit 𝑔 ∈ Ker Ψ. Puisque 𝑔 ∈ Im Φ, il existe 𝑓 ∈ ℒ(E) tel que 𝑔 = 𝑣 ∘ 𝑓 ∘ 𝑢. Comme 𝑔 ∈ Ker Ψ, 𝑔|S = 0. Mais on a aussi évidemment
𝑔| Ker ᵆ = 0. Puisque E = Ker 𝑢 ⊕ S, 𝑔 = 0 et Ψ est injective.
On sait que 𝑢 induit un isomorphisme 𝑢̃ de S sur Im 𝑢. De même, 𝑣 induit un isomorphisme 𝑣 ̃ de T sur Im 𝑣 où T est un supplémentaire
de Ker 𝑣 dans E. Soit 𝑔̃ ∈ Im Ψ. On définit 𝑓 de la manière suivante : 𝑓(𝑥) = 𝑣−1 ̃ ∘ 𝑔̃ ∘ 𝑢̃−1 (𝑥) pour 𝑥 ∈ Im 𝑢 et 𝑓 = 0 sur un
supplémentaire quelconque de Im 𝑢. On a alors bien Ψ(𝑣 ∘ 𝑓 ∘ 𝑢) = 𝑔,̃ ce qui montre que Ψ est surjective.
Par conséquent, rg Φ = dim ℒ(S, Im 𝑣) = rg 𝑢 rg 𝑣.

• Solution 2
Notons S un supplémentaire de Im 𝑢 dans E et T un supplémentaire de Ker 𝑣 dans E. On pose

ℱ = {𝑓 ∈ ℒ(E), S ⊂ Ker 𝑓, Im 𝑓 ⊂ T}.

On vérifie que ℱ est un sous-espace vectoriel de ℒ(E). Montrons que Φ induit un isomorphisme de ℱ sur Im Φ.
Soit 𝑓 ∈ ℱ ∩ Ker Φ. Par définition de ℱ, 𝑓|S = 0. De plus, 𝑣 ∘ 𝑓 ∘ 𝑢 = 0 signifie que 𝑓(Im 𝑢) ⊂ Ker 𝑣. Mais, par définition de ℱ,
Im 𝑓 ⊂ T. Donc 𝑓(Im 𝑢) ⊂ Ker 𝑣 ∩ T = {0}. D’où 𝑓| Im ᵆ = 0. Comme E = S ⊕ Im 𝑢, 𝑓 = 0 et la restriction de Φ à ℱ est injective.
Montrons que Φ(ℱ) = Im Φ. Soit 𝑓 ∈ ℒ(E). Notons π1 la projection de E sur Im 𝑢 parallèlement à S et π2 la projection de E sur T
parallèlement à Ker 𝑣. On vérifie que π2 ∘ 𝑓 ∘ π1 ∈ ℱ. De plus, π1 ∘ 𝑢 = 𝑢 et 𝑣 ∘ π2 = 𝑣. Donc 𝑣 ∘ (π2 ∘ 𝑓 ∘ π1 ) ∘ 𝑢 = 𝑣 ∘ 𝑓 ∘ 𝑢 i.e.
Φ(π2 ∘ 𝑓 ∘ π1 ) = Φ(𝑓).
Ainsi Φ induit un isomorphisme de ℱ sur Im Φ et donc rg Φ = dim ℱ. Or ℱ est isomorphe à ℒ(Im 𝑢, T). De plus, 𝑣 induit un isomor-
phisme de T sur Im 𝑣 donc dim T = rg 𝑣. Ainsi rg Φ = dim ℱ = dim ℒ(Im 𝑢, T) = rg 𝑢 rg 𝑣.
• Solution 3
Commençons par montrer le lemme suivant : si 𝑤 ∈ ℒ(E) est de rang 𝑝 alors il existe deux bases (𝑒𝑖 ) et (ε𝑖 ) de E telles que

𝕀𝑝 𝕆𝑝,𝑛−𝑝
mat (𝑒𝑖),(ε𝑖) (𝑤) = ( )
𝕆𝑛−𝑝,𝑝 𝕆𝑝,𝑝

où 𝑛 est la dimension de E. En effet, soit S un supplémentaire de Ker 𝑤. On se donne une base (𝑒1 , … , 𝑒𝑝 ) de S et une base (𝑒𝑝+1 , … , 𝑒𝑛 )
de Ker 𝑣. Posons ε𝑖 = 𝑤(𝑒𝑖 ) pour 1 ≤ 𝑖 ≤ 𝑝. Comme 𝑤 induit un isomorphisme de S sur Im 𝑤, (ε1 , … , ε𝑝 ) est une base de Im 𝑤 qu’on
complète en une base (ε1 , … , ε𝑛 ) de E. La matrice de 𝑤 dans ces bases est bien de la forme voulue.
Notons 𝑝 = rg 𝑢 et 𝑞 = rg 𝑣. Notons (𝑒𝑖 ), (ε𝑖 ) et (𝑒𝑖′ ), (ε′𝑖 ) les bases définies dans le lemme correspondant respectivement à 𝑢 et 𝑣. Soit
𝑓 ∈ ℒ(E) et M = mat (ε𝑖),(𝑒′) (𝑓). Alors mat (𝑒𝑖),(ε′) (𝑣 ∘ 𝑓 ∘ 𝑢) est la sous-matrice de M (𝑚𝑖𝑗 )1≤𝑖≤𝑝,1≤𝑗≤𝑞 . Ainsi Im Φ est isomorphe à
𝑖 𝑖
ℳ𝑝,𝑞 (𝕂) et est donc de dimension 𝑝𝑞 = rg 𝑢 rg 𝑣.

Solution 63

1. 𝑓 est linéaire essentiellement grâce à la ℝ-linéarité de la conjugaison. On a 𝑓(1) = 1 et 𝑓(𝑖) = −2 − 𝑖. La famille (𝑓(1), 𝑓(𝑖)) est
libre dans le ℝ-espace vectoriel de dimension 2 ℂ : c’est donc une base. 𝑓 transforme donc une base de ℂ en une base de ℂ : c’est un
automorphisme de ℂ.
2. On cherche donc 𝑒1 et 𝑒2 dans ℂ tels que
𝑓(𝑒1 ) = 𝑒1 et 𝑓(𝑒2 ) = −𝑒2

http://lgarcin.github.io 41
© Laurent Garcin MP Dumont d’Urville

On a donc à résoudre :
𝑖𝑒1 + (1 − 𝑖)𝑒1 = 𝑒1
{
𝑖𝑒2 + (1 − 𝑖)𝑒2 = −𝑒2
𝑖(𝑒1 − 𝑒1 ) − (𝑒1 − 𝑒1 ) = 0
⇔{
𝑖(𝑒2 − 𝑒2 ) + (𝑒2 + 𝑒2 ) = 0
−2 Im(𝑒1 ) − 2𝑖 Im(𝑒1 ) = 0
⇔{
−2 Im(𝑒2 ) + 2 Re(𝑒2 ) = 0
Im(𝑒1 ) = 0
⇔{
Re(𝑒2 ) = Im(𝑒2 )

Il suffit donc de prendre 𝑒1 = 1 (on l’avait en fait déjà trouvé à la première question) et 𝑒2 = 1 + 𝑖. On vérifie que (𝑒1 , 𝑒2 ) est bien une
base de ℂ.
3. La question précédente montre que 𝑓 est une symétrie par rapport à vect(𝑒1 ) parallèlement à vect(𝑒2 ).

𝑧2 𝑧

𝑧1

−𝑧2
𝑧1 − 𝑧2 = 𝑓(𝑧)

Solution 64

1. Il suffit de montrer que ℬ est libre. Soient 𝑎, 𝑏, 𝑐, 𝑑 ∈ ℝ tels que 𝑎 sin +𝑏 cos +𝑐 sh +𝑑 ch = 0. On évalue cette identité en 0 et on trouve
𝑏 + 𝑑 = 0. On dérive puis on évalue en 0 et on trouve 𝑎 + 𝑐 = 0. On dérive deux fois puis on évalue en 0 et on trouve −𝑏 + 𝑑 = 0. On
dérive trois fois puis on évalue en 0 et on trouve −𝑎 + 𝑐 = 0. On a alors nécessairement 𝑎 = 𝑏 = 𝑐 = 𝑑 = 0. La famille ℬ est libre et
génératrice de F par définition de F : c’est une base de F.

2. D(sin) = cos ∈ F, D(cos) = − sin ∈ F, D(sh) = ch ∈ F et D(ch) = sh ∈ F. Ainsi D(ℬ) ⊂ F. Comme ℬ engendre F, on a par linéarité
de D : D(F) ⊂ F.

http://lgarcin.github.io 42
© Laurent Garcin MP Dumont d’Urville

⎛ 0 −1 0 0 ⎞
⎜1 0 0 0⎟ 0 −1 0 1 J 02
3. D’après la question précédente M = ⎜ ⎟ . Posons J = ( ) et K = ( ). On a donc M = ( ). Notons I2 la
0 0 0 1 1 0 1 0 02 K
⎜ ⎟
⎝0 0 1 0⎠
matrice identité de M 2 (ℝ).
On a J2 = −I donc J3 = −J et J4 = I2 . On en déduit que J𝑛 = I2 si 𝑛 ≡ 0[4], J𝑛 = J si 𝑛 ≡ 1[4], J𝑛 = −I2 si 𝑛 ≡ 2[4], J𝑛 = −J si
𝑛 ≡ 3[4].
On a également K2 = I2 . On en déduit que K𝑛 = I2 si 𝑛 ≡ 0[2] et K𝑛 = K si 𝑛 ≡ 1[2].
J𝑛 02 I2 02 J 02
Un calcul par blocs donne M 𝑛 = ( 𝑛
). Donc M 𝑛 = ( ) si 𝑛 ≡ 0[4], M 𝑛 = ( ) si 𝑛 ≡ 1[4], M 𝑛 =
02 K 02 I2 02 K
−I2 02 −J 02
( ) si 𝑛 ≡ 2[4] et M 𝑛 = ( ) si 𝑛 ≡ 3[4].
02 I2 02 K

4. La question précédente montre que M 4 = I4 où I4 est la matrice identité de ℳ4 (ℝ). Ainsi M est inversible d’inverse M −1 = M 3 . Par
−J 02
conséquent, 𝑑 est inversible est la matrice de 𝑑 −1 dans la base ℬ est M −1 = M 3 = ( ).
02 K

⎛⎛ −1 ⎞ ⎛ −1 ⎞ ⎛ 0 ⎞⎞ ⎛0⎞
⎜⎜ 1 ⎟ ⎜ −1 ⎟ ⎜ 0 ⎟⎟ ⎜0⎟
5. La matrice de 𝑑 − Id dans la base ℬ est M − I4 . On voit facilement que Im(M − I4 ) = vect ⎜⎜ ⎟ ,⎜ ⎟ ,⎜ ⎟⎟ . De plus, ⎜ ⎟ ∈
0 0 1 1
⎜⎜ ⎟ ⎜ ⎟ ⎜ ⎟⎟ ⎜ ⎟
⎝⎝ 0 ⎠ ⎝ 0 ⎠ ⎝ −1 ⎠⎠ ⎝1⎠
Ker(M−I4 ). Or dim Ker(M−I4 ) = 1 donc ce vecteur engendre Ker(M−I4 ). On en déduit que Im(𝑑−Id) = vect(− sin + cos, − sin − cos, ch − sh
1
et que Ker(𝑑 − Id) = vect(ch + sh). Remarquons que ch − sh est la fonction et que ch + sh est la fonction exp.
exp

⎛ −2 0 0 0⎞
⎜ 0 −2 0 0 ⎟
6. On a 𝑔 ∘ 𝑓 = 𝑑 2 − Id. La matrice de 𝑔 ∘ 𝑓 est donc M 2 − I4 = ⎜ . On a clairement Im 𝑔 ∘ 𝑓 = vect(sin, cos) et
0 0 0 0⎟
⎜ ⎟
⎝ 0 0 0 0⎠
Ker 𝑔 ∘ 𝑓 = vect(ch, sh).

Matrices remarquables
Solution 65

1. Un grand classique…

• Puisque 𝒮𝑛 (ℝ) contient la matrice nulle , 𝒮𝑛 (ℝ) ≠ ∅. Soient A, B ∈ 𝒮𝑛 (ℝ) et λ ∈ ℝ.

(A + λB)⊤ = A⊤ + λB⊤ = A + λB

Ainsi A + λB ∈ 𝒮𝑛 (ℝ) et 𝒮𝑛 (ℝ) est un sous-espace vectoriel de ℳ𝑛 (ℝ). On prouve de même que 𝒜𝑛 (ℝ) est un sous-espace
vectoriel de ℳ𝑛 (ℝ).
• Notons (E𝑖,𝑗 )1⩽𝑖,𝑗⩽𝑛 la base canonique de ℳ𝑛 (ℝ). Etablissons que la famille

(E𝑖,𝑗 + E𝑗,𝑖 )1⩽𝑗⩽𝑖⩽𝑛

http://lgarcin.github.io 43
© Laurent Garcin MP Dumont d’Urville

est une base de 𝒮𝑛 (ℝ). Soit M = (𝑚𝑖,𝑗 )1⩽𝑖,𝑗⩽𝑛 une matrice symétrique. On a

M= ∑ 𝑚𝑖,𝑗 E𝑖,𝑗
1⩽𝑖,𝑗⩽𝑛
𝑛
= ∑ 𝑚𝑖,𝑗 E𝑖,𝑗 + ∑ 𝑚𝑖,𝑗 E𝑖,𝑗 + ∑ 𝑚𝑖,𝑖 E𝑖,𝑖
1⩽𝑖<𝑗⩽𝑛 1⩽𝑗<𝑖⩽𝑛 𝑖=1
𝑛
𝑚𝑖,𝑖
= ∑ 𝑚𝑖,𝑗 (E𝑖,𝑗 + E𝑗,𝑖 ) + ∑ 2E𝑖,𝑖
1⩽𝑖<𝑗⩽𝑛 𝑖=1
2

La famille est donc génératrice. En reprenant ces calculs, il est clair que
𝑛
𝑚𝑖,𝑖
∑ λ𝑖,𝑗 (E𝑖,𝑗 + E𝑗,𝑖 ) + ∑ 2λ𝑖,𝑖 = 0
1⩽𝑖<𝑗⩽𝑛 𝑖=1
2

équivaut à Λ = (λ𝑖,𝑗 )1⩽𝑖,𝑗⩽𝑛 = 0 ie λ𝑖,𝑗 = 0 pour tous 1 ⩽ 𝑖 ⩽ 𝑗 ⩽ 𝑛. La famille est donc également libre : c’est une base de
𝑛(𝑛+1)
𝒮𝑛 (ℝ) qui est donc de dimension .
2
• On prouve de même que la famille
(E𝑖,𝑗 − E𝑗,𝑖 )1⩽𝑗<𝑖⩽𝑛
𝑛(𝑛−1)
est une base de 𝒜𝑛 (ℝ). La dimension de cet espace vaut donc .
2

2. Soit M ∈ 𝒜𝑛 (ℝ) ∩ 𝒮𝑛 (ℝ). On a alors , pour tous indices 1 ⩽ 𝑖, 𝑗 ⩽ 𝑛 ,

M 𝑖,𝑗 = M𝑗,𝑖 = −M 𝑖,𝑗

donc M 𝑖,𝑗 = 0. Ainsi M = 0.

Soit M ∈ ℳ𝑛 (ℝ). Posons


M + M⊤ M − M⊤
S= et A = .
2 2
On a clairement M = S + A , S ∈ 𝒮𝑛 (ℝ) et A ∈ 𝒜𝑛 (ℝ) , d’où

ℳ𝑛 (ℝ) = 𝒮𝑛 (ℝ) ⊕ 𝒜𝑛 (ℝ).

Remarque. Puisque la somme des dimensions des deux sev étudiés vaut 𝑛2 = dim(ℳ𝑛 (ℝ)), la seule égalité 𝒜𝑛 (ℝ) ∩ 𝒮𝑛 (ℝ) = {0}
suffit pour établir le caractère direct de leur somme. Nous avons explicité ci-dessus les deux projections associées dans la mesure où
elles sont à connaître par cœur et rendent parfois de bien grands services !

Solution 66

1. Notons
⎛ 1 0 0 ⎞ ⎛ 0 0 0 ⎞
A = ⎜ 0 0 0 ⎟, B = ⎜ 0 1 0 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 1 ⎠ ⎝ 0 0 0 ⎠
et
⎛ 0 0 1 ⎞
C = ⎜ 0 0 0 ⎟.
⎜ ⎟
⎝ 1 0 0 ⎠
On a clairement
E = vect(A, B, C)

http://lgarcin.github.io 44
© Laurent Garcin MP Dumont d’Urville

donc E est un sev de ℳ3 (ℝ). Comme (A, B, C) est clairement libre, on a dim(E) = 3. Comme

A2 = A, B2 = B, C2 = A, AB = BA = 0,

AC = CA = C, BC = CB = 0,
E est stable par produit.
2. Soient 𝑎, 𝑏 et 𝑐 dans ℝ. Posons
⎛𝑎 0 𝑐⎞
M(𝑎, 𝑏, 𝑐) = ⎜ 0 𝑏 0 ⎟ .
⎜ ⎟
⎝𝑐 0 𝑎⎠
• Si 𝑎 ≠ ±𝑐 et 𝑏 ≠ 0, on a rg(M(𝑎, 𝑏, 𝑐)) = 3.
• Si 𝑎 = ±𝑐, 𝑐 ≠ 0 et 𝑏 ≠ 0, on a rg(M(𝑎, 𝑏, 𝑐)) = 2.
• Si 𝑎 = 𝑐 = 0 et 𝑏 ≠ 0, on a rg(M(𝑎, 𝑏, 𝑐)) = 1.
• Si 𝑎 = ±𝑐, 𝑐 ≠ 0 et 𝑏 = 0, on a rg(M(𝑎, 𝑏, 𝑐)) = 1.
• Si 𝑎 = 𝑏 = 𝑐 = 0, on a rg(M(𝑎, 𝑏, 𝑐)) = 0.
3. Dans le cas où M(𝑎, 𝑏, 𝑐) est de rang trois, on a
2 2
⎛ 𝑎/(𝑎 − 𝑐 ) 0 −𝑐/(𝑎2 − 𝑐2 ) ⎞
M(𝑎, 𝑏, 𝑐)−1 =⎜ 0 1/𝑏 0 ⎟.
⎜ ⎟
2 2 2 2
⎝ − 𝑐/(𝑎 − 𝑐 ) 0 𝑎/(𝑎 − 𝑐 ) ⎠

4. Après tout calcul...


• Une base de matrices inversibles :
⎛ 1 0 0 ⎞ ⎛ 0 0 1 ⎞
⎜ 0 1 0 ⎟, ⎜ 0 1 0 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 1 ⎠ ⎝ 1 0 0 ⎠
et
⎛ 2 0 1 ⎞
⎜ 0 1 0 ⎟.
⎜ ⎟
⎝ 1 0 2 ⎠
• Une base de matrices de rang 1 :
⎛ 1 0 1 ⎞ ⎛ 0 0 0 ⎞
⎜ 0 0 0 ⎟, ⎜ 0 1 0 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 1 0 1 ⎠ ⎝ 0 0 0 ⎠
et
⎛ 1 0 −1 ⎞
⎜ 0 0 0 ⎟.
⎜ ⎟
⎝ −1 0 1 ⎠
Solution 67

F est un sous espace vectoriel de ℳ2 (ℝ) donc


dim(F) ∈ {0, … , 4}.
Comme F ≠ ℳ2 (ℝ) on a aussi dim(F) ≠ 4. D’autre part les matrices

0 1 0 0 1 0
M1 = ( ) , M2 = ( ) , M3 = ( )
0 0 1 0 0 −1

http://lgarcin.github.io 45
© Laurent Garcin MP Dumont d’Urville

appartiennent à F et sont linéairement indépendantes. En effet, si


αM 1 + βM 2 + γM 3 = 0
alors
γ α 0 0
( )=( )
β −γ 0 0
c’est à dire
α = β = γ = 0.
Donc dim(F) ⩾ 3 c’est à dire dim(F) = 3. Enfin
(M 1 , M 2 , M 3 )
est une famille libre de trois vecteurs dans F qui est un espace de dimension 3. C’est donc une base de F.
Solution 68

1. Notons U = (1, … , 1)⊤ . Si M ∈ ℳ, alors


MU = M ⊤ U = 𝑠(M)U
Réciproquement, s’il existe α ∈ 𝕂 tel que
MU = M ⊤ U = αU
c’est que M ∈ ℳ et que 𝑠(M) = α.
Si (M, N) ∈ ℳ 2 et (λ, μ) ∈ 𝕂2 , alors
MU = M ⊤ U = 𝑠(M)U et NU = N⊤ U = 𝑠(N)U
Il s’ensuit que
(λM + μN)U = (λM + μN)⊤ U = (λ𝑠(M) + μ𝑠(N))U
Par conséquent,
λM + μN ∈ ℳ et 𝑠(λM + μN) = λ𝑠(M) + μ𝑠(N)
On a aussi
MNU = 𝑠(M)𝑠(N)U et (MN)⊤ U = 𝑠(M)𝑠(N)U
Ainsi MN ∈ ℳ et 𝑠(MN) = 𝑠(M)𝑠(N).
On a donc bien prouvé que ℳ est une sous-algèbre de ℳ𝑛 (𝕂) et que 𝑠 est un morphisme d’algèbres.
2. Soit M ∈ ℳ inversible. Remarquons tout d’abord que 𝑠(M) ≠ 0 sinon U serait un vecteur non nul du noyau de M. On multiplie à
1
gauche par M −1 l’identité MU = 𝑠(M)U et on obtient M −1 U = U. De même, en multipliant à gauche par (M ⊤ )−1 l’identité
𝑠(M)
1 1
M U = 𝑠(M)U, on obtient (M ) U =
⊤ ⊤ −1
U. Ceci prouve que M −1
∈ ℳ et que 𝑠(M −1 ) = .
𝑠(M) 𝑠(M)

M+M⊤ M−M⊤
3. Soit M ∈ ℳ. On a M = P + Q avec P = symétrique et Q = antisymétrique. On a aussi
2 2

PU = P⊤ U = 𝑠(M)U et QU = Q⊤ U = 0.
Donc P et Q sont magiques. On sait enfin que les sous-espaces vectoriels des matrices symétriques et antisymétriques sont en somme
directe donc a fortiori ℳ𝑠 et ℳ𝑎 . On a donc bien ℳ = ℳ𝑠 ⊕ ℳ𝑎 .
4. Soit M ∈ ℳ. Comme on a MU = 𝑠(M)U, 𝒦 = vect((1, … , 1)) est stable par ϕM . De plus, ℋ = Ker ψ où ψ est la forme linéaire
canoniquement associée au vecteur ligne U⊤ . Comme U⊤ M = 𝑠(M)U⊤ , on a donc ψ ∘ ϕM = 𝑠(M)ψ de sorte que le noyau ℋ de ψ est
stable par ϕM .
Réciproquement, on suppose que ℋ et 𝒦 sont stables par ϕM . Comme 𝒦 = vect((1, … , 1)), il existe α ∈ 𝕂 tel que MU = αU. Comme
ℋ = Ker ψ est stable par ϕM , on a Ker ψ ∘ ϕM ⊂ Ker ψ et donc il existe β ∈ 𝕂 tel que ψ ∘ ϕM = βψ de sorte que M ⊤ U = βU. Mais
alors
tr(MUU⊤ ) = α tr(UU⊤ ) = 𝑛α
et
tr(M ⊤ UU⊤ ) = β tr(UU⊤ ) = 𝑛β.
De plus,
tr(MUU⊤ ) = tr(UU⊤ M) = tr(M ⊤ UU⊤ ).
Donc 𝑛α = 𝑛β et α = β. Ainsi M ∈ ℳ.

http://lgarcin.github.io 46
© Laurent Garcin MP Dumont d’Urville

5. L’application linéaire suivante :


Φ ∶ ℳ ⟶ ℒ(ℋ) × ℒ(𝒦)
M ⟼ (ϕM |ℋ , ϕM |𝒦 )
est bien définie puisque ℋ et 𝒦 sont stables par ϕM pour M ∈ ℳ. Si on se donne 2 endomorphismes de ℋ et de 𝒦, on définit bien un
unique endomorphisme de 𝕂𝑛 puisque ℋ et 𝒦 sont supplémentaires dans 𝕂𝑛 . La matrice de cet endomorphisme dans la base canonique
de 𝕂𝑛 est un élément de ℳ d’après la question précédente. Φ est donc un isomorphisme et dim ℳ = (𝑛 − 1)2 + 1 = 𝑛2 − 2𝑛 + 2.
Solution 69

1. Le fait que ΔA est un sous-espace vectoriel de ℳ𝑛 (ℂ) provient de la linéarité de la transposition et de la linéarité de la trace.
Soit M ∈ 𝒜𝑛 (ℂ). On a alors M+M ⊤ = 0. De plus, les éléments diagonaux de M sont nuls donc tr(M) = 0. Ainsi M+M ⊤ = tr(M)A = 0
donc M ∈ ΔA . D’où 𝒜𝑛 (ℂ) ⊂ ΔA .
2. Soit M ∈ ΔA . On a donc tr(M + M ⊤ ) = tr(tr(M)A). Par linéarité de la trace, ceci équivaut à tr(M) + tr(M ⊤ ) = tr(M) tr(A). Or
tr(M ⊤ ) = tr(M) donc 2 tr(M) = tr(A) tr(M). Puisque tr(A) ≠ 2, tr(M) = 0 et finalement M + M ⊤ = 0 i.e. M ∈ 𝒜𝑛 (ℂ). Ainsi
ΔA ⊂ 𝒜𝑛 (ℂ). L’inclusion réciproque ayant été prouvé à la première question, ΔA = 𝒜𝑛 (ℂ).
3. Soit M ∈ ΔA . Remarquons que (M + M ⊤ )⊤ = M + M ⊤ donc tr(M)A⊤ = tr(M)A. Comme A ∉ 𝒮𝑛 (ℂ), A⊤ ≠ A donc tr(M) = 0. On a
alors M + M ⊤ = 0 et donc M ∈ 𝒜𝑛 (ℂ). On a donc à nouveau ΔA = 𝒜𝑛 (ℂ).
4. Soit M ∈ ℳ𝑛 (ℂ). Puisque ℳ𝑛 (ℂ) = 𝒮𝑛 (ℂ)⊕𝒜𝑛 (ℂ), il existe P ∈ 𝒮𝑛 (ℂ) et Q ∈ 𝒜𝑛 (ℂ) telles que M = P+Q. On a déjà vu que Q ∈ ΔA
donc M ∈ ΔA si et seulement si P ∈ ΔA . Autrement dit, il suffit de déterminer ΔA ∩ 𝒮𝑛 (ℂ) et on aura ΔA = 𝒜𝑛 (ℂ) ⊕ (ΔA ∩ 𝒮𝑛 (ℂ))
(la somme est directe car 𝒜𝑛 (ℂ) et 𝒮𝑛 (ℂ) sont en somme directe).
Soit M ∈ ΔA ∩ 𝒮𝑛 (ℂ). Comme M ⊤ = M on a donc 2M = tr(M)A et donc M ∈ vect(A). Réciproquement soit M ∈ vect(A), il existe
λ ∈ ℂ tel que M = λA. Alors M + M ⊤ = 2λA car A⊤ = A par hypothèse. D’autre part, tr(M) = λ tr(A) = 2λ. On a donc bien
M + M ⊤ = tr(M)A et M ∈ ΔA . Ainsi ΔA ∩ 𝒮𝑛 (ℂ) = vect(A).
On a donc ΔA = 𝒜𝑛 (ℂ) ⊕ vect(A).
Solution 70

ℳ𝑛 (𝕂) ⟶ 𝕂
1. a. L’application φ ∶ { est une forme linéaire non nulle. Comme 𝒩𝑛 = Ker φ, 𝒩𝑛 est un hyperplan de
M ⟼ tr(M)
ℳ𝑛 (𝕂), c’est-à-dire un sous-espace vectoriel de ℳ𝑛 (𝕂) de dimension 𝑛2 − 1.
b. Soit M ∈ ℒ𝑛 . Il existe donc (A, B) ∈ ℳ𝑛 (𝕂)2 tel que M = [A, B]. Alors tr(M) = tr(AB) − tr(BA) = 0 et donc M ∈ 𝒩𝑛 . On a
donc ℒ𝑛 ⊂ 𝒩𝑛 .
2. a. Soient D une matrice de ℳ𝑛 (𝕂) de diagonale nulle et M ∈ ℳ𝑛 (𝕂) semblable à D. Il existe donc P ∈ GL𝑛 (𝕂) telle que
M = P−1 DP. Alors
tr(M) = tr(P−1 DP) = tr(PP−1 D) = tr(D) = 0
et M ∈ 𝒩𝑛 .
b. On raisonne par récurrence sur 𝑛.
Pour 𝑛 = 1, il n’y a rien à faire puisque la seule matrice de 𝒩1 est la matrice nulle.
Supposons le résultat établi pour un certain 𝑛 ∈ ℕ∗ . Soit M ∈ 𝒩𝑛+1 . On montre d’abord que M est semblable à une matrice dont
le coefficient sur la première ligne et la première colonne est nul. Pour cela, notons 𝑓 l’endomorphisme de 𝕂𝑛+1 canoniquement
associé à M. Si 𝑓 est une homothétie, alors son rapport est nécessairement nul puisque tr(M) = 0. Ainsi M = 0 et il n’y a rien à
faire. Sinon on montre classiquement qu’il existe 𝑥 ∈ 𝕂𝑛+1 tel que la famille (𝑥, 𝑓(𝑥)) soit libre. On complète cette famille en une
base de 𝕂𝑛+1 . On note M ′ la matrice de 𝑓 dans cette base. Alors M et M ′ sont bien semblables et M ′ est bien de la forme voulue.
⎛ 0 ∗⋯∗ ⎞
On a donc M ′ = ⎜ ∗ ″
⎟. Puisque M et M ′ sont semblables, tr(M) = tr(M ′ ) = 0. On en déduit tr(M ″ ) = 0. On peut alors
⎜ ⋮ M ⎟
⎝ ∗ ⎠
appliquer l’hypothèse de récurrence à M ″ . Il existe donc P ∈ GL𝑛 (𝕂) telle que D = P−1 M ″ P soit une matrice de diagonale nulle.

http://lgarcin.github.io 47
© Laurent Garcin MP Dumont d’Urville

⎛ 1 0⋯0 ⎞ ⎛ 1 0⋯0 ⎞ ⎛ 0 ∗⋯∗ ⎞


Posons alors P′ = ⎜ 0 ⎟. On a P′−1 = ⎜ 0 ⎟ et un calcul par blocs montre que P′−1 M ′ P′ = ⎜ ∗ ⎟.
⎜ ⋮ P ⎟ ⎜ ⋮ P−1 ⎟ ⎜ ⋮ D ⎟
⎝ 0 ⎠ ⎝ 0 ⎠ ⎝ ∗ ⎠
Ainsi M est semblable à une matrice de diagonale nulle. Par transitivité de la relation de similitude, M l’est également.

c. Soit M ∈ 𝒩𝑛 . D’après la question précédente, il existe une matrice A ∈ ℳ𝑛 (𝕂) de diagonale nulle semblable à M. Soient
λ1 , … , λ𝑛 ∈ 𝕂 des scalaires distincts deux à deux. On note D la matrice diagonale dont les coefficients diagonaux sont λ1 , … , λ𝑛 .
A𝑖𝑗
si 𝑖 ≠ 𝑗
Enfin, on définit une matrice B ∈ ℳ𝑛 (𝕂) en posant B𝑖𝑗 = { 𝑖−λ𝑗 λ . On vérifie que A = DB − BD. Comme M est
0 sinon
semblable à A, il existe P ∈ GL𝑛 (𝕂) telle que M = P−1 AP ou encore
M = (P−1 DP)(P−1 BP) − (P−1 BP)(P−1 DP)
Ainsi M ∈ ℒ𝑛 .
Solution 71

Notons 𝒮𝑛 l’ensemble des matrices symplectiques de ℳ2𝑛 (𝕂). On a clairement I2𝑛 ∈ 𝒮𝑛 .


On vérifie que J⊤ = −J et un calcul par blocs montre que J2 = −I2𝑛 .
Soient M, N ∈ 𝒮𝑛 . Alors
(MN)⊤ J(MN) = N⊤ (M ⊤ JM)N = N⊤ JN = J
donc MN ∈ 𝒮𝑛 .
Soit M ∈ 𝒮𝑛 . On a alors
(JM ⊤ J)M = J(M ⊤ JM) = J2 = −I2𝑛
Ceci prouve que M est inversible d’inverse M −1 = −JM ⊤ J. On vérifie que M −1 ∈ 𝒮𝑛 . En effet :
(M ⊤ )−1 JM −1 = (−J⊤ MJ⊤ )JM −1 = JM(−J2 )M −1 = JMM −1 = J
Solution 72

Notons (E𝑖𝑗 )1≤𝑖,𝑗≤𝑛 la base canonique de ℳ𝑛 (𝕂). On rappelle que pour tout (𝑖, 𝑗, 𝑘, 𝑙) ∈ ℳ𝑛 (𝕂)4 , E𝑖𝑗 E𝑘𝑙 = δ𝑗𝑘 E𝑖𝑙 .
Soit (𝑖, 𝑗) ∈ J1, 𝑛K2 tel que 𝑖 ≠ 𝑗. Alors E𝑖𝑖 − E𝑗𝑗 = E𝑖𝑗 E𝑗𝑖 − E𝑗𝑖 E𝑖𝑗 et donc 𝑓(E𝑖𝑖 ) = 𝑓(E𝑗𝑗 ). On en déduit qu’il existe λ ∈ 𝕂 tel que 𝑓(E𝑖𝑖 ) = λ
pour tout 𝑖 ∈ J1, 𝑛K.
Soit à nouveau (𝑖, 𝑗) ∈ J1, 𝑛K2 tel que 𝑖 ≠ 𝑗. Alors E𝑖𝑗 = E𝑖1 E1𝑗 − E1𝑗 E𝑖1 . On en déduit que 𝑓(E𝑖𝑗 ) = 0.
Finalement,
• 𝑓(E𝑖𝑖 ) = λ = λ tr(E𝑖𝑖 ) pour tout 𝑖 ∈ J1, 𝑛K ;
• 𝑓(E𝑖𝑗 ) = 0 = λ tr(E𝑖𝑗 ) pour tout (𝑖, 𝑗) ∈ J1, 𝑛K2 tel que 𝑖 ≠ 𝑗.
Les formes linéaires 𝑓 et λ tr coïncident sur la base canonique de ℳ𝑛 (𝕂) : elles sont donc égales.

Equations d’inconnue matricielle


Solution 73

Soient 1 ⩽ 𝑖, 𝑗 ⩽ 𝑛. Pour X = E𝑖,𝑗 , on obtient


tr(AX) = 𝑎𝑗,𝑖 = tr(BX) = 𝑏𝑗,𝑖 .
Ainsi A = B.
Solution 74

1 1 1
1. On a clairement Im A = vect (( )). Donc (( )) est une base de Im A. On vérifie que ( ) ∈ Ker A. Or d’après le théorème du
1 1 −1
1 1
rang dim Ker A = 1 donc Ker A = vect (( )) et (( )) est une base de Ker A.
−1 −1

http://lgarcin.github.io 48
© Laurent Garcin MP Dumont d’Urville

2. Le noyau de A est non nul donc A n’est pas inversible. On peut aussi dire que rg(A) = 1 ≠ 2.
3. On a X(X + I2 ) = A. Or un produit de matrices est inversible. A n’étant pas inversible, on a X ou X + I2 non inversible.
4. a. On a A = X(X + I2 ) donc Im A ⊂ Im X et A = (X + I2 )X donc Ker X ⊂ Ker A.
b. Comme X n’est pas inversible, Ker X ≠ {0} et dim Ker X ≥ 1. Or dim Ker A = 1 donc d’après la question précédente dim Ker X =
1 et Ker X = Ker A.
Par le théorème du rang, rg X = 1. Et on sait que rg A = 1. Donc d’après la question précédente, Im X = Im A.
1 𝑥 𝑦 1
c. On a Im X = Im A = vect (( )) donc il existe (𝑥, 𝑦) ∈ ℝ2 tel que X = ( ). Or ( ) ∈ Ker A = Ker X donc 𝑥 = 𝑦. Il
1 𝑥 𝑦 −1
existe donc 𝑥 ∈ ℝ tel que X = 𝑥A. Or la matrice nulle n’est pas solution de l’équation de l’énoncé donc 𝑥 ≠ 0. Comme A2 = 2A,
1 1
en reportant dans l’équation, on obtient 2𝑥2 + 𝑥 = 1 donc 𝑥 = −1 ou 𝑥 = . Ainsi X = −A ou X = A.
2 2

5. Y n’est donc pas inversible. L’équation initiale équivaut à Y + Y = A. En se reportant au cas précédent, on aboutit à Y = −A ou
2
1 1
Y = A i.e. X = A − I2 ou X = − A − I2 .
2 2

6. On a vu qu’une solution X était nécessairement dans {−A, A, A − I2 , − A − I2 }. On vérifie également que toutes ces matrices sont
1 1
2 2
bien solutions. On en déduit que les solutions sont

−1 −1 1 1 1 0 1 1 −3 −1
( ), ( ), ( ), ( )
−1 −1 2 1 1 1 0 2 −1 −3

Solution 75

0 1
1. Notons A = ( ). On a Im A = Im XY ⊂ Im X. Or rg A = 1 donc rg X ≥ 1. De plus, Ker Y ⊂ Ker XY = Ker A. Comme rg A = 1,
0 0
dim Ker A = 1. Donc dim Ker Y ≤ 1.
Comme YX = 0, Im X ⊂ Ker Y. Or on a montré que dim Ker Y ≤ 1 donc rg X ≤ 1. Finalement, rg X = 1 et rg Y = 1.
2. On a Im A ⊂ Im X et rg A = rg X = 1 donc Im X = Im A. Or Im A = vect(𝑒1 ) où 𝑒1 est le premier vecteur de la base canonique de ℝ2 .
𝑎 𝑏
Donc A est de la forme ( ) avec 𝑎 et 𝑏 non tous deux nuls.
0 0
0 𝑐
Par ailleurs, Im X ⊂ Ker Y et rg X = dim Ker Y = 1 donc Im X = Ker Y. Y est donc de la forme ( ) avec 𝑐 et 𝑑 non tous deux
0 𝑑
nuls.
3. La condition XY = A donne 𝑎𝑐 + 𝑏𝑑 = 1. Réciproquement, si 𝑎, 𝑏, 𝑐, 𝑑 sont 4 réels tels que 𝑎𝑐 + 𝑏𝑑 = 1, le couple de matrices
𝑎 𝑏 0 𝑐
(X, Y) = (( ),( )) est bien solution du système.
0 0 0 𝑑

Solution 76

Remarquons d’abord que si X est une solution, alors tr(X) + tr(X) tr(A) = 0 i.e. tr(X)(tr(A) + 1) = 0 par linéarité de la trace. On est donc
amené à distinguer deux cas.
Cas tr(A) ≠ −1 Si X est solution, on a tr(X) = 0 d’après ce qui précède. Mais alors X = 0. On vérifie que 0 est bien solution de l’équation.

Cas tr(A) = −1 Si X est solution, alors X est de la forme X = λA avec λ ∈ ℝ. Réciproquement si X = λA avec λ ∈ ℝ, alors X + tr(X)A =
λA + λ tr(A)A = 0 donc X est bien solution.
Récapitulons : si tr(A) ≠ −1, la seule solution est la solution nulle ; si tr(A) = −1, l’ensemble des solutions est vect(A).

http://lgarcin.github.io 49
© Laurent Garcin MP Dumont d’Urville

Systèmes linéaires
Solution 77

Par la méthode du pivot de Gauss…

1 2 −1 𝑎 2 −1

( −2 −3 3 𝑏 ) ←
−+
1 1 −2 𝑐 ←−−−− +
1 2 −1 𝑎
( 0 1 1 𝑏 + 2𝑎 )
0 −1 −1 𝑐−𝑎 ←
−+
1 2 −1 𝑎
( 0 1 1 𝑏 + 2𝑎 )
0 0 0 𝑎+𝑏+𝑐

Le système de l’énoncé est donc équivalent au système

𝑥 + 2𝑦 − 𝑧 = 𝑎
{ 𝑦 + 𝑧 = 𝑏 + 2𝑎
0 = 𝑎+𝑏+𝑐

qui admet une solution si et seulement si 𝑎 + 𝑏 + 𝑐 = 0. Géométriquement cela signifie qu’un point de ℝ3 est une image par l’application

⎛𝑥⎞ ⎛ 𝑥 + 2𝑦 − 𝑧 ⎞
3 3 ⎜ 𝑦 ⎟ ⟼ ⎜ −2𝑥 − 3𝑦 + 3𝑧 ⎟
ℝ ⟶ℝ ,
⎜ ⎟ ⎜ ⎟
⎝𝑧⎠ ⎝ 𝑥 + 𝑦 − 2𝑧 ⎠
si et seulement si il est dans le plan d’équation 𝑥 + 𝑦 + 𝑧 = 0.
Dans ce cas le système est équivalent à
𝑥 + 2𝑦 − 𝑧 = 𝑎
{
𝑦 + 𝑧 = 𝑎−𝑐
qu’on résoud en remontant du bas vers le haut. On trouve

⎛ 𝑥 ⎞ ⎛ 2𝑐 − 𝑎 + 3𝑧 ⎞
⎜ 𝑦 ⎟=⎜ 𝑎−𝑐−𝑧 ⎟ où 𝑧 ∈ ℝ.
⎜ ⎟ ⎜ ⎟
⎝𝑧⎠ ⎝ 𝑧 ⎠

Ainsi l’ensemble de solutions est une droite 𝒟 dans ℝ3 , à savoir

⎛ 2𝑐 − 𝑎 ⎞ ⎛ 3 ⎞
𝒟 = ⎜ 𝑎 − 𝑐 ⎟ + ℝ ⎜ −1 ⎟ .
⎜ ⎟ ⎜ ⎟
⎝ 0 ⎠ ⎝ 1 ⎠

Solution 78

http://lgarcin.github.io 50
© Laurent Garcin MP Dumont d’Urville

1. Pivot de Gauss :
2 −1 4 −4 −3 −5

( 3 2 −3 17 ) | 2 ←
−+
5 −3 8 −10 | 2 ←−−−−− +

2 −1 4 −4
( 0 7 −18 46 )
0 −1 −4 0 |7 ←
−+

2 −1 4 −4
( 0 7 −18 46 )
0 0 −46 46

Le système initial est donc équivalent au système

2𝑥 − 𝑦 + 4𝑧 = −4
{ 7𝑦 − 18𝑧 = 46
− 46𝑧 = 46

qu’on résout facilement en commençant par le bas. On trouve l’unique solution (2, 4, −1).

2.
1 −1 2 1 −3

( 3 2 −3 2 ) ←
−+
−1 6 −11 −3 02

1 −1 2 1
( 0 5 −9 −1 ) −1

0 5 −9 −2 ←
−+

1 −1 2 1
( 0 5 −9 −1 )
0 0 0 −1

Le système initial est donc équivalent à un système dont une équation est 0𝑥 + 0𝑦 + 0𝑧 = −1, ou encore 0 = −1. Il n’y a pas de (𝑥, 𝑦, 𝑧)
vérifiant cette équation. Par conséquence le système n’a pas de solution.
Remarque. On aurait déjà pu le voir une étape plus tôt, car elle contient les équations contradictoires 5𝑦 − 9 = −1 et 5𝑦 − 9 = −2.

http://lgarcin.github.io 51
© Laurent Garcin MP Dumont d’Urville

3. On commence par une permutation de lignes pour obtenir un pivot en haut à gauche.
0 2 −1 −2 ←

( 1 1 1 2 ) ←

−2 4 −5 −10

1 1 1 2 2

( 0 2 −1 −2 )
−2 4 −5 −10 ←
−+

1 1 1 2
( 0 2 −1 −2 ) −3

0 6 −3 −6 ←
−+

1 1 1 2
( 0 2 −1 −2 )
0 0 0 0
Le système initial est donc équivalent au système
𝑥 + 𝑦 + 𝑧 = 2
{ 2𝑦 − 𝑧 = −2
0 = 0.
La dernière équation est vérifiée pour tout choix de (𝑥, 𝑦, 𝑧). Elle est donc superflue et peut être omise. En résout les deux équations
restantes.
𝑥 = 2 − 𝑦 − 𝑧 = 2 − 𝑦 − (2 + 2𝑦) = −3𝑦
{
𝑧 = 2 + 2𝑦.
Le système admet donc une unfinité de solutions, à savoir tous les triplets (−3𝑦, 𝑦, 2 + 2𝑦) avec 𝑦 ∈ ℝ. L’ensemble de solutions s’écrit
aussi comme
{(0, 0, 2) + 𝑦(−3, 1, 2) | 𝑦 ∈ ℝ}
ou encore,
(0, 0, 2) + ℝ(−3, 1, 2).
Il s’agit de la droite passant par le point (0, 0, 2) est dirigée par le vecteur (−3, 1, 2).
4. On commence par une permutation de lignes puisque le pivot le plus simple à manipuler est 1.
1 1 −7 2 −3 −2 −2
⎛ ⎞
⎜ 3 2 −3 0 ⎟ ←−+
⎜ 2 1 −5 ⎟
3 ⎟ ←−−−−− +

⎝ 2 −3 8 5 ⎠ ←−−−−−−−−− +

1 1 −7 2
⎛ ⎞
⎜ 0 −1 18 −6 ⎟ −1 −5
⎜ 0 −1 9 ⎟
−1 ⎟ ←−+

⎝ 0 −5 22 1 ⎠ ←−−−−− +

1 1 −7 2
⎛ ⎞
⎜ 0 −1 18 −6 ⎟
⎜ 0 0 −9 5 ⎟⎟

⎝ 0 0 −68 31 ⎠

http://lgarcin.github.io 52
© Laurent Garcin MP Dumont d’Urville

La troisième équation donne 𝑧 = −5/9 tandis que la quatrième donne 𝑧 = −68/31 ≠ −5/9. Par conséquence le système n’a pas de
solution.
Solution 79

𝑚𝑥 + 𝑦 + 𝑧 = 1
{𝑥 + 𝑚𝑦 + 𝑧 = 𝑚
𝑥 + 𝑦 + 𝑚𝑧 = 𝑚2
(1 − 𝑚)𝑦 + (1 − 𝑚2 )𝑧 = 1 − 𝑚3 L1 ← L1 − 𝑚L3
2
⟺ { (𝑚 − 1)𝑦 + (1 − 𝑚)𝑧 = 𝑚 − 𝑚 L2 ← L2 − L3
𝑥 + 𝑦 + 𝑚𝑧 = 𝑚2
(2 − 𝑚 − 𝑚2 )𝑧 = (1 + 𝑚 − 𝑚2 − 𝑚3 ) L1 ← L1 + L2
2
⟺ {(𝑚 − 1)𝑦 + (1 − 𝑚)𝑧 = 𝑚 − 𝑚
𝑥 + 𝑦 + 𝑚𝑧 = 𝑚2

Les racines de 𝑚2 + 𝑚 − 2 sont 1 et −2. On distingue donc trois cas.


• Si 𝑚 = 1, alors le système équivaut à 𝑥 + 𝑦 + 𝑧 = 1. L’ensemble des solutions est donc

{(1 − 𝑦 − 𝑧, 𝑦, 𝑧), (𝑦, 𝑧) ∈ ℝ2 }

• Si 𝑚 = −2, alors le système n’a clairement pas de solution.


• Si 𝑚 ≠ 1 et 𝑚 ≠ −2, alors on trouve successivement

𝑚3 + 𝑚 2 − 𝑚 − 1 (𝑚 + 1)2
𝑧= =
𝑚2 + 𝑚 − 2 𝑚+2
2
𝑚−𝑚 1
𝑦= +𝑧=
𝑚−1 𝑚+2
𝑚+1
𝑥 = 𝑚2 − 𝑦 − 𝑚𝑧 = −
𝑚+2
L’ensemble des solutions est donc le singleton

𝑚+1 1 (𝑚 + 1)2
{(− , , )}
𝑚+2 𝑚+2 𝑚+2

http://lgarcin.github.io 53

Vous aimerez peut-être aussi