TDMatrices Corrige
TDMatrices Corrige
TDMatrices Corrige
Matrices
Calculs élémentaires
Solution 1
𝑎2 + 𝑏𝑐 𝑎𝑏 + 𝑏𝑑
M2 = ( ).
𝑎𝑐 + 𝑐𝑑 𝑏𝑐 + 𝑑 2
Or,
𝑎2 + 𝑎𝑑 𝑎𝑏 + 𝑏𝑑
(𝑎 + 𝑑)M = ( ).
𝑎𝑐 + 𝑐𝑑 𝑎𝑑 + 𝑑 2
On a donc
M 2 + (𝑎 + 𝑑)M + (𝑎𝑑 − 𝑏𝑐)𝕀 2 = 𝕆2 .
Solution 3
Notons, pour tout 1 ⩽ 𝑘 ⩽ 𝑛, S𝑘 la somme des coefficients de la 𝑘-ième colonne de A. D’après la formule définissant le produit matriciel,
⎛ S1 S2 … S𝑛 ⎞
⎜ S1 S2 … S𝑛 ⎟
UA = ⎜ ⎟
⋮ ⋮ ⋮
⎜ ⎟
⎝ S1 S2 … S𝑛 ⎠
De même, puisque S1 + … + S𝑛 = σ(A), on a
⎛ σ(A) σ(A) … σ(A) ⎞
⎜ σ(A) σ(A) … σ(A) ⎟
UAU = ⎜ ⎟
⋮ ⋮ ⋮
⎜ ⎟
⎝ σ(A) σ(A) … σ(A) ⎠
ainsi ,
UAU = σ(A)U.
Solution 4
On a
A(B − A − 𝕀 𝑛 ) = 𝕀 𝑛
ainsi A est-elle inversible d’inverse B − A − 𝕀 𝑛 et donc
A(B − A − 𝕀 𝑛 ) = (B − A − 𝕀 𝑛 )A
d’où AB = BA.
Solution 5
Notons
C = (𝑐𝑖,𝑗 )1⩽𝑖,𝑗⩽𝑛 et D = (𝑑𝑖,𝑗 )1⩽𝑖,𝑗⩽𝑛 .
http://lgarcin.github.io 1
© Laurent Garcin MP Dumont d’Urville
Solution 6
On vérifie facilement que pour 𝑥, 𝑦 ∈ ℝ, M(𝑥)M(𝑦) = M(𝑥 + 𝑦). On a en particulier pour tout 𝑥 ∈ ℝ, M(𝑥)M(−𝑥) = M(0) = I3 , ce qui
prouve que M(𝑥) est inversible. Ainsi G ⊂ GL3 (ℝ).
Vérifions que G est un sous-groupe de GL3 (ℝ) :
• I3 = M(0) ∈ G ;
• pour 𝑥, 𝑦 ∈ ℝ, M(𝑥)M(𝑦) = M(𝑥 + 𝑦) ∈ G ;
• pour 𝑥 ∈ ℝ, M(𝑥)−1 = M(−𝑥) ∈ G.
Ceci prouve que G est un sous-groupe de GL3 (ℝ). De plus, l’application M ∶ 𝑥 ↦ M(𝑥) est un morphisme de (ℝ, +) dans (G, ×) puisque
M(𝑥)M(𝑦) = M(𝑥 + 𝑦) pour tous 𝑥, 𝑦 ∈ ℝ. M est surjectif par définition de G. De plus, M(𝑥) = I3 implique 𝑥 = 0, ce qui prouve que M est
injectif. Ainsi M est un isomorphisme de (ℝ, +) sur (G, ×).
Solution 7
Puissances
Solution 8
1. Posons
⎛ 0 2 3 ⎞
J=⎜ 0 0 2 ⎟
⎜ ⎟
⎝ 0 0 0 ⎠
http://lgarcin.github.io 2
© Laurent Garcin MP Dumont d’Urville
de sorte que A = I3 + J. On remarque que J3 = 0 et que J et I3 commutent. On a donc, d’après la formule du binôme,
𝑛(𝑛 − 1) 2
A𝑛 = I3 + 𝑛J + J .
2
Puisque
⎛ 0 0 4 ⎞
2
J = ⎜ 0 0 0 ⎟,
⎜ ⎟
⎝ 0 0 0 ⎠
on a,
2
⎛ 1 2𝑛 2𝑛 + 𝑛 ⎞
A2 = ⎜ 0 1 2𝑛 ⎟.
⎜ ⎟
⎝ 0 0 1 ⎠
2. Posons
0 1
J = ( )
0 0
de sorte que A = 𝑎I3 + 𝑏J. On remarque que J2 = 0 et que 𝑏J et 𝑎I3 commutent. On a donc, d’après la formule du binôme,
A𝑛 = 𝑎𝑛 I3 + 𝑛𝑎𝑛−1 𝑏J.
Ainsi, pour 𝑛 ⩾ 2,
𝑎𝑛 𝑛𝑎𝑛−1 𝑏
A𝑛 = ( ).
0 𝑎𝑛
3. Grâce aux formules d’addition trigonométriques, on prouve sans peine par récurrence sur 𝑛 que
cos(𝑛θ) − sin(𝑛θ)
A𝑛 = ( ).
sin(𝑛θ) cos(𝑛θ)
Remarque. A est une matrice de rotation vectorielle plane , ce qui rend le calcul de A𝑛 banal…
4. On a
14 −10
A2 = ( ),
5 −1
ainsi, par un calcul sans difficulté,
A2 − 5A + 6I2 = 0.
On remarque que le polynôme
P = X2 − 5X + 6 = (X − 2)(X − 3)
est annulateur de la matrice A. Effectuons la division euclidienne de X𝑛 par P ≠ 0. Il existe un polynôme réel Q et deux réels 𝑎𝑛 , 𝑏𝑛
tels que
X𝑛 = PQ + 𝑎𝑛 X + 𝑏𝑛 .
Après évaluation en 2 et 3 , on obtient le système
2𝑛 = 2𝑎𝑛 + 𝑏𝑛
{ ,
3𝑛 = 3𝑎𝑛 + 𝑏𝑛
d’où
𝑎𝑛 = 3𝑛 − 2𝑛 et 𝑏𝑛 = 3 ⋅ 2𝑛 − 2 ⋅ 3𝑛 .
On a donc
A𝑛 = 𝑎𝑛 A + 𝑏𝑛 I2
2𝑛+1 − 3𝑛 2𝑛 − 3𝑛
= ( ).
2 ⋅ 3𝑛 − 2𝑛+1 2 ⋅ 3𝑛 − 2𝑛
http://lgarcin.github.io 3
© Laurent Garcin MP Dumont d’Urville
Solution 9
Notons
⎛ 𝑢𝑛 ⎞
X𝑛 = ⎜ 𝑣𝑛 ⎟.
⎜ ⎟
⎝ 𝑤𝑛 ⎠
Le système se traduit par l’égalité matricielle
X𝑛+1 = MX𝑛 ,
où l’on a posé
⎛ 0 1 1 ⎞
M = ⎜ 1 0 1 ⎟.
⎜ ⎟
⎝ 1 1 0 ⎠
Ainsi, par une récurrence immédiate,
∀𝑛 ⩾ 0 , X𝑛 = M 𝑛 X0 .
Notons U = (1)1⩽𝑖,𝑗⩽3 de sorte que
M = U − I3 .
Puisque U2 = 3U, on a
(M + I3 )2 = 3(M + I3 ),
c’est-à-dire M 2 − M − 2I3 . Le polynôme
P = X2 − X − 2 = (X + 1)(X − 2)
est annulateur de la matrice M. Effectuons la division euclidienne de X𝑛 par P ≠ 0. Il existe un polynôme réel Q et deux réels 𝑎𝑛 , 𝑏𝑛 tels que
X𝑛 = PQ + 𝑎𝑛 X + 𝑏𝑛 .
Le polynôme
P = X3 − X2 − 4X + 4 = (X − 1)(X − 2)(X + 2)
est annulateur de la matrice A. Effectuons la division euclidienne de X𝑛 par P ≠ 0. Il existe un polynôme réel Q et trois réels 𝑎𝑛 , 𝑏𝑛 , 𝑐𝑛 tels
que
X𝑛 = PQ + 𝑎𝑛 X2 + 𝑏𝑛 X + 𝑐𝑛 .
http://lgarcin.github.io 4
© Laurent Garcin MP Dumont d’Urville
1. On a A2 = I3 ,
⎛ 0 1 0 ⎞
2
B =⎜ 0 0 1 ⎟
⎜ ⎟
⎝ 1 0 0 ⎠
et B3 = I3 . On en déduit les calculs suivants :
Posons
⎛ 1 0 1 ⎞
I = I3 et K = ⎜ 0 0 0 ⎟
⎜ ⎟
⎝ 1 0 1 ⎠
de sorte que M = 𝑏I + 𝑎K. Comme I et K commutent, on peut appliquer la formule du binôme :
𝑛
𝑛
M 𝑛 = (𝑏I + 𝑎K)𝑛 = ∑ ( )𝑎ℓ 𝑏𝑛−ℓ Kℓ .
ℓ=0
ℓ
On prouve par une récurrence immédiate que, pour tout entier 𝑚 ⩾ 1, on a :
𝑚−1
⎛ 2 0 2𝑚−1 ⎞
𝑚
K =⎜ 0 0 0 ⎟.
⎜ ⎟
𝑚−1
⎝ 2 0 2𝑚−1 ⎠
http://lgarcin.github.io 5
© Laurent Garcin MP Dumont d’Urville
En notant 𝑛
𝑛
𝑠 = ∑ ( )𝑎ℓ 𝑏𝑛−ℓ 2ℓ−1 ,
ℓ=1
ℓ
on aboutit donc à :
𝑛
⎛ 𝑠+𝑏 0 𝑠 ⎞
𝑛
M =⎜ 0 𝑏𝑛 0 ⎟.
⎜ ⎟
⎝ 𝑠 0 𝑠 + 𝑏𝑛 ⎠
On conclut en appliquant à nouveau la formule du binôme :
𝑛
𝑛
𝑠 = ∑ ( )𝑎ℓ 𝑏𝑛−ℓ 2ℓ−1
ℓ=1
ℓ
𝑛
1 𝑛
= ( ∑ ( )𝑎ℓ 𝑏𝑛−ℓ 2ℓ − 𝑏𝑛 )
2 ℓ=1 ℓ
(𝑏 + 2𝑎)𝑛 − 𝑏𝑛
= .
2
Solution 13
On peut tout à fait substituer la matrice A à X, ce qui donne B𝑘+2 = B𝑘+1 B1 − B𝑘 = B𝑘+1 − B𝑘 puisque B1 = I𝑛 . Quitte à raisonner coefficient
par coefficient, on peut appliquer les résultats connus sur les suites récurrentes linéaires d’ordre deux pour affirmer qu’il existe C, D ∈ ℳ𝑛 (ℝ)
telles que :
∀𝑘 ∈ ℕ, B𝑘 = 𝑟𝑛 (cos(𝑘θ)C + sin(𝑘θ)D)
π
où 𝑟𝑒±𝑖θ sont les racines complexes conjuguées de X2 − X + 1. On trouve facilement 𝑟 = 1 et θ = . On a de plus B0 = 2I𝑛 et B1 = I𝑛 . Les
3
matrices C et D sont donc solutions du système :
C = 2I𝑛
{1 √3
C+ D = I𝑛
2 2
On obtient C = 2I𝑛 et D = 0. On a donc
𝑘π
∀𝑘 ∈ ℕ, A𝑘 + A−𝑘 = 2 cos ( ) I𝑛
3
Solution 14
1 0 0 0 0 1
1. a. On pose U = ( ), V = ( ), W = ( ). On a E = vect(U, V, W). Ainsi E est un sous-espace vectoriel de ℳ2 (ℝ)
0 0 0 1 0 0
donc un ℝ-espace vectoriel. La famille (U, V, W) est libre : c’est donc une base de E et dim E = 3.
b. E est un sous-espace vectoriel de E donc un sous-groupe additif de E. De plus, Le produit de deux matrices triangulaires supé-
rieures est une matrice triangulaire supérieure. Enfin, I2 ∈ E. E est un sous-anneau de ℳ2 (ℝ) donc un anneau.
0 1 1 1
Cet anneau n’est pas commutatif : considérer par exemple les matrices ( ) et ( ).
0 0 0 2
c. Le produit de deux matrices triangulaires supérieures est une matrice triangulaire supérieure dont les coefficients diagonaux sont
les produits des coefficients diagonaux des deux matrices : on en déduit que le produit de deux éléments G est un élément de
G. De plus, une matrice triangulaire supérieure dont les coefficients diagonaux sont non nuls est inversible et les coefficients
diagonaux de l’inverse sont les inverses des coefficients diagonaux : on en déduit que tout élément de G admet un inverse dans
G. Ainsi G est un sous-groupe de GL2 (ℝ) donc un groupe.
http://lgarcin.github.io 6
© Laurent Garcin MP Dumont d’Urville
0 𝑐
2. Considérons dans un premier temps le cas 𝑎 = 𝑏. Alors A = 𝑎I2 + C avec C = ( ). Comme 𝑎I2 et C commutent, la formule du
0 0
binôme de Newton donne : 𝑝
𝑝
A𝑝 = ∑ ( )𝑎𝑝−𝑘 C𝑘
𝑘=0
𝑘
𝑎𝑝 𝑝𝑎𝑝−1 𝑐
On a C𝑘 = 0 pour 𝑘 ≥ 2 donc pour 𝑝 ≥ 1, A𝑝 = ( ) et bien entendu, A0 = I2 .
0 𝑎𝑝
Considérons maintenant le cas 𝑎 ≠ 𝑏. Alors, à l’aide des résultats sur les matrices triangulaires supérieures énoncés plus haut, on peut
𝑎𝑝 𝑐𝑝
affirmer que A𝑝 = ( ) où 𝑐𝑝 est un réel. En considérant que M 𝑝+1 = M 𝑝 .M = M.M 𝑝 , on obtient 𝑐𝑝+1 = 𝑎𝑝 𝑐 + 𝑏𝑐𝑝 = 𝑎𝑐𝑝 + 𝑏𝑝 𝑐.
0 𝑏𝑝
𝑏𝑝 −𝑎𝑝
𝑏 𝑝 − 𝑎𝑝 𝑎𝑝 𝑐
On obtient donc 𝑐𝑝 = 𝑐 . Ainsi A𝑝 = ( 𝑏−𝑎 ) pour tout 𝑝 ∈ ℕ.
𝑏−𝑎 0 𝑏𝑝
3. D’après l’inégalité de Taylor-Lagrange, pour tout 𝑛 ∈ ℕ :
| 𝑛 𝑝| 𝑛+1
|𝑒𝑥 − ∑ 𝑥 | ≤ |𝑥| |𝑥|𝑛+1
| | sup 𝑒𝑡 = max(1, 𝑒𝑥 )
| 𝑝=0
𝑝! | (𝑛 + 1)! 𝑡∈[0,𝑥] (𝑛 + 1)!
𝑛
|𝑥|𝑛 𝑥𝑝
car exp est de classe 𝒞 ∞ sur ℝ. Or lim = 0 donc lim ∑ = 𝑒𝑥 .
𝑛→+∞ 𝑛! 𝑛→+∞ 𝑝!
𝑝=0
𝑛 𝑛−1 𝑛
𝑝𝑥𝑝−1 𝑥𝑝 𝑝𝑥𝑝−1
De plus, ∑ = ∑ . On en déduit qu’on a également lim ∑ = 𝑒𝑥 .
𝑝=1
𝑝! 𝑘=0
𝑝 𝑛→+∞
𝑝=1
𝑝!
𝑛
A𝑝
Considérons dans un premier temps le cas 𝑎 = 𝑏. En raisonnant coefficient par coefficient et en utilisant ce qui précède, lim ∑ =
𝑛→+∞
𝑝=0
𝑝!
𝑒𝑎 𝑒𝑎 𝑐
( ).
0 𝑒𝑎
𝑛 𝑒𝑏 −𝑒𝑎
A𝑝 𝑒𝑎 𝑐
Considérons maitenant le cas 𝑎 ≠ 𝑏. En raisonnant à nouveau coefficient par coefficient : lim ∑ =( 𝑏−𝑎 ).
𝑛→+∞
𝑝=0
𝑝! 0 𝑏
𝑒
𝑎 𝑐 𝑎 ′ 𝑐′
4. 𝑓(02 ) = I2 ≠ 02 donc 𝑓 n’est pas linéaire. Soient A = ( ) et A′ = ( ) des éléments de E tels que 𝑓(A) = 𝑓(A′ ). Comme
0 𝑏 0 𝑏′
la fonction exp est injective (sur ℝ), 𝑎 = 𝑎′ et 𝑏 = 𝑏′ . On en déduit ensuite 𝑐 = 𝑐′ . Par conséquent, A = A′ ce qui prouve l’injectivité
de 𝑓.
𝑓 n’est pas surjective, il suffit de considérer un élément de E dont l’un des éléments diagonaux est négatif, il ne peut admettre d’anté-
cédent par 𝑓.
𝑎′ 𝑐′
Il est clair que tout élément de E admet une image par 𝑓 dans G donc Im 𝑓 ⊂ G. Réciproquement soit B = ( ) ∈ G. Par
0 𝑏′
𝑎 𝑐
conséquent 𝑎′ > 0 et 𝑏′ > 0. Soit A = ( ) ∈ E.
0 𝑏
http://lgarcin.github.io 7
© Laurent Garcin MP Dumont d’Urville
Ainsi tout élément de G admet un antécédent par 𝑓 dans E, ce qui prouve que G ⊂ Im 𝑓. Finalement G = Im 𝑓.
Solution 15
Première méthode Le calcul de M 2 donne M 2 = M + 2I i.e. M 2 − M − 2I = 0. Soit R𝑛 le reste de la division euclidienne de X𝑛 par
P = X2 − X − 2 = (X + 1)(X − 2). R𝑛 est de degré 1 donc de la forme 𝑎𝑛 X + 𝑏𝑛 avec 𝑎𝑛 , 𝑏𝑛 ∈ ℝ. Comme −1 et 2 sont racines de P,
2𝑛 − (−1)𝑛 2𝑛 + 2.(−1)𝑛
on trouve −𝑎𝑛 + 𝑏𝑛 = (−1)𝑛 et 2𝑎𝑛 + 𝑏𝑛 = 2𝑛 . Il vient 𝑎𝑛 = et 𝑏𝑛 = . On a alors M 𝑛 = 𝑎𝑛 M + 𝑏𝑛 I.
3 3
Deuxième méthode En calculant les premières puissances de M, on est amené à faire l’hypothèse de récurrence suivante :
HR(𝑛) : M 𝑛 est de la forme 𝑎𝑛 I + 𝑏𝑛 M.
La récurrence est facile et nous donne de plus les relations de récurrence 𝑎𝑛+1 = 2𝑏𝑛 et 𝑏𝑛+1 = 𝑎𝑛 + 𝑏𝑛 pour tout 𝑛 ∈ ℕ. Un calcul
rapide nous montre que les suites (𝑎𝑛 ) et (𝑏𝑛 ) vérifient la relation de récurrence 𝑢𝑛+2 − 𝑢𝑛+1 + 2𝑏𝑛 = 0 pour tout 𝑛 ∈ ℕ. Le polynôme
caractéristique associé à cette relation de récurrence est P = X2 − X + 2 = (X + 1)(X − 2). Ainsi 𝑎𝑛 et 𝑏𝑛 sont de la forme λ(−1)𝑛 + μ2𝑛 .
2𝑛 − (−1)𝑛 2𝑛 + 2.(−1)𝑛
Comme 𝑎0 = 1 et 𝑏0 = 0, on trouve λ et μ dans les deux cas puis 𝑎𝑛 = et 𝑏𝑛 = .
3 3
Inverses
Solution 16
Raisonnons par l’absurde en supposant l’existence d’un vecteur colonne non nul
⎛ 𝑥1 ⎞
X = ⎜ ⋮ ⎟
⎜ ⎟
⎝ 𝑥𝑛 ⎠
tel que AX = 0. Soit 𝑖0 ⩽ 𝑛 tel que |𝑥𝑖0 | > 0 soit le maximum des |𝑥𝑖 |, 𝑖 ⩽ 𝑛. Puisque AX = 0 , on a en particulier
𝑛
−𝑎𝑖0,𝑖0 𝑥𝑖0 = ∑ 𝑎𝑖0,𝑗 𝑥𝑗 .
𝑗≠𝑖0
et , par définition de 𝑖0 ,
𝑛 𝑛
∑ |𝑎𝑖0,𝑗 ||𝑥𝑗 | ⩽ ( ∑ |𝑎𝑖0,𝑗 |)|𝑥𝑖0 |
𝑗≠𝑖0 𝑗≠𝑖0
d’où 𝑛
|𝑎𝑖0,𝑖0 ||𝑥𝑖0 | ⩽ ( ∑ |𝑎𝑖0,𝑗 |)|𝑥𝑖0 |
𝑗≠𝑖0
et puisque |𝑥𝑖0 | ≠ 0 ,
𝑛
|𝑎𝑖0,𝑖0 | ⩽ ∑ |𝑎𝑖0,𝑗 |
𝑗≠𝑖0
http://lgarcin.github.io 8
© Laurent Garcin MP Dumont d’Urville
§ Si 𝑗 < 𝑖, on a (M)𝑖,𝑘 = 0 pour tout 𝑘 < 𝑖 et (N)𝑘,𝑗 = 0 pour tout 𝑘 > 𝑗. Ainsi, pour tout 𝑘, (M)𝑖,𝑘 (N)𝑘,𝑗 = 0. la matrice MN est
donc triangulaire suppérieure.
§ Si 𝑖 = 𝑗, on peut reprendre les mêmes arguments : (M)𝑖,𝑘 = 0 pour tout 𝑘 < 𝑖 et (N)𝑘,𝑖 = 0 pour tout 𝑘 > 𝑖. Ainsi, pour tout
𝑘 ≠ 𝑖, (M)𝑖,𝑘 (N)𝑘,𝑗 = 0. De plus, (M)𝑖,𝑖 (N)𝑖,𝑖 = 1 × 1 = 1. On a donc MN ∈ 𝔘𝑛 .
𝑥1 𝑦1
• 𝔘𝑛 est stable par passage à l’inverse. Soit M = (𝑚𝑖,𝑗 )1⩽𝑖,𝑗⩽𝑛 dans 𝔘𝑛 . Soient X = ( 𝑥… ) et Y = ( 𝑦… ) deux vecteurs colonnes de taille
𝑛 𝑛
𝑛 tels que MX = Y. Cette égalité équivaut au système suivant,
𝑛
∀1 ⩽ 𝑖 ⩽ 𝑛 − 1 , 𝑥𝑖 + ∑ 𝑚𝑖,𝑗 𝑥𝑗 = 𝑦𝑖 et 𝑥𝑛 = 𝑦𝑛 .
𝑗=𝑖+1
Ainsi, 𝑥𝑛 = 𝑦𝑛 , puis
𝑥𝑛−1 = 𝑦𝑛−1 − 𝑚𝑛−1,𝑛 𝑥𝑛 = 𝑦𝑛−1 − 𝑚𝑛−1,𝑛 𝑦𝑛 .
Par une récurrence finie, on prouve alors sans peine que 𝑥𝑛−𝑘 peut s’écrire sous la forme
𝑛
𝑥𝑛−𝑘 = 𝑦𝑛−𝑘 + ∑ 𝑛𝑛−𝑘,𝑗 𝑦𝑗 ,
𝑗=𝑛−𝑘+1
avec les 𝑛𝑘,ℓ dans ℝ. On a donc prouvé que Y = MX équivaut à X = NY avec N = (𝑛𝑖,𝑗 )1⩽𝑖,𝑗⩽𝑛 matrice triangulaire supérieure avec
des 1 sur la diagonale : M est inversible et son inverse N appartient à 𝔘𝑛 .
• 𝔘𝑛 est donc un sous-groupe de T𝑛+ .
Solution 18
A
On pivote en colonnes sur la matrice ( ) de manière à ramener la partie supérieure à 𝕀 4 . La partie inférieure sera alors A−1 .
𝕀4
⎛ 0 −1 1 1 ⎞
⎜ ⎟
−9 2 1 2
⎜ ⎟
⎜ 1 −1 1 0 ⎟
⎜ ⎟
−3 0 1 1
⎜ ⎟
⎜ ⎟
⎜ 1 0 0 0 ⎟
⎜ ⎟
⎜ 0 1 0 0 ⎟
⎜ 0 0 1 0 ⎟
⎜ ⎟
⎝ 0 0 0 1 ⎠
⎛ 1 −1 0 1 ⎞
⎜ ⎟
1 2 −9 2
⎜ ⎟
⎜ 1 −1 1 0 ⎟
⎜ ⎟
1 0 −3 1
⎜ ⎟
⎜ ⎟ C1 ↔ C 3
⎜ 0 0 1 0 ⎟
⎜ ⎟
⎜ 0 1 0 0 ⎟
⎜ 1 0 0 0 ⎟
⎜ ⎟
⎝ 0 0 0 1 ⎠
http://lgarcin.github.io 9
© Laurent Garcin MP Dumont d’Urville
⎛ 1 0 0 0 ⎞
⎜ ⎟
1 3 −9 1
⎜ ⎟
⎜ 1 0 1 −1 ⎟
⎜ ⎟
1 1 −3 0
⎜ ⎟ C2 ← C2 + C1
⎜ ⎟ C4 ← C4 − C1
⎜ 0 0 1 0 ⎟
⎜ ⎟
⎜ 0 1 0 0 ⎟
⎜ 1 1 0 −1 ⎟
⎜ ⎟
⎝ 0 0 0 1 ⎠
⎛ 1 0 0 0 ⎞
⎜ ⎟
1 1 −9 3
⎜ ⎟
⎜ 1 −1 1 0 ⎟
⎜ ⎟
1 0 −3 1
⎜ ⎟
⎜ ⎟ C2 ↔ C 4
⎜ 0 0 1 0 ⎟
⎜ ⎟
⎜ 0 0 0 1 ⎟
⎜ 1 −1 0 1 ⎟
⎜ ⎟
⎝ 0 1 0 0 ⎠
⎛ 1 0 0 0 ⎞
⎜ ⎟
1 1 0 0
⎜ ⎟
⎜ 1 −1 −8 3 ⎟
⎜ ⎟
1 0 −3 1
⎜ ⎟ C3 ← C3 + 9C2
⎜ ⎟ C4 ← C4 − 3C2
⎜ 0 0 1 0 ⎟
⎜ ⎟
⎜ 0 0 0 1 ⎟
⎜ 1 −1 −9 4 ⎟
⎜ ⎟
⎝ 0 1 9 −3 ⎠
⎛ 1 0 0 0 ⎞
⎜ ⎟
1 1 0 0
⎜ ⎟
⎜ 1 −1 1 3 ⎟
⎜ ⎟
1 0 0 1
⎜ ⎟
⎜ ⎟C3 ← C3 + 3C4
⎜ 0 0 1 0 ⎟
⎜ ⎟
⎜ 0 0 3 1 ⎟
⎜ 1 −1 3 4 ⎟
⎜ ⎟
⎝ 0 1 0 −3 ⎠
http://lgarcin.github.io 10
© Laurent Garcin MP Dumont d’Urville
⎛ 1 0 0 0 ⎞
⎜ ⎟
1 1 0 0
⎜ ⎟
⎜ 1 −1 1 0 ⎟
⎜ ⎟
1 0 0 1
⎜ ⎟
⎜ ⎟C4 ← C4 − 3C3
⎜ 0 0 1 −3 ⎟
⎜ ⎟
⎜ 0 0 3 −8 ⎟
⎜ 1 −1 3 −5 ⎟
⎜ ⎟
⎝ 0 1 0 −3 ⎠
⎛ 1 0 0 0 ⎞
⎜ ⎟
1 1 0 0
⎜ ⎟
⎜ 1 0 1 0 ⎟
⎜ ⎟
1 0 0 1
⎜ ⎟
⎜ ⎟ C2 ← C 2 + C 3
⎜ 0 1 1 −3 ⎟
⎜ ⎟
⎜ 0 3 3 −8 ⎟
⎜ 1 2 3 −5 ⎟
⎜ ⎟
⎝ 0 1 0 −3 ⎠
⎛ 1 0 0 0 ⎞
⎜ ⎟
0 1 0 0
⎜ ⎟
⎜ 0 0 1 0 ⎟
⎜ ⎟
0 0 0 1
⎜ ⎟
⎜ ⎟ C1 ← C 1 − C 2 − C 3 − C 4
⎜ 1 1 1 −3 ⎟
⎜ ⎟
⎜ 2 3 3 −8 ⎟
⎜ 1 2 3 −5 ⎟
⎜ ⎟
⎝ 2 1 0 −3 ⎠
⎛ 1 1 1 −3 ⎞
⎜ ⎟
Ainsi A−1 = ⎜ 2 3 3 −8 ⎟.
⎜ 1 2 3 −5 ⎟
⎜ ⎟
⎝ 2 1 0 −3 ⎠
Solution 19
1. Comme A⊤𝑛 = −A𝑛 , det(A𝑛 ) = (−1)𝑛 det(A𝑛 ). Comme 𝑛 est impair, det(A𝑛 ) = 0 et A𝑛 n’est pas inversible.
2. On procède par pivot de Gauss : on effectue les mêmes opérations sur les lignes de A𝑛 et I𝑛 . Commençons par effectuer les opérations
http://lgarcin.github.io 11
© Laurent Garcin MP Dumont d’Urville
⎛ 1 1 0 … 0⎞
⎜ 0 ⋱ ⋱ ⋱ ⋮⎟
⎜ ⎟
⎜ ⋮ ⋱ ⋱ ⋱ 0⎟
⎜ 0 … 0 1 1⎟
⎜ ⎟
⎝ −1 … … −1 0 ⎠
• Si 𝑛 est impair, on effectue l’opération L𝑛 ← L1 + L3 + ⋯ + L𝑛−2 et A𝑛 est alors transformée en une matrice dont la dernière
ligne est nulle. A𝑛 n’est donc pas inversible.
• Si 𝑛 est pair, on effectue l’opération L𝑛 ← L1 + L3 + ⋯ + L𝑛−1 . Ainsi A𝑛 est transformée en :
⎛1 1 0 … 0⎞
⎜0 ⋱ ⋱ ⋱ ⋮⎟
⎜ ⎟
⎜⋮ ⋱ ⋱ ⋱ 0⎟
⎜0 … 0 1 1⎟
⎜ ⎟
⎝0 … … 0 1⎠
⎛ 0 −1 1 −1 … −1 ⎞
⎜ 1 0 −1 1 ⋱ ⋮ ⎟
⎜ −1 1 0 ⋱ ⋱ −1 ⎟
⎜ ⎟
⎜ 1 −1 ⋱ ⋱ ⋱ 1 ⎟
⎜ ⋮ ⋱ ⋱ ⋱ ⋱ −1 ⎟
⎜ ⎟
⎝ 1 … 1 −1 1 0 ⎠
Solution 20
⎛1 1 1 … 1⎞
⎜1 2 2 … 2⎟
⎜ ⎟
On a A = ⎜ 1 2 3 … 3 ⎟. On va effectuer les mêmes opérations sur les lignes de A𝑛 et I𝑛 .
⎜⋮ ⋮ ⋮ ⋱ ⋮⎟
⎜ ⎟
⎝1 2 3 … 𝑛⎠
http://lgarcin.github.io 12
© Laurent Garcin MP Dumont d’Urville
On effectue d’abord les opérations L𝑖 ← L𝑖 − L𝑖−1 pour 𝑖 variant de 𝑛 à 2. A𝑛 est alors transformée en la matrice triangulaire supérieure
où tous les coefficients de la partie triangulaire supérieure sont égaux à 1 et I𝑛 est tranformée en la matrice avec une diagonale de 1, une
sous-diagonale de −1 et des 0 ailleurs.
On effectue ensuite les opérations L𝑖 ← L𝑖 − L𝑖+1 pour 𝑖 variant de 1 à 𝑛 − 1. A est transformée en I𝑛 et I𝑛 est transformée en la matrice
B𝑛 formée d’une diagonale de 2, d’une sous-diagonale et d’une sur-diagonale de −1 et de zéros partout ailleurs. Ceci prouve que A𝑛 est
inversible d’inverse B𝑛 .
Solution 21
−𝑥1 + 𝑥2 = 0 et − 2𝑥3 = 0,
ie X est de la forme
⎛ 𝑥1 ⎞
X = ⎜ 𝑥1 ⎟ , avec 𝑥1 ∈ ℝ.
⎜ ⎟
⎝ 0 ⎠
On a donc
1
Ker(A1 ) = vect [( 1 )] = vect(𝑒2 + 𝑒3 ).
0
http://lgarcin.github.io 13
© Laurent Garcin MP Dumont d’Urville
3. La dernière ligne de A3 étant la différence des deux premières, les lignes de la matrice forment une famille liée de ℝ3 et A3 n’est donc
pas inversible. Un vecteur colonne X appartient à Ker(A3 ) si et seulement si
−𝑥1 + 𝑥2 = 0 et 2𝑥3 = 0,
ie X est de la forme
⎛ 𝑥1 ⎞
X = ⎜ 𝑥1 ⎟ , avec 𝑥1 ∈ ℝ.
⎜ ⎟
⎝ 0 ⎠
On a donc
1
Ker(A3 ) = vect [( 1 )] = vect(𝑒2 + 𝑒3 ).
0
1 0
Im(A3 ) = vect [( 0 ), ( −1 )] = vect(𝑒1 + 𝑒3 , −𝑒2 + 𝑒3 ),
1 1
et rg(A3 ) = 2.
4. La deuxième ligne de A4 étant nulle, A4 n’est pas inversible. Un vecteur colonne X appartient à Ker(A4 ) si et seulement si 2𝑥1 −𝑥3 = 0,
ie X est de la forme
⎛ 𝑥1 ⎞
X = ⎜ 𝑥2 ⎟ , avec 𝑥1 , 𝑥2 ∈ ℝ.
⎜ ⎟
⎝ 2𝑥1 ⎠
On a donc
1 0
Ker(A4 ) = vect [( 0 ), ( 1 )] = vect(𝑒1 + 2𝑒3 , 𝑒2 ).
2 0
−1
Im(A4 ) = vect [( 0 )] = vect(𝑒3 − 𝑒1 ),
1
et rg(A4 ) = 1.
5. La dernière ligne de A5 étant égale à la première, les lignes de la matrice forment une famille liée de ℝ3 et A5 n’est donc pas inversible.
Un vecteur colonne X appartient à Ker(A5 ) si et seulement si
−𝑥1 = 0 et − 𝑥1 + 𝑥2 + 𝑥3 = 0,
ie X est de la forme
⎛ 0 ⎞
X = ⎜ 𝑥2 ⎟ , avec 𝑥2 ∈ ℝ.
⎜ ⎟
⎝ − 𝑥2 ⎠
http://lgarcin.github.io 14
© Laurent Garcin MP Dumont d’Urville
On a donc
0
Ker(A5 ) = vect [( 1 )] = vect(𝑒2 − 𝑒3 ).
−1
Puisque les deux dernières colonnes de A5 sont égales mais non colinéaires à la première, on a
1 0
Im(A5 ) = vect [( 1 ), ( 1 )] = vect(𝑒1 + 𝑒2 + 𝑒3 , 𝑒2 ),
1 0
et rg(A5 ) = 2.
6. Les première et troisième lignes de A6 étant nulles, A6 n’est donc pas inversible. Un vecteur colonne X appartient à Ker(A6 ) si et
seulement si 𝑥1 − 𝑥2 − 𝑥3 = 0, ie X est de la forme
⎛ 𝑥1 ⎞
X=⎜ 𝑥2 ⎟ , avec 𝑥1 , 𝑥2 ∈ ℝ.
⎜ ⎟
⎝ 𝑥1 − 𝑥2 ⎠
On a donc
1 0
Ker(A6 ) = vect [( 0 ), ( 1 )] = vect(𝑒1 + 𝑒3 , 𝑒2 − 𝑒3 ).
1 −1
et rg(A6 ) = 1.
7. La deuxième ligne de A7 étant nulle, A7 n’est pas inversible. Un vecteur colonne X appartient à Ker(A7 ) si et seulement si −𝑥2 = 0 et
−2𝑥1 = 0, ie X est de la forme
⎛ 0 ⎞
X = ⎜ 0 ⎟ , avec 𝑥3 ∈ ℝ.
⎜ ⎟
⎝ 𝑥3 ⎠
On a donc
0
Ker(A7 ) = vect [( 0 )] = vect(𝑒3 ).
1
et rg(A7 ) = 2.
http://lgarcin.github.io 15
© Laurent Garcin MP Dumont d’Urville
1. Il est clair que le carré de la matrice vaut l’identité : elle est donc inversible et égale à son propre inverse.
1. On a clairement
(𝕀 𝑛 − A)(𝕀 𝑛 + A) = (𝕀 𝑛 + A)(𝕀 𝑛 − A),
d’où après multiplication à droite et à gauche par l’inverse de 𝕀 𝑛 + A ,
(𝕀 𝑛 + A)−1 (𝕀 𝑛 − A) = (𝕀 𝑛 − A)(𝕀 𝑛 − A)−1 .
http://lgarcin.github.io 16
© Laurent Garcin MP Dumont d’Urville
Solution 24
⎛ 1 −1 0 … 0 ⎞
⎜ 0 1 ⋱ ⋱ ⋮ ⎟
⎜ ⎟
A−1 =⎜ ⋮ ⋱ ⋱ ⋱ 0 ⎟.
⎜ ⋮ ⋱ ⋱ −1 ⎟
⎜ ⎟
⎝ 0 … … 0 1 ⎠
A = I𝑛 + J + … + J𝑛−1 .
c. Posons
P(X) = 1 + X + … + X𝑛 .
On a A = P′ (J). On remarque que
(1 − X)P(X) = 1 − X𝑛+1 .
Ainsi , en subsituant J à X dans cette égalité polynomiale,
(I𝑛 − J)P(J) = I𝑛
⎛ 1 −1 0 … 0 ⎞
⎜ 0 1 ⋱ ⋱ ⋮ ⎟
⎜ ⎟
I𝑛 − J = ⎜ ⋮ ⋱ ⋱ ⋱ 0 ⎟.
⎜ ⋮ ⋱ ⋱ −1 ⎟
⎜ ⎟
⎝ 0 … … 0 1 ⎠
Solution 25
1. En avant :
1 3 4 1 0 0
[2 −1 5 0 1 0]
4 −2 −1 0 0 1
On obtient par L2 ← L2 − 2L1 et L3 ← L3 − 4L1 :
1 3 4 1 0 0
[0 −7 −3 −2 1 0]
0 −14 −17 −4 0 1
http://lgarcin.github.io 17
© Laurent Garcin MP Dumont d’Urville
puis L3 ← L3 − 2L2 :
1 3 4 1 0 0
[0 −7 −3 −2 1 0]
0 0 −11 0 −2 1
par L2 ← L2 / − 7 et L3 ← −L3 /11 :
1 3 4 1 0 0
[0 1 3/7 2/7 −1/7 0 ]
0 0 1 0 2/11 −1/11
Effectuons alors L2 ← L2 − (3/7)L3 et L1 ← L1 − 4L3 :
1 3 0 1 −8/11 4/11
[0 1 0 2/7 −17/77 3/77 ]
0 0 1 0 2/11 −1/11
2. Let’s pivot !
2 −1 10 1 0 0
[ 1 −1 6 0 1 0]
−1 −4 5 0 0 1
On obtient en échangeant L1 et L2 :
1 −1 6 0 1 0
[ 2 −1 10 1 0 0]
−1 −4 5 0 0 1
par L2 ← L2 − 2L1 et L3 ← L3 + L1 :
1 −1 6 0 1 0
[0 1 −2 1 −2 0]
0 −5 11 0 1 1
puis L3 ← L3 + 5L2 :
1 −1 6 0 1 0
[0 1 −2 1 −2 0]
0 0 1 5 −9 1
puis L2 ← L2 + 2L3 et L1 ← L1 − 6L3 :
1 −1 0 −30 55 −6
[0 1 0 11 −20 2]
0 0 1 5 −9 1
et finalement, par L1 ← L1 + L2 :
1 0 0 −19 35 −4
[0 1 0 11 −20 2 ] .
0 0 1 5 −9 1
Ainsi la matrice est inversible d’inverse
⎛ −19 35 −4 ⎞
⎜ 11 −20 2 ⎟ .
⎜ ⎟
⎝ 5 −9 1 ⎠
http://lgarcin.github.io 18
© Laurent Garcin MP Dumont d’Urville
3. Kein problem…
2 −2 1 1 0 0
[ 2 −3 2 0 1 0]
−1 2 0 0 0 1
Permutons les lignes L1 et L3 et multiplions la nouvelle première ligne par −1 :
1 −2 0 0 0 −1
[2 −3 2 0 1 0]
2 −2 1 1 0 0
Effectuons L2 ← L2 − 2L1 et L3 ← L3 − 2L1 :
1 −2 0 0 0 −1
[0 1 2 0 1 2]
0 2 1 1 0 2
et par L3 ← −(L3 − 2L1 )/3 :
1 −2 0 0 0 −1
[0 1 2 0 1 2 ]
0 0 1 −1/3 2/3 2/3
et par L2 ← L2 − 2L3 :
1 −2 0 0 0 −1
[0 1 0 2/3 −1/3 2/3]
0 0 1 −1/3 2/3 2/3
et finalement L1 ← L1 + 2L2 :
1 0 0 4/3 −2/3 1/3
[0 1 0 2/3 −1/3 2/3]
0 0 1 −1/3 2/3 2/3
ainsi la matrice est inversible et son inverse vaut :
⎛ 4/3 −2/3 1/3 ⎞
⎜ 2/3 −1/3 2/3 ⎟ .
⎜ ⎟
⎝ −1/3 2/3 2/3 ⎠
4. Pivotons.
1 2 3 4 1 0 0 0
⎡ ⎤
⎢2 3 1 3 0 1 0 0⎥
⎢1 1 1 −1 0 0 1 0⎥
⎢ ⎥
⎣1 0 −2 5 0 0 0 1⎦
Effectuons les opérations L2 ← L2 − 2L1 , L3 ← −L3 + L1, L4 ← L4 − L1 :
1 2 3 4 1 0 0 0
⎡ ⎤
⎢0 1 5 5 2 −1 0 0⎥
⎢0 −1 −2 −5 −1 0 1 0⎥
⎢ ⎥
⎣0 −2 −5 1 −1 0 0 1⎦
puis L3 ← (L3 + L2 )/3 et L4 ← L4 + 2L2 :
1 2 3 4 1 0 0 0
⎡ ⎤
⎢0 1 5 5 2 −1 0 0⎥
⎢0 0 1 0 1/3 −1/3 1/3 0⎥
⎢ ⎥
⎣0 0 5 11 3 −2 0 1⎦
et par L4 ← (L4 − 5L3 )/11 :
1 2 3 4 1 0 0 0
⎡ ⎤
⎢0 1 5 5 2 −1 0 0 ⎥
⎢0 0 1 0 1/3 −1/3 1/3 0 ⎥
⎢ ⎥
⎣0 0 0 1 4/33 −1/33 −5/33 1/11⎦
http://lgarcin.github.io 19
© Laurent Garcin MP Dumont d’Urville
et L2 ← L2 − 5L3 et L1 ← L1 − 3L3 :
et finalement L1 ← L1 − 2L2 :
1 0 0 0 2/33 −17/33 47/33 6/11
⎡ ⎤
⎢0 1 0 0 −3/11 9/11 −10/11 −5/11⎥
⎢0 0 1 0 1/3 −1/3 1/3 0 ⎥
⎢ ⎥
⎣0 0 0 1 4/33 −1/33 −5/33 1/11 ⎦
donc la matrice est inversible d’inverse :
⎛ 2/33 −17/33 47/33 6/11 ⎞
⎜ −3/11 9/11 −10/11 −5/11 ⎟
⎜ 1/3 .
−1/3 1/3 0 ⎟
⎜ ⎟
⎝ 4/33 −1/33 −5/33 1/11 ⎠
Solution 26
1. Un calcul donne A3 − A = 4𝕀 3 .
2. On a
1
A × (A2 − 𝕀 3 ) = 𝕀 3 ,
4
ainsi A est inversible et
2 −4 2 ⎞
−1 1 2 1⎛
A = (A − 𝕀 3 ) = ⎜ 1 −2 −1 ⎟ .
4 4⎜ ⎟
⎝ 1 2 −1 ⎠
Image et noyau
Solution 27
1.
⎛1 0 0⎞
M=⎜0 1 0⎟
⎜ ⎟
⎝0 0 0⎠
On a clairement
Im(𝑓) = vect((1, 0, 0), (0, 1, 0)) et Ker(𝑓) = vect((0, 0, 1))
2.
⎛ 1 −1 ⎞
M=⎜1 1 ⎟
⎜ ⎟
⎝1 2 ⎠
http://lgarcin.github.io 20
© Laurent Garcin MP Dumont d’Urville
On a clairement
Im(𝑓) = vect((1, 1, 1), (−1, 1, 2)) et Ker(𝑓) = {0}
3.
M = ( 1 −3 2 )
On a clairement
Im(𝑓) = ℝ et Ker(𝑓) = vect((3, 1, 0), (2, 0, −1))
4.
⎛0 1 0 0⎞
⎜0 0 2 0⎟
M=⎜
0 0 0 3⎟
⎜ ⎟
⎝0 0 0 0⎠
On a clairement
Im(𝑓) = vect(1, 2X, 3X2 ) = ℝ2 [X] et Ker(𝑓) = vect(1) = ℝ0 [X]
Solution 28
• De même,
Im(𝑓) = vect(2𝑒1 − 𝑒2 − 𝑒3 , −𝑒1 + 2𝑒2 − 𝑒3 ).
Solution 29
http://lgarcin.github.io 21
© Laurent Garcin MP Dumont d’Urville
Pour trouver des bases de l’image et du noyau, on pivote en colonnes sur la matrice suivante :
⎛ −11 7 0 3 ⎞
⎜ ⎟
0 1 11 2
⎜ ⎟
⎜ 1 0 7 1 ⎟
⎜ ⎟
⎜ ⎟
⎜ 1 0 0 0 ⎟
⎜ 0 1 0 0 ⎟
⎜ ⎟
0 0 1 0
⎜ ⎟
⎝ 0 0 0 1 ⎠
⎛ −11 0 0 0 ⎞
⎜ ⎟
0 11 11 22
⎜ ⎟
⎜ 1 7 7 14 ⎟
⎜ ⎟ C2 ← 11C2 + 7C1
⎜ ⎟ C ← 11C4 + 3C1
⎜ 1 7 0 3 ⎟ 4
⎜ 0 11 0 0 ⎟
⎜ ⎟
0 0 1 0
⎜ ⎟
⎝ 0 0 0 11 ⎠
⎛ −11 0 0 ⎞
0
⎜ ⎟
0 11 0 0
⎜ ⎟
⎜ 1 7 0 0 ⎟
⎜ ⎟ C3 ← C3 − C2
⎜ ⎟ C ← C4 − 2C2
⎜ 1 7 −7 −11 ⎟ 4
⎜ 0 11 −11 −22 ⎟
⎜ ⎟
0 0 1 0
⎜ ⎟
⎝ 0 0 0 11 ⎠
⎛ −11 0 0 0 ⎞
⎜ ⎟
0 11 0 0
⎜ ⎟
⎜ 1 7 0 0 ⎟
⎜ ⎟ C4
⎜ ⎟C4 ← 11
⎜ 1 7 −7 −1 ⎟
⎜ 0 11 −11 −2 ⎟
⎜ ⎟
0 0 1 0
⎜ ⎟
⎝ 0 0 0 1 ⎠
⎛⎛ −7 ⎞ ⎛ −1 ⎞⎞
⎜⎜ −11 ⎟ ⎜ −2 ⎟⎟ ⎛⎛ −11 ⎞ ⎛ 0 ⎞⎞
Par conséquent, ⎜⎜ , est une base de Ker A et ⎜⎜ 0 ⎟ , ⎜ 11 ⎟⎟ est une base de Im A.
1 ⎟ ⎜ 0 ⎟⎟ ⎜⎜ ⎟ ⎜ ⎟⎟
⎜⎜ ⎟ ⎜ ⎟⎟ ⎝⎝ 1 ⎠ ⎝ 7 ⎠⎠
⎝⎝ 0 ⎠ ⎝ 1 ⎠⎠
http://lgarcin.github.io 22
© Laurent Garcin MP Dumont d’Urville
Pour trouver des systèmes d’équations cartésiennes de l’image et du noyau, on pivote en lignes sur la matrice suivante :
⎛ −11 7 0 3 1 0 0 ⎞
⎜ ⎟
0 1 11 2 0 1 0
⎜ ⎟
⎝ 1 0 7 1 0 0 1 ⎠
⎛ −11 7 0 3 1 0 0 ⎞
⎜ ⎟L3 ← 11L3 + L1
0 1 11 2 0 1 0
⎜ ⎟
⎝ 0 7 77 14 1 0 11 ⎠
⎛ −11 7 0 3 1 0 0 ⎞
⎜ ⎟L3 ← L3 − 7L2
0 1 11 2 0 1 0
⎜ ⎟
⎝ 0 0 0 0 1 −7 11 ⎠
−11𝑥 + 7𝑦 + 3𝑡 = 0
{
𝑦 + 11𝑧 + 2𝑡 = 0
Notons E1 , E2 , E3 , E4 la base canonique de ℳ4,1 (𝕂) et C1 , C2 , C3 , C4 les colonnes de A. On a donc AE𝑖 = C𝑖 pour tout 𝑖 ∈ J1, 4K. On
remarque que C3 = 0 et que C4 = −2C1 . Enfin, C2 et C1 ne sont pas proportionnelles donc (C1 , C2 ) est une base de Im A.
Comme C3 = 0, on a E3 ∈ Ker A. Comme 2C1 + C4 = 0, 2E1 + E4 ∈ Ker A. Ainsi vect(E3 , 2E1 + E4 ) ⊂ Ker A. D’après le théorème du
rang matriciel, dim Ker A = 2. Donc Ker A = vect(E3 , 2E1 + E4 ) et (E3 , 2E1 + E4 ) est une base de Ker A.
Rang
Solution 31
⎛ 2 1 1 3 ⎞
⎜ 1 0 −1 0 ⎟
⎜ 𝑎 2 1 1 ⎟
⎜ ⎟
⎝ 4 3 2 4 ⎠
Effectuons la permutation L1 ⟺ L2 ,
⎛ 1 0 −1 0 ⎞
⎜ 2 1 1 3 ⎟
⎜ 𝑎 2 1 1 ⎟
⎜ ⎟
⎝ 4 3 2 4 ⎠
puis L2 ⟺ L2 − 2L1 , L3 ⟺ L3 − 𝑎L1 et L4 ⟺ L4 − 4L1 ,
⎛ 1 0 −1
0 ⎞
⎜ 0 1 3 3 ⎟
⎜ 0 2 1+𝑎 1 ⎟
⎜ ⎟
⎝ 0 3 6 4 ⎠
http://lgarcin.github.io 23
© Laurent Garcin MP Dumont d’Urville
et L3 ⟺ L3 − 2L2 , L4 ⟺ L4 − 3L2
⎛ 1 0 −1 ⎞0
⎜ 0 1 3 ⎟3
⎜ .
0 0 −5 + 𝑎 −5 ⎟
⎜ ⎟
⎝ 0 0 −3 −5 ⎠
Il est clair que les deux dernières lignes de cette matrices sont liées si et seulement si
| −5 + 𝑎 −5 |
| | = −5𝑎 + 10 = 0,
| |
| −3 −5 |
ie 𝑎 = 2.
• Cas 1 : 𝑎 ≠ 2. Le rang vaut 4.
• Cas 2 : 𝑎 = 2. Le rang vaut 3.
Solution 32
1. Comme dim(Im(M)) = 1, il existe un vecteur colonne non nul U tel que Im(M) = vect(U). Pour tout 1 ⩽ 𝑗 ⩽ 𝑛, il existe 𝑣𝑗 ∈ ℝ tel
que la 𝑗-ième colonne de M soit égale à 𝑣𝑗 U. En notant V le vecteur colonne de composantes 𝑣1 , … , 𝑣𝑛 , on a bien M = UV⊤ .
2. Pour tout 𝑛 ⩾ 2, par associativité du produit matriciel :
M 𝑛 = U(V⊤ U)𝑛−1 V⊤ .
∀𝑛 ⩾ 2, M 𝑛 = (tr(M))𝑛−1 M.
3. D’après le calcul précédent, une matrice M de rang 1 est une matrice de projection si et seulement si tr(M) = 1.
4. D’après ce qui précède, une matrice M de rang 1 est nilpotente si et seulement si tr(M) = 0.
Solution 33
1. Supposons qu’il existe A ∈ GL𝑛 (ℝ) telle que 𝑓(A) = 0. Alors pour tout M ∈ ℳ𝑛 (ℝ), 𝑓(M) = 𝑓(MA−1 A) = 𝑓(MA−1 )𝑓(A) = 0, ce
qui contredit le fait que 𝑓 est non constamment nulle.
2. a. Soit A𝑖 diagonale, dont les 𝑟+1 premiers éléments diagonaux valent 1, à l’exception du 𝑖ème nul, ainsi que tous les autres éléments
diagonaux (ceci a du sens car 𝑟 < 𝑛). Le rang de A𝑖 est clairement égal à 𝑟 qui est le rang de A : A𝑖 est donc équivalente à A ; par
𝑟+1
ailleurs, ∏𝑘=1 A𝑘 = 0.
b. 𝑓(0) = 𝑓(0 × 0) = 𝑓(0)2 donc 𝑓(0) = 0 ou 𝑓(0) = 1. On ne peut avoir 𝑓(0) = 1 sinon pour toute matrice M de ℳ𝑛 (ℝ),
𝑓(M) = 𝑓(M)𝑓(0) = 𝑓(M×0) = 𝑓(0) = 1, ce qui contredit le fait que 𝑓 n’est pas constamment égale à 1. Ainsi 𝑓(A1 )...𝑓(A𝑟+1 ) =
𝑓(0) = 0 ; l’un des 𝑓(A𝑖 ) est donc nul. Or il existe des matrices inversibles P et Q telles que A = PA𝑖 Q, ce qui donne 𝑓(A) = 0.
3. Ainsi, 𝑓 est nulle sur les matrices non inversibles, et par ailleurs induit un morphisme de groupe de GL𝑛 (ℝ) vers ℝ∗ . Exemple : le
déterminant (qu’on peut composer avec un morphisme de ℝ∗ dans lui-même, par exemple 𝑥 ↦ 𝑥𝑘 , 𝑘 ∈ ℤ∗ ...)
http://lgarcin.github.io 24
© Laurent Garcin MP Dumont d’Urville
Solution 35
On a U ∈ Ker(A − λI𝑛 ) donc dim Ker(A − λI𝑛 ) ≥ 1. Ainsi rg(A − λI𝑛 ) < 𝑛. Donc rg(A − λI𝑛 )⊤ < 𝑛 i.e. rg(A⊤ − λI𝑛 ) < 𝑛. Par conséquent,
dim Ker(A⊤ − λI𝑛 ) ≥ 1. Ainsi il existe V ∈ ℳ𝑛,1 (𝕂) non nul tel que A⊤ V = λV.
Solution 36
I𝑟 0
Supposons rg(M) = 𝑟. Il existe donc des matrices P, Q ∈ GL𝑛 (𝕂) telles que M = PJ𝑟 Q avec J𝑟 = ( ). Notons X1 , … , X𝑛 les colonnes
0 0
de P et Y1 , … , Y𝑛 les colonnes de Q⊤ . On vérifie alors que M = X1 Y1⊤ + ⋯ + X𝑟 Y𝑟⊤ . Les colonnes de P et Q⊤ forment des familles libres
puisque ces matrices sont inversibles. A fortiori, les sous-familles (X1 , … , X𝑟 ) et (Y1 , … , Y𝑟 ) sont libres.
Réciproquement soient (X1 , … , X𝑟 ) et (Y1 , … , Y𝑟 ) deux familles libres de ℳ𝑛,1 (𝕂). On peut les compléter respectivement en des bases
(X1 , … , X𝑛 ) et (Y1 , … , Y𝑛 ) de ℳ𝑛,1 (𝕂). Notons P la matrice de GL𝑛 (𝕂) dont les colonnes sont X1 , … , X𝑛 et Q la matrice de GL𝑛 (𝕂) dont
les lignes sont Y1⊤ , … , Y𝑛⊤ . Puisque (X1 , … , X𝑛 ) et (Y1 , … , Y𝑛 ) sont des bases de ℳ𝑛,1 (𝕂), les matrices P et Q sont inversibles. On vérifie que
M = PJ𝑟 Q de sorte que M est de rang 𝑟.
Notons
𝕀𝑛 𝕆𝑛
P=( )
− 𝕀𝑛 𝕀𝑛
et
𝕀 𝑛 −𝕀 𝑛
Q=( ).
𝕆𝑛 𝕀𝑛
Un calcul par bloc élémentaire aboutit à
A 𝕆𝑛
N = PMQ = ( ).
𝕆𝑛 B
Les matrices P et Q étant triangulaires sans coefficients nuls sur la diagonales, elles sont inversibles et le rang de M est donc égal à celui de
N. Puisque les espaces vectoriels engendrés respectivement par les 𝑛 premières colonnes et les 𝑛 dernières colonnes de N sont en somme
directe (cf. les blocs de zéros sur la diagonale « montante» de N) et de dimensions respectives rg(A) et rg(B), le rang de N vaut le rang de A
plus celui de B.
Solution 38
A−1 C′
Supposons que A et B soient inversibles et posons N = ( ) avec C′ = −A−1 CB−1 . On vérifie alors que MN = I𝑛+𝑝 donc M est
0 B−1
inversible d’inverse N.
A′ C′
Supposons M inversible. Posons M −1 = ( ) avec A′ ∈ ℳ𝑛 (𝕂), B′ ∈ ℳ𝑝 (𝕂), C′ ∈ ℳ𝑛,𝑝 (𝕂) et D′ ∈ ℳ𝑝,𝑛 (𝕂). Puisque MM −1 =
D′ B′
AA′ + CD′ = I𝑛
⎧ ′
⎪ AC + CB′ = 0
I𝑛,𝑝 , on obtient . Puisque BB′ = I𝑝 , B est inversible. Mais alors la relation BD′ = 0 entraîne D = 0, qui elle-même entraîne
⎨ BD′ = 0
⎪
⎩ BB′ = I𝑝
AA = I𝑛 . A et B sont bien inversibles (et on obtient à nouveau le fait que M −1 est de la forme donnée dans l’énoncé).
′
Remarque. Bien évidemment, on peut généraliser le résultat par récurrence à des matrices triangulaires par blocs à plus de deux blocs
diagonaux.
Par transposition, le résultat est également valable pour des matrices triangulaires par blocs inférieures.
Solution 39
http://lgarcin.github.io 25
© Laurent Garcin MP Dumont d’Urville
A B
1. Soit M = ( ) ∈ 𝒢 avec A ∈ ℳ𝑟 (𝕂). Puisque ME = EM = M, un calcul par blocs donne B = 0, C = 0 et D = 0.
C D
A′ 0
Soit M ′ l’inverse de M dans 𝒢. D’après ce qui précède, M ′ est de la forme ( ) avec A′ ∈ ℳ𝑟 (𝕂). Or MM ′ = E donc AA′ = I𝑟 ,
0 0
ce qui prouve que A est inversible.
A 0
Il suffit alors de vérifier que l’application qui à M = ( ) ∈ 𝒢 associe A est un morphisme de groupes de 𝒢 dans GL𝑟 (𝕂). Ce
0 0
morphisme est clairement injectif donc 𝒢 est isomorphe à un sous-groupe de GL𝑟 (𝕂).
I𝑟 0
2. On sait que E 2 = E donc E est une matrice de projecteur. Elle est donc semblable à une matrice J𝑟 = ( ) avec 𝑟 ∈ J1, 𝑛K
0 0
(E ne peut être nulle sinon 𝒢 = {0}). Soit P ∈ GL𝑛 (𝕂) telle que E = P−1 J𝑟 P. L’application qui à M ∈ 𝒢 associe PMP−1 induit
un isomorphisme de groupes de 𝒢 sur un groupe 𝒢 ′ d’élément neutre J𝑟 . La question précédente montre que 𝒢 ′ est isomorphe à un
sous-groupe de GL𝑟 (𝕂) et donc 𝒢 également.
Solution 40
I𝑛 −A−1 C A 0
Supposons A inversible. Posons N = ( ). Alors MN = (
). Puisque N est inversible, rg M = rg MN. Or rg(MN) =
0 I𝑛 0 B
rg A+rg B, soit en considérant le sous-espace vectoriel engendré par les colonnes ou les lignes de MP, soit en introduisant (P1 , Q1 ) ∈ GL𝑛 (𝕂)2
J𝑛,𝑛,𝑟 0
et (P2 , Q2 ) ∈ GL𝑝 (𝕂)2 tels que P1 AQ1 = J𝑛,𝑛,𝑟 et P2 BQ2 = J𝑝,𝑝,𝑟 : alors P(MN)Q = ( ) où P et Q sont respectivement les
0 J𝑝,𝑝,𝑟
P1 0 Q1 0
matrices inversibles ( ) et ( ).
0 P2 0 Q2
Si A n’est plus supposée inversible, le résultat tombe. Il suffit par exemple de prendre A et B nulles et C non nulle.
Solution 41
On sait qu’il existe (P1 , Q1 , P2 , Q2 ) ∈ GL𝑛 (𝕂) × GL𝑝 (𝕂) × GL𝑞 (𝕂) × GL𝑟 (𝕂) tel que P1 AQ1 = J𝑛,𝑝,𝑠1 et P2 BQ2 = J𝑞,𝑟,𝑠2 où 𝑠1 = rg(A) et
P1 0𝑛,𝑞 Q1 0𝑝,𝑟 J𝑛,𝑝,𝑠1 0𝑛,𝑟
𝑠2 = rg(B). En posant P = ( ) et Q = ( ), on a PMQ = ( ). Il est clair que rg(PMQ) = 𝑠1 + 𝑠2 . On
0𝑞,𝑛 P2 0𝑟,𝑝 Q2 0𝑞,𝑝 J𝑞,𝑟,𝑠2
P1−1 0𝑛,𝑞 Q−1 0𝑝,𝑟
montre facilement que P et Q sont inversibles : il suffit de vérifier que ( ) et ( ) sont leurs inverses respectifs. Ainsi
1
0𝑞,𝑛 P2−1 0𝑟,𝑝 Q−1
2
rg(M) = rg(PMQ) = 𝑠1 + 𝑠2 = rg(A) + rg(B).
Changement de base
Solution 42
1. Les ensembles des solutions des équations AX = 0, AX = X et AX = 2X d’inconnue X ∈ ℳ3,1 (ℝ) sont respectivement
⎛⎛ 1 ⎞⎞ ⎛⎛ 0 ⎞⎞ ⎛⎛ 1 ⎞⎞
vect ⎜⎜ 1 ⎟⎟ vect ⎜⎜ 1 ⎟⎟ vect ⎜⎜ 0 ⎟⎟
⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟
⎝⎝ 1 ⎠⎠ ⎝⎝ −1 ⎠⎠ ⎝⎝ 1 ⎠⎠
En choisissant
ε1 = 𝑒1 + 𝑒2 + 𝑒3 ε2 = 𝑒2 − 𝑒3 ε3 = 𝑒1 + 𝑒3
on a alors
𝑓(ε1 ) = 0E 𝑓(ε2 ) = ε2 𝑓(ε3 ) = 2ε3
http://lgarcin.github.io 26
© Laurent Garcin MP Dumont d’Urville
⎛⎛ 1 ⎞ ⎛ 0 ⎞ ⎛ 1 ⎞⎞
Comme la famille ⎜⎜ 1 ⎟ , ⎜ 1 ⎟ , ⎜ 0 ⎟⎟ est clairement une base de ℳ3,1 (ℝ), 𝒞 est également une base de E. Dans cette base, la
⎜⎜ ⎟ ⎜ ⎟ ⎜ ⎟⎟
⎝⎝ 1 ⎠ ⎝ −1 ⎠ ⎝ 1 ⎠⎠
matrice de 𝑓 est D.
⎛1 0 1⎞
2. Il suffit de prendre pour P la matrice de passage de ℬ vers 𝒞, autrement dit P = ⎜ 1 1 0 ⎟.
⎜ ⎟
⎝ 1 −1 1 ⎠
𝑛+1
⎛ −1 1 1 ⎞ ⎛ 2 −2𝑛 −2𝑛 ⎞
3. On calcule P−1 = ⎜ 1 0 −1 ⎟. Pour tout 𝑛 ∈ ℕ∗ , A𝑛 = PD𝑛 P−1 = ⎜ 1 0 −1 ⎟.
⎜ ⎟ ⎜ ⎟
𝑛+1
⎝ 2 −1 −1 ⎠ ⎝2 − 1 −2 1 − 2𝑛
𝑛
⎠
⎛ 𝑥𝑛 ⎞
4. Il suffit de remarquer qu’en posant X𝑛 = ⎜ 𝑦𝑛 ⎟, on a X0 = ( 1 0 0 ) et pour tout 𝑛 ∈ ℕ, X𝑛+1 = AX𝑛 . Ainsi pour tout 𝑛 ∈ ℕ∗ ,
⎜ ⎟
⎝ 𝑧𝑛 ⎠
X𝑛 = A𝑛 X0 . On en déduit que pour tout 𝑛 ∈ ℕ∗ ,
𝑥𝑛 = 2𝑛+1 𝑦𝑛 = 1 𝑧𝑛 = 2𝑛+1 − 1
Solution 43
1. Les vecteurs 𝑢 et 𝑣 n’étant pas colinéaires, ℬ est libre. Comme dim(ℝ2 ) = 2, ℬ est une base de ℝ2 .
2. On a bien-sûr
1 1
mat(ℬ0 → ℬ) = ( ).
1 −1
Appliquons la méthode du pivot de Gauss pour inverser P…
1 1 1 0
[ ]
1 −1 0 1
Solution 44
1. On a bien-sûr
⎛ 2 −1 0 ⎞
M = ⎜ 0 1 −1 ⎟ .
⎜ ⎟
⎝ 2 0 −1 ⎠
http://lgarcin.github.io 27
© Laurent Garcin MP Dumont d’Urville
http://lgarcin.github.io 28
© Laurent Garcin MP Dumont d’Urville
Solution 45
⎛ 2𝑐 2𝑏 2𝑎 ⎞
2. 𝑓(1) = 2𝑐, 𝑓(X) = 2𝑏 + 6𝑐X, 𝑓(X2 ) = 2𝑎 + 6𝑏X + 12𝑐X2 . Ainsi M = ⎜ 0 6𝑐 6𝑏 ⎟.
⎜ ⎟
⎝ 0 0 12𝑐 ⎠
3. det M = 144𝑐3 . Ainsi M est inversible si et seulement si 𝑐 ≠ 0 i.e. deg A = 2.
⎛2 0 2 ⎞
4. On a alors 𝑎 = 1, 𝑏 = 0 et 𝑐 = 0. Ainsi M = ⎜ 0 6 0 ⎟. On sait que les coefficients diagonaux d’un produit de matrice triangulaire sont
⎜ ⎟
⎝ 0 0 12 ⎠
les produits des coefficients diagonaux. De plus, on voit sur quelques exemples que les coefficients de la surdiagonale de M sont nuls.
𝑛
⎛ 2 0 𝑎𝑛 ⎞
On est donc amené à formuler l’hypothèse de recurrence HR(𝑛) suivante : M 𝑛 = ⎜ 0 6𝑛 0 ⎟. HR(0) est évidemment vraie. On
⎜ ⎟
𝑛
⎝ 0 0 12 ⎠
suppose HR(𝑛) pour un certain 𝑛 ∈ ℕ. M 𝑛+1 = M 𝑛 .M. Comm M 𝑛 et M sont triangulaires supérieures, M 𝑛+1 est triangulaire supérieure
et les coefficients diagonaux de M 𝑛+1 sont 2𝑛+1 , 6𝑛+1 et 12𝑛+1 . On s’aperçoit également que les coefficients de la surdiagonale de M 𝑛+1
12𝑛 −2𝑛
sont nuls. M 𝑛+1 est bien de la forme annoncé et on obtient en plus, 𝑎𝑛+1 = 2𝑛+1 + 12𝑎𝑛 = 2𝑎𝑛 + 2.12𝑛 . Ainsi 𝑎𝑛 = . Donc
5
HR(𝑛) est vraie pour tout 𝑛 ∈ ℕ et on obtient en sus une expression de 𝑎𝑛 en fonction de 𝑛. Par conséquent,
𝑛 12𝑛 −2𝑛
⎛2 0 5 ⎞
M 𝑛 = ⎜ 0 6𝑛 0 ⎟
⎜ ⎟
⎝ 0 0 12𝑛 ⎠
http://lgarcin.github.io 29
© Laurent Garcin MP Dumont d’Urville
La formule devrait être vraie pour 𝑛 négatif. Prenons donc 𝑛 = −1 dans la formule précédente. On vérifie que la matrice ainsi obtenue
est bien l’inverse de M. Ainsi
1 1
⎛ 0 − ⎞
2 12
1
M −1 = ⎜ 0 0 ⎟
⎜ 6
1 ⎟
⎝0 0 12 ⎠
Solution 47
1. Les applications P ↦ P(X + 𝑎) pour 𝑎 ∈ ℝ sont linéaires. Donc 𝑓 est bien linéaire comme somme d’applications linéaires.
De plus, deg P(X + 𝑎) = deg P pour 𝑎 ∈ ℝ. Donc deg 𝑓(P) ≤ max(deg P(X + 1), deg P(X − 1), deg P) = deg(P).
Ainsi 𝑓 est un endomorphisme de ℝ3 [X].
2. Des calculs élémentaires donnent ;
⎛0 0 2 6⎞
⎜0 0 0 6⎟
La matrice de 𝑓 dans la base canonique est donc A = ⎜ . Il est alors clair que Ker 𝑓 = Im 𝑓 = vect(1, X).
0 0 0 0⎟
⎜ ⎟
⎝0 0 0 0⎠
3. Posons P3 = X2 , P4 = X3 , P1 = 𝑓(X2 ) = 2 et P2 = 𝑓(X3 ) = 6X + 6. La famille (P1 , P2 , P3 , P4 ) est une base de ℝ3 [X] car c’est une
famille de quatre polynômes à degrés échelonnés. P1 et P2 appartiennent au noyau de 𝑓. Il est alors clair que la matrice de 𝑓 dans la
base (P1 , P2 , P3 , P4 ) est de la forme voulue.
Solution 48
1. Il est clair que 𝑓 est bien à valeurs dans ℳ𝑛 (ℝ). 𝑓 est linéaire par linéarité de la trace et bilinéarité du produit matriciel. 𝑓 est donc un
endomorphisme de ℳ𝑛 (ℝ).
2. 𝑓 est une symétrie si et seulement si 𝑓2 = Idℳ𝑛(𝕂) . Or
Ainsi 𝑓 est une symétrie si et seulement si tr(AX)(2 + tr(AB))B = 0 pour tout X ∈ ℳ𝑛 (ℝ), c’est-à-dire si et seulement si l’une des
trois conditions suivantes est réalisée :
• B = 0;
• tr(AB) = −2 ;
• ∀X ∈ ℳ𝑛 (ℝ), tr(AX) = 0 ce qui équivaut à A = 0 (prendre pour X les éléments de la base canonique de ℳ𝑛 (ℝ).
3. Si A = 0 ou B = 0, alors 𝑓 = Idℳ𝑛(𝕂) donc la base de 𝑓 est ℳ𝑛 (ℝ) et sa direction est le sous-espace nul.
Supposons maintenant A ≠ 0 et B ≠ 0 ; on a donc tr(AB) = −2. La base de 𝑓 est Ker(𝑓 − Idℳ𝑛(𝕂) ). Or
La direction de 𝑓 est Ker(𝑓 + Idℳ𝑛(𝕂) ). Soit X ∈ Ker(𝑓 + Idℳ𝑛(𝕂) ). Alors 2X = tr(AX)B et donc X ∈ vect(B). Réciproquement soit
X ∈ vect(B). Il existe donc λ ∈ ℝ tel que X = λB. Alors 𝑓(X) = λB + λ tr(AB)B = −λB = −X car tr(AB) = −2. Donc 𝑓(X) = −X.
La base de 𝑓 est donc le noyau de la forme linéaire X ↦ tr(AX) non nulle car A ≠ 0 : c’est un hyperplan de ℳ𝑛 (ℝ). La direction de 𝑓
est vect(B) : c’est une droite vectorielle de ℳ𝑛 (ℝ).
http://lgarcin.github.io 30
© Laurent Garcin MP Dumont d’Urville
Solution 49
0𝑝 I𝑝
Supposons que 𝑛 soit pair et qu’il existe une base ℬ = (𝑒1 , … , 𝑒𝑛 ) de E telle que la matrice de 𝑓 dans la base soit A = ( ). Un
0𝑝 0𝑝
calcul par blocs montre que A2 = 0 et donc 𝑓2 = 0. Par conséquent, Im 𝑓 ⊂ Ker 𝑓. Par ailleurs, il est clair que rg A = 𝑝 et donc rg 𝑓 = 𝑝.
Mais d’après le théorème du rang, dim E = rg 𝑓 + dim Ker 𝑓 donc dim Ker 𝑓 = 𝑝 = dim Im 𝑓. Mais puisqu’on a déjà Im 𝑓 ⊂ Ker 𝑓, on peut
conclure que Im 𝑓 = Ker 𝑓.
Supposons maintenant que Im 𝑓 = Ker 𝑓. Le théorème du rang assure alors que 𝑛 est pair et que dim Ker 𝑓 = dim Im 𝑓 = 𝑝 où 𝑛 = 2𝑝. Soit
(𝑒𝑝+1 , … , 𝑒𝑛 ) une base d’un supplémentaire S de Ker 𝑓 dans E. Posons 𝑒𝑖 = 𝑓(𝑒𝑝+𝑖 ) pour tout 𝑖 ∈ J1, 𝑝K. Puisque 𝑓 induit un isomorphisme
de S sur Im 𝑓 et que (𝑒𝑝+1 , … , 𝑒𝑛 ) est une base de S, (𝑒1 , … , 𝑒𝑝 ) est une base de Im 𝑓 et donc de Ker 𝑓. Récapitulons : (𝑒1 , … , 𝑒𝑝 ) est une base
de Ker 𝑓, (𝑒𝑝+1 , … , 𝑒𝑛 ) est une base de S et E = Ker 𝑓 ⊕ S donc (𝑒1 , … , 𝑒𝑛 ) est une base de E. Il est alors clair que la matrice de 𝑓 dans cette
base est de la forme voulue.
Solution 50
1. Soient P et Q dans E𝑛 et λ ∈ ℝ.
par linéarité de la dérivation et du produit. Vérifions quele degré de T𝑛 (P) est inférieur ou égal à 𝑛 lorsque P ∈ E𝑛 . §Un tel polynôme
s’écrit 𝑛
P = ∑ 𝑝𝑘 X𝑘 ,
𝑘=0
et donc 𝑛
P′ = ∑ 𝑘𝑝𝑘 X𝑘−1 .
𝑘=1
Le polynôme (1 + 𝑛X)P est donc de degré au plus 𝑛 + 1 et le cœfficient de X𝑛+1 dans ce polynôme vaut 𝑛𝑝𝑛 X𝑛+1 . De même, le
polynôme (1 − X2 )P′ est donc de degré au plus 𝑛 + 1 et le cœfficient de X𝑛+1 dans ce polynôme vaut 𝑛𝑝𝑛 X𝑛+1 . Par différence, T𝑛 (P)
est de degré au plus 𝑛.
2. On a, pour tout entier 0 ⩽ 𝑘 ⩽ 𝑛,
On a donc
⎛ 1 1 0 … 00 ⎞
⎜ 𝑛 1 2 ⋱ ⋮ 0 ⎟
⎜ 0 𝑛−1 1 ⋱ 0 ⋮ ⎟
M𝑛 = ⎜ ⎟
⎜ ⋮ 0 𝑛−2 ⋱ 𝑛−1 0 ⎟
⎜ ⋮ ⋮ 0 ⋱ 1 𝑛 ⎟
⎜ ⎟
⎝ 0 0 … 0 1 1 ⎠
3. Lorsque 𝑛 = 3, on a
⎛ 1 1 0 0 ⎞
⎜ 3 1 2 0 ⎟
M3 = ⎜ .
0 2 1 3 ⎟
⎜ ⎟
⎝ 0 0 1 1 ⎠
http://lgarcin.github.io 31
© Laurent Garcin MP Dumont d’Urville
et donc
Ker(T3 ) = vect(1 − X − X2 + X3 ).
D’après le théorème du rang, rg(M 3 ) = 3. Les trois premières colonnes de M 𝑛 formant manifestement une famille libre, on a
1 1 0
Im(M 3 ) = vect [( 03 ), ( 21 ), ( 21 )],
0 0 1
et donc
Im(T3 ) = vect(1 + 3X, 1 + X + 2X2 , 2X + X2 + X3 ).
Solution 51
http://lgarcin.github.io 32
© Laurent Garcin MP Dumont d’Urville
2. Une matrice
𝑥 𝑦
M = ( )
𝑧 𝑡
appartient à Ker(φA ) si et seulement si
2𝑧 − 2𝑦 −2𝑥 − 3𝑦 + 2𝑡
φA (M) = ( ) = 0,
2𝑥 + 3𝑧 − 2𝑡 2𝑦 − 2𝑧
ie
𝑧 − 𝑦 = 2𝑥 + 3𝑧 − 2𝑡 = 0.
Les éléments du noyau de φA sont donc les matrices de la forme
3
𝑡− 𝑧 𝑧
M=( 2 ).
𝑧 𝑡
D’après le théorème du rang, l’image de φA est de dimension 2. Puisque qu’elle est engendrée par l’image de la base canonique de
ℳ2 (ℝ) et que
0 −2
φA (E1,1 ) = ( )
2 0
et
− 2 −3
φA (E1,2 ) = ( )
0 2
forment une famille libre, une base de Im(φA ) est
0 −2 − 2 −3
(( ),( ) ).
2 0 0 2
3. Le commutant de A est égal au noyau de φA . Or, d’après les calculs précédents, une matrice M appartient à Ker(φA ) si et seulement
si il existe deux réels 𝑡 et 𝑧 tels que
3
1 0 − 1
M = 𝑡( ) + 𝑧( 2 ).
0 1 1 0
Solution 52
1. Soit P ∈ ℝ2 [X]. Puisque P′ est alors de degré au plus un, 𝑓(P) est de degré au plus deux donc appartient à ℝ2 [X]. L’application 𝑓 est
clairement linéaire par linéarité de la dérivation sur ℝ2 [X] : on a bien 𝑓 ∈ ℒ(ℝ2 [X]).
2. On a clairement
𝑓(1) = 1 , 𝑓(X) = 1 + X , 𝑓(X2 ) = 2X + X2 .
Ainsi,
⎛ 1 1 0 ⎞
M = ⎜ 0 1 2 ⎟.
⎜ ⎟
⎝ 0 0 1 ⎠
3. La matrice M étant clairement de rang 3, 𝑓 est un automorphisme de E. Inversons M par la méthode du pivot de Gauss…
1 1 0 1 0 0
[ 0 1 2 0 1 0 ]
0 0 1 0 0 1
http://lgarcin.github.io 33
© Laurent Garcin MP Dumont d’Urville
par L2 ← L2 − 2L3 ,
1 1 0 1 0 0
[ 0 1 0 0 1 −2 ]
0 0 1 0 0 1
puis, en effectuant L1 ← L1 − L2 ,
1 0 0 1 −1 2
[ 0 1 0 0 1 −2 ] .
0 0 1 0 0 1
L’inverse de M vaut donc
1 −1 2
M −1 = [ 0 1 −2 ] .
0 0 1
4. Notons U le vecteur colonne des coordonnées du polynôme P = 𝑓−1 (1 + X + X2 ) dans la base canonique de E. Puisque le vecteur
colonne des coordonnées de 1 + X + X2 dans la base canonique de E est
⎛ 1 ⎞
V = ⎜ 1 ⎟,
⎜ ⎟
⎝ 1 ⎠
on a U = M −1 V, c’est-à-dire
⎛ 2 ⎞
U=⎜ −1 ⎟
⎜ ⎟
⎝ 1 ⎠
et donc P = 2 − X + X2 .
Solution 53
2. On a clairement
⎛ 0 0 3 ⎞
A = mat ℬ (𝑓 ) = ⎜ 0 0 1 ⎟ .
2 2
⎜ ⎟
⎝ 0 0 1 ⎠
Ainsi :
Ker(𝑓2 ) = vect(𝑒1 , 𝑒2 ) et Im(𝑓2 ) = vect(3𝑒1 + 𝑒2 + 𝑒3 ).
3. On a
dim(Ker(𝑓2 )) = 2 et dim(Im(𝑓2 )) = 1
et Im(𝑓2 ) = vect(3𝑒1 + 𝑒2 + 𝑒3 ) avec
3𝑒1 + 𝑒2 + 𝑒3 ∉ vect(𝑒1 , 𝑒2 ) = Ker(𝑓2 )
donc Ker(𝑓2 ) ∩ Im(𝑓2 ) = {0}. On en déduit que Ker(𝑓2 ) et Im(𝑓2 ) sont supplémentaires dans ℝ3 .
Solution 54
http://lgarcin.github.io 34
© Laurent Garcin MP Dumont d’Urville
d’après les règles de calculs dans l’algèbre ℝ[X]. La dérivation est linéaire d’après le cours, ainsi 𝑔 est linéaire. Comme
On a
dim(Ker(𝑔)) = 1 et dim(Ker(𝑓)) = 0.
3. Puisque
∀P ∈ ℝ𝑛 [X], deg(𝑓(P)) = 1 + deg(P) ⩽ 𝑛 + 1,
et
∀P ∈ ℝ𝑛 [X], deg(𝑔(P)) ⩽ deg(P) ⩽ 𝑛,
on a
Im(𝑓𝑛 ) ⊂ ℝ𝑛+1 [X] et Im(𝑔𝑛 ) ⊂ ℝ𝑛 [X]
4. Pour tout 0 ⩽ 𝑘 ⩽ 𝑛, on a
𝑓𝑛 (X𝑘 ) = X𝑘+1 et 𝑔𝑛 (X𝑘 ) = 𝑘X𝑘−1 ,
avec la convention 𝑔𝑛 (X0 ) = 0. Ainsi
⎛0 0 … 0⎞
⎜1 0 ⋱ ⋮⎟
⎜ ⎟
mat ℬ𝑛,ℬ𝑛+1 (𝑓𝑛 ) = ⎜ 0 1 ⋱ ⋮⎟
⎜⋮ ⋱ ⋱ 0⎟
⎜ ⎟
⎝0 … 0 1⎠
et
⎛0 1 0 … 0⎞
⎜0 0 2 ⋱ ⋮⎟
⎜ ⎟
mat ℬ𝑛 (𝑔𝑛 ) = ⎜ ⋮ ⋱ ⋱ ⋱ 0 ⎟.
⎜⋮ ⋱ ⋱ ⋱ 𝑛⎟
⎜ ⎟
⎝0 … … … 0⎠
rg(𝑓𝑛 ) = 𝑛 et rg(𝑔𝑛 ) = 𝑛 − 1.
Solution 55
http://lgarcin.github.io 35
© Laurent Garcin MP Dumont d’Urville
⎛0 0 2 0⎞
⎜0 0 0 6⎟
mat (1,…,X3) (𝑓) = ⎜ .
0 0 0 0⎟
⎜ ⎟
⎝0 0 0 0⎠
𝑘−1
∀1 ⩽ ℓ < 𝑘 ⩽ 𝑛 + 1, 𝑎ℓ,𝑘 = ( )(1 + (−1))𝑘−ℓ ).
𝑘−ℓ
P = P0 + 𝑎 + 𝑏X.
Comme le système
P(0) = P0 (0) + 𝑎 = 0
{
P′ (0) = P0′ (0) + 𝑏 = 0
admet l’unique solution (𝑎, 𝑏) = −(P(0), P′ (0)), il existe un unique P ∈ ℝ𝑛 [X] tel que
http://lgarcin.github.io 36
© Laurent Garcin MP Dumont d’Urville
Solution 56
Solution 57
1. Pour toutes matrices M et M ′ et pour tous scalaires λ et μ, on a Φ(λM + μM ′ ) = A(λM + μM ′ ) = λAM + μAM ′ = λΦ(M) + μΦ(M ′ ),
donc Φ est linéaire.
2. On vérifie facilement que A est inversible , donc on peut définir l’application Ψ de ℳ2 (ℝ) dans ℳ2 (ℝ) par Ψ(M) = A−1 M. Ψ est
linéaire pour la même raison que Φ, et pour tout matrice M ∈ ℳ2 (ℝ) on a Ψ(Φ(M)) = A−1 AM = M et Φ(Ψ(M)) = AA−1 M = M,
donc Φ est un isomorphisme d’application inverse Φ−1 = Ψ.
1 0 0 1
3. Avec les notations du cours, la base canonique de ℳ2 (ℝ) est constituée des quatre matrices E1,1 = ( ) , E1,2 = ( ) , E2,1 =
0 0 0 0
0 0 0 0
( ) , e𝑡 E2,2 = ( ) . On calcule les images de ces quatre matrices par Φ, et on les décompose dans cette même base :
1 0 0 1
1 0 0 1
Φ(E1,1 ) = ( ) = E1,1 + 3E2,1 , Φ(E1,2 ) = ( ) = E1,2 + 3E2,2
3 0 0 3
2 0 0 2
Φ(E2,1 ) = ( ) = 2E1,1 + 4E2,1 , Φ(E2,2 ) = ( ) = 2E1,2 + 4E2,2 .
4 0 0 4
http://lgarcin.github.io 37
© Laurent Garcin MP Dumont d’Urville
Solution 58
1. On vérifie sans difficulté que pour tous P, Q ∈ ℝ3 [X] et tous λ, μ ∈ ℝ, on a ϕ(λP + μQ) = λϕ(P) + μϕ(Q), ce qui prouve la linéarité
de ϕ.
Par ailleurs, si P est de degré inférieur ou égal à 3, alors P(X + 1) l’est aussi et donc ϕ(P) aussi : ainsi on a bien ϕ(ℝ3 [X]) ⊂ ℝ3 [X], et
ϕ est donc un endomorphisme de ℝ3 [X].
2. On calcule les images des quatre polynômes 1, X, X2 et X3 de la base ℬ :
ϕ(1) = 1 + 1 = 2
⎧
⎪ ϕ(X) = X + 1 + X = 2X + 1
⎨ ϕ(X2 ) = (X + 1)2 + X2 = 2X2 + 2X + 1
⎪ 3 3 3
⎩ ϕ(X ) = (X + 1) + X = 2X3 + 3X2 + 3X + 1
2 1 1 1
⎛ ⎞
0 2 2 3
On en déduit donc : M = ⎜ ⎟.
⎜ 0 0 2 3 ⎟
⎝ 0 0 0 2 ⎠
3. a. M est une matrice triangulaire supérieure et tous ses coefficients diagonaux sont non nuls, donc elle est inversible. Pour calculer
son inverse, on fixe (𝑦1 , 𝑦2 , 𝑦3 , 𝑦4 ) ∈ ℝ4 et on résout le système :
1
2𝑥1 + 𝑥2 + 𝑥3 + 𝑥4 = 𝑦1 ⎧ 𝑥1 =
2
(𝑦1 − 𝑥2 − 𝑥3 − 𝑥4 )
⎧ ⎪ 𝑥2 1
⎪ 2𝑥2 + 2𝑥3 + 𝑥4 = 𝑦2 = (𝑦2 − 2𝑥3 − 𝑥4 )
⟺ 2
1
⎨ 2𝑥3 + 3𝑥4 = 𝑦3 ⎨ 𝑥3 = (𝑦3 − 3𝑥4 )
⎪ ⎪ 2
⎩ 2𝑥4 = 𝑦4 1
⎩ 𝑥4 =
2
𝑦4
1 1 1
⎧ 𝑥1 =
2
(𝑦1 − 𝑦2 + 𝑦4 )
2 4
⎪ 𝑥2 1
= (𝑦2 − 𝑦3 )
⟺ 2
1 3
⎨ 𝑥3 = = (𝑦3 − 𝑦4 )
⎪ 2
1
2
⎩ 𝑥4 =
2
𝑦4
1 1
⎛ 1 −2 0 4 ⎞
1 ⎜ 0 1 −1 0 ⎟
Ceci montre que M = ⎜
−1
.
1 − ⎟⎟
3
⎜ 0 0
2
2
⎝ 0 0 0 1 ⎠
b. Puisque la matrice M de ϕ dans ℬ est inversible, ϕ est bijective, donc c’est un automorphisme de ℝ3 [X]. De plus on sait que
M𝑎𝑡ℬ (ϕ−1 ) = M −1 .
4. Notons P0 le polynôme 4X3 − 2X2 + X − 1. Pour tout P ∈ ℝ3 [X], on a P(X + 1) + P(X) = 4X3 − 2X2 + X − 1 ⟺ ϕ(P) = P0 ⟺ P =
ϕ−1 (P0 ) ; l’équation admet donc l’unique solution ϕ−1 (P0 ), dont on calcule les coefficients en passant par M −1 :
1
−1 −
⎛ ⎞ ⎛ 34 ⎞
1
−1
M𝑎𝑡ℬ (ϕ (P0 )) = M −1 ⎜ ⎟ = ⎜⎜ 2 ⎟
⎟
⎜ −2 ⎟ ⎜ −4 ⎟
⎝ 4 ⎠ ⎝ 2 ⎠
3 1
Ainsi l’unique solution cherchée est 2X3 − 4X2 + X − .
2 4
Solution 59
http://lgarcin.github.io 38
© Laurent Garcin MP Dumont d’Urville
1. a. Notons (H) l’hypothèse que ∀𝑥 ∈ ℝ, 𝑎𝑥𝑒𝑥 + 𝑏𝑥𝑒−𝑥 + 𝑐𝑒𝑥 + 𝑑𝑒−𝑥 = 0 . On sait que lim 𝑏𝑥𝑒−𝑥 + 𝑑𝑒−𝑥 = 0, donc en prenant
𝑥→+∞
la limite en +∞, on déduit de (H) que lim (𝑎𝑥 + 𝑐)𝑒𝑥 = 0. Si 𝑎 ≠ 0, on sait qu’au voisinage de +∞, (𝑎𝑥 + 𝑐)𝑒𝑥 ∼ 𝑎𝑥𝑒𝑥 . Or
𝑥→+∞
si 𝑎 > 0, (resp. 𝑎 < 0,) on a lim 𝑎𝑥𝑒𝑥 = +∞ (resp. −∞), ce qui est contradictoire avec lim (𝑎𝑥 + 𝑐)𝑒𝑥 = 0. On en conclut
𝑥→+∞ 𝑥→+∞
que 𝑎 = 0, et il reste donc lim 𝑐𝑒𝑥 = 0, qui implique de même que 𝑐 = 0.
𝑥→+∞
b. Soient (𝑎, 𝑏, 𝑐, 𝑑) ∈ ℝ tels que 𝑎𝑔1 + 𝑏𝑔2 + 𝑐𝑔3 + 𝑑𝑔4 = 0. Ceci équivaut à l’hypothèse (H) de la question précédente. On a vu
4
qu’alors 𝑎 = 𝑐 = 0, donc il reste 𝑏𝑔2 + 𝑑𝑔4 = 0, c’est-à-dire : ∀𝑥 ∈ ℝ, (𝑏𝑥 + 𝑑)𝑒−𝑥 = 0 , ce qui équivaut à ∀𝑥 ∈ ℝ, 𝑏𝑥 + 𝑑 = 0
(puisque 𝑒−𝑥 > 0 pour tout 𝑥 ∈ ℝ). Avec 𝑥 = 0 on obtient 𝑑 = 0, puis en prenant par exemple 𝑥 = 1 on a aussi 𝑏 = 0. Finalement
𝑎 = 𝑏 = 𝑐 = 𝑑 = 0, ce qui prouve que (𝑔1 , 𝑔2 , 𝑔3 , 𝑔4 ) est une famille libre. De plus c’est par définition une famille génératrice de
F. On en conclut que c’est une base de F, et donc dim F = 4.
2. a. 𝑔1 est dérivable sur ℝ et pour tout 𝑥 ∈ ℝ, 𝑔′1 (𝑥) = 𝑥𝑒𝑥 + 𝑒𝑥 = 𝑔1 (𝑥) + 𝑔3 (𝑥), donc 𝑔′1 = 𝑔1 + 𝑔3 ∈ F. De même, 𝑔2 est dérivable
sur ℝ et pour tout 𝑥 ∈ ℝ, 𝑔′2 (𝑥) = −𝑥𝑒−𝑥 + 𝑒−𝑥 = −𝑔2 (𝑥) + 𝑔4 (𝑥), donc 𝑔′2 = −𝑔2 + 𝑔4 ∈ F.
b. Puisque la famille (𝑔1 , 𝑔2 , 𝑔′1 , 𝑔′2 ) est de cardinal 4 et que dim F = 4, il suffit de montrer que c’est une famille libre. Soit (α, β, γ, δ)
quatre réels tels que α𝑔1 + β𝑔2 + γ𝑔′1 + δ𝑔′2 = 0. Ceci équivaut à (α + γ)𝑔1 + (β − δ)𝑔2 + γ𝑔3 + δ𝑔4 = 0. Puisque la famille
(𝑔1 , 𝑔2 , 𝑔3 , 𝑔4 ) est libre, cela implique que α + γ = β − δ = γ = δ = 0, d’où α = β = γ = δ = 0. Ainsi la famille (𝑔1 , 𝑔2 , 𝑔′1 , 𝑔′2 )
est libre et est donc une base de F.
On a vu que 𝑔′1 = 𝑔1 + 𝑔3 (resp. 𝑔′2 = −𝑔2 + 𝑔4 ) donc les coordonnées de 𝑔′1 (resp. 𝑔′2 ) dans ℬ1 sont (1, 0, 1, 0) (resp. (0, −1, 0, 1)).
On en déduit donc que la matrice de passage de ℬ1 à ℬ2 est :
1 0 1 0
⎛ ⎞
0 1 0 −1
P=⎜ ⎟ .
⎜ 0 0 1 0 ⎟
⎝ 0 0 0 1 ⎠
3. a. Soient 𝑓 et 𝑔 deux fonctions de F et soit (λ, μ) ∈ ℝ2 . Par définition, on a φ(λ𝑓 + μ𝑔) = (λ𝑓 + μ𝑔)′ = λ𝑓′ + μ𝑔′ = λφ(𝑓) + μφ(𝑔).
On en conclut que φ est linéaire.
Puisque Im(φ) = vect(φ(𝑔1 ), φ(𝑔2 ), φ(𝑔3 ), φ(𝑔4 )), il suffit de montrer que φ(𝑔𝑖 ) ∈ F pour tout 1 ≤ 𝑖 ≤ 4 pour conclure que φ est
un endomorphisme de F.
On a déjà vu que φ(𝑔1 ) = 𝑔′1 ∈ F et φ(𝑔2 ) = 𝑔′2 ∈ F. Par ailleurs, on a immédiatement φ(𝑔3 ) = 𝑔3 ∈ F et φ(𝑔4 ) = −𝑔4 ∈ F,
d’où la conclusion.
b. On a déja calculé les coordonnées de φ(𝑔1 ) = 𝑔′1 et φ(𝑔2 ) = 𝑔′2 dans la base ℬ1 . Celles de φ(𝑔3 ) = 𝑔3 sont (0, 0, 1, 0) et celles de
φ(𝑔4 ) = −𝑔4 sont (0, 0, 0, −1). On en déduit que
1 0 0 0
⎛ ⎞
0 −1 0 0
M=⎜ ⎟ .
⎜ 1 0 1 0 ⎟
⎝ 0 1 0 −1 ⎠
c. Puisque M est triangulaire inférieure avec que des éléments non nuls sur la diagonale, on sait que c’est une matrice inversible, ce
qui implique que φ est un automorphisme de F.
d. On applique la formule de changement de base : N = P−1 MP. Le calcul P−1 s’obtient très aisément par résolution d’un système
triangulaire (ou par opérations élémentaires sur P et I4 en parallèle). On obtient
1 0 −1 0
⎛ ⎞
0 1 0 1
P−1 =⎜ ⎟ .
⎜ 0 0 1 0 ⎟
⎝ 0 0 0 1 ⎠
http://lgarcin.github.io 39
© Laurent Garcin MP Dumont d’Urville
Solution 60
1. Comme ℒ(ℝ𝑛 ) = H1 + H2 , tout élément de ℒ(ℝ𝑛 ) – en particulier Id – peut s’écrire comme la somme d’un élément de H1 et d’un
élément de H2 .
2. On compose l’identité 𝑝1 + 𝑝2 = Id par 𝑝1 une fois à gauche et une fois à droite pour obtenir :
𝑝12 + 𝑝1 ∘ 𝑝2 = 𝑝1 𝑝12 + 𝑝2 ∘ 𝑝1 = 𝑝1
𝑛2 ≤ (𝑛 − rg 𝑝1 )2 + (𝑛 − rg 𝑝2 )2
Comme 𝑛 − rg 𝑝1 ≥ 0 et 𝑛 − rg 𝑝2 ≥ 0,
On sait que 𝑝1 + 𝑝2 = Id. Donc rg(𝑝1 + 𝑝2 ) = 𝑛. Or c’est un exercice classique que de montrer que rg 𝑝1 + rg 𝑝2 ≥ rg(𝑝1 + 𝑝2 ). On
en déduit que rg 𝑝1 + rg 𝑝2 ≥ 𝑛. De plus rg 𝑝1 + rg 𝑝2 ≤ 2𝑛 donc
[2𝑛 − (rg 𝑝1 + rg 𝑝2 )] ≤ 𝑛2
2
Finalement,
𝑛2 ≤ (𝑛 − rg 𝑝1 )2 + (𝑛 − rg 𝑝2 )2 ≤ [2𝑛 − (rg 𝑝1 + rg 𝑝2 )] ≤ 𝑛2
2
http://lgarcin.github.io 40
© Laurent Garcin MP Dumont d’Urville
Solution 62
• Solution 1
Soit S un supplémentaire de Ker 𝑢 dans E. On définit l’application linéaire
Ψ ∶ Im Φ ⟶ ℒ(S, Im 𝑣)
| Im 𝑣
𝑔 ⟼ 𝑔|S
Cette application est bien définie car, pour tout 𝑓 ∈ ℒ(E), Im(𝑣 ∘ 𝑓 ∘ 𝑢) ⊂ Im 𝑣. Montrons que c’est un isomorphisme.
Soit 𝑔 ∈ Ker Ψ. Puisque 𝑔 ∈ Im Φ, il existe 𝑓 ∈ ℒ(E) tel que 𝑔 = 𝑣 ∘ 𝑓 ∘ 𝑢. Comme 𝑔 ∈ Ker Ψ, 𝑔|S = 0. Mais on a aussi évidemment
𝑔| Ker ᵆ = 0. Puisque E = Ker 𝑢 ⊕ S, 𝑔 = 0 et Ψ est injective.
On sait que 𝑢 induit un isomorphisme 𝑢̃ de S sur Im 𝑢. De même, 𝑣 induit un isomorphisme 𝑣 ̃ de T sur Im 𝑣 où T est un supplémentaire
de Ker 𝑣 dans E. Soit 𝑔̃ ∈ Im Ψ. On définit 𝑓 de la manière suivante : 𝑓(𝑥) = 𝑣−1 ̃ ∘ 𝑔̃ ∘ 𝑢̃−1 (𝑥) pour 𝑥 ∈ Im 𝑢 et 𝑓 = 0 sur un
supplémentaire quelconque de Im 𝑢. On a alors bien Ψ(𝑣 ∘ 𝑓 ∘ 𝑢) = 𝑔,̃ ce qui montre que Ψ est surjective.
Par conséquent, rg Φ = dim ℒ(S, Im 𝑣) = rg 𝑢 rg 𝑣.
• Solution 2
Notons S un supplémentaire de Im 𝑢 dans E et T un supplémentaire de Ker 𝑣 dans E. On pose
On vérifie que ℱ est un sous-espace vectoriel de ℒ(E). Montrons que Φ induit un isomorphisme de ℱ sur Im Φ.
Soit 𝑓 ∈ ℱ ∩ Ker Φ. Par définition de ℱ, 𝑓|S = 0. De plus, 𝑣 ∘ 𝑓 ∘ 𝑢 = 0 signifie que 𝑓(Im 𝑢) ⊂ Ker 𝑣. Mais, par définition de ℱ,
Im 𝑓 ⊂ T. Donc 𝑓(Im 𝑢) ⊂ Ker 𝑣 ∩ T = {0}. D’où 𝑓| Im ᵆ = 0. Comme E = S ⊕ Im 𝑢, 𝑓 = 0 et la restriction de Φ à ℱ est injective.
Montrons que Φ(ℱ) = Im Φ. Soit 𝑓 ∈ ℒ(E). Notons π1 la projection de E sur Im 𝑢 parallèlement à S et π2 la projection de E sur T
parallèlement à Ker 𝑣. On vérifie que π2 ∘ 𝑓 ∘ π1 ∈ ℱ. De plus, π1 ∘ 𝑢 = 𝑢 et 𝑣 ∘ π2 = 𝑣. Donc 𝑣 ∘ (π2 ∘ 𝑓 ∘ π1 ) ∘ 𝑢 = 𝑣 ∘ 𝑓 ∘ 𝑢 i.e.
Φ(π2 ∘ 𝑓 ∘ π1 ) = Φ(𝑓).
Ainsi Φ induit un isomorphisme de ℱ sur Im Φ et donc rg Φ = dim ℱ. Or ℱ est isomorphe à ℒ(Im 𝑢, T). De plus, 𝑣 induit un isomor-
phisme de T sur Im 𝑣 donc dim T = rg 𝑣. Ainsi rg Φ = dim ℱ = dim ℒ(Im 𝑢, T) = rg 𝑢 rg 𝑣.
• Solution 3
Commençons par montrer le lemme suivant : si 𝑤 ∈ ℒ(E) est de rang 𝑝 alors il existe deux bases (𝑒𝑖 ) et (ε𝑖 ) de E telles que
𝕀𝑝 𝕆𝑝,𝑛−𝑝
mat (𝑒𝑖),(ε𝑖) (𝑤) = ( )
𝕆𝑛−𝑝,𝑝 𝕆𝑝,𝑝
où 𝑛 est la dimension de E. En effet, soit S un supplémentaire de Ker 𝑤. On se donne une base (𝑒1 , … , 𝑒𝑝 ) de S et une base (𝑒𝑝+1 , … , 𝑒𝑛 )
de Ker 𝑣. Posons ε𝑖 = 𝑤(𝑒𝑖 ) pour 1 ≤ 𝑖 ≤ 𝑝. Comme 𝑤 induit un isomorphisme de S sur Im 𝑤, (ε1 , … , ε𝑝 ) est une base de Im 𝑤 qu’on
complète en une base (ε1 , … , ε𝑛 ) de E. La matrice de 𝑤 dans ces bases est bien de la forme voulue.
Notons 𝑝 = rg 𝑢 et 𝑞 = rg 𝑣. Notons (𝑒𝑖 ), (ε𝑖 ) et (𝑒𝑖′ ), (ε′𝑖 ) les bases définies dans le lemme correspondant respectivement à 𝑢 et 𝑣. Soit
𝑓 ∈ ℒ(E) et M = mat (ε𝑖),(𝑒′) (𝑓). Alors mat (𝑒𝑖),(ε′) (𝑣 ∘ 𝑓 ∘ 𝑢) est la sous-matrice de M (𝑚𝑖𝑗 )1≤𝑖≤𝑝,1≤𝑗≤𝑞 . Ainsi Im Φ est isomorphe à
𝑖 𝑖
ℳ𝑝,𝑞 (𝕂) et est donc de dimension 𝑝𝑞 = rg 𝑢 rg 𝑣.
Solution 63
1. 𝑓 est linéaire essentiellement grâce à la ℝ-linéarité de la conjugaison. On a 𝑓(1) = 1 et 𝑓(𝑖) = −2 − 𝑖. La famille (𝑓(1), 𝑓(𝑖)) est
libre dans le ℝ-espace vectoriel de dimension 2 ℂ : c’est donc une base. 𝑓 transforme donc une base de ℂ en une base de ℂ : c’est un
automorphisme de ℂ.
2. On cherche donc 𝑒1 et 𝑒2 dans ℂ tels que
𝑓(𝑒1 ) = 𝑒1 et 𝑓(𝑒2 ) = −𝑒2
http://lgarcin.github.io 41
© Laurent Garcin MP Dumont d’Urville
On a donc à résoudre :
𝑖𝑒1 + (1 − 𝑖)𝑒1 = 𝑒1
{
𝑖𝑒2 + (1 − 𝑖)𝑒2 = −𝑒2
𝑖(𝑒1 − 𝑒1 ) − (𝑒1 − 𝑒1 ) = 0
⇔{
𝑖(𝑒2 − 𝑒2 ) + (𝑒2 + 𝑒2 ) = 0
−2 Im(𝑒1 ) − 2𝑖 Im(𝑒1 ) = 0
⇔{
−2 Im(𝑒2 ) + 2 Re(𝑒2 ) = 0
Im(𝑒1 ) = 0
⇔{
Re(𝑒2 ) = Im(𝑒2 )
Il suffit donc de prendre 𝑒1 = 1 (on l’avait en fait déjà trouvé à la première question) et 𝑒2 = 1 + 𝑖. On vérifie que (𝑒1 , 𝑒2 ) est bien une
base de ℂ.
3. La question précédente montre que 𝑓 est une symétrie par rapport à vect(𝑒1 ) parallèlement à vect(𝑒2 ).
𝑧2 𝑧
𝑧1
−𝑧2
𝑧1 − 𝑧2 = 𝑓(𝑧)
Solution 64
1. Il suffit de montrer que ℬ est libre. Soient 𝑎, 𝑏, 𝑐, 𝑑 ∈ ℝ tels que 𝑎 sin +𝑏 cos +𝑐 sh +𝑑 ch = 0. On évalue cette identité en 0 et on trouve
𝑏 + 𝑑 = 0. On dérive puis on évalue en 0 et on trouve 𝑎 + 𝑐 = 0. On dérive deux fois puis on évalue en 0 et on trouve −𝑏 + 𝑑 = 0. On
dérive trois fois puis on évalue en 0 et on trouve −𝑎 + 𝑐 = 0. On a alors nécessairement 𝑎 = 𝑏 = 𝑐 = 𝑑 = 0. La famille ℬ est libre et
génératrice de F par définition de F : c’est une base de F.
2. D(sin) = cos ∈ F, D(cos) = − sin ∈ F, D(sh) = ch ∈ F et D(ch) = sh ∈ F. Ainsi D(ℬ) ⊂ F. Comme ℬ engendre F, on a par linéarité
de D : D(F) ⊂ F.
http://lgarcin.github.io 42
© Laurent Garcin MP Dumont d’Urville
⎛ 0 −1 0 0 ⎞
⎜1 0 0 0⎟ 0 −1 0 1 J 02
3. D’après la question précédente M = ⎜ ⎟ . Posons J = ( ) et K = ( ). On a donc M = ( ). Notons I2 la
0 0 0 1 1 0 1 0 02 K
⎜ ⎟
⎝0 0 1 0⎠
matrice identité de M 2 (ℝ).
On a J2 = −I donc J3 = −J et J4 = I2 . On en déduit que J𝑛 = I2 si 𝑛 ≡ 0[4], J𝑛 = J si 𝑛 ≡ 1[4], J𝑛 = −I2 si 𝑛 ≡ 2[4], J𝑛 = −J si
𝑛 ≡ 3[4].
On a également K2 = I2 . On en déduit que K𝑛 = I2 si 𝑛 ≡ 0[2] et K𝑛 = K si 𝑛 ≡ 1[2].
J𝑛 02 I2 02 J 02
Un calcul par blocs donne M 𝑛 = ( 𝑛
). Donc M 𝑛 = ( ) si 𝑛 ≡ 0[4], M 𝑛 = ( ) si 𝑛 ≡ 1[4], M 𝑛 =
02 K 02 I2 02 K
−I2 02 −J 02
( ) si 𝑛 ≡ 2[4] et M 𝑛 = ( ) si 𝑛 ≡ 3[4].
02 I2 02 K
4. La question précédente montre que M 4 = I4 où I4 est la matrice identité de ℳ4 (ℝ). Ainsi M est inversible d’inverse M −1 = M 3 . Par
−J 02
conséquent, 𝑑 est inversible est la matrice de 𝑑 −1 dans la base ℬ est M −1 = M 3 = ( ).
02 K
⎛⎛ −1 ⎞ ⎛ −1 ⎞ ⎛ 0 ⎞⎞ ⎛0⎞
⎜⎜ 1 ⎟ ⎜ −1 ⎟ ⎜ 0 ⎟⎟ ⎜0⎟
5. La matrice de 𝑑 − Id dans la base ℬ est M − I4 . On voit facilement que Im(M − I4 ) = vect ⎜⎜ ⎟ ,⎜ ⎟ ,⎜ ⎟⎟ . De plus, ⎜ ⎟ ∈
0 0 1 1
⎜⎜ ⎟ ⎜ ⎟ ⎜ ⎟⎟ ⎜ ⎟
⎝⎝ 0 ⎠ ⎝ 0 ⎠ ⎝ −1 ⎠⎠ ⎝1⎠
Ker(M−I4 ). Or dim Ker(M−I4 ) = 1 donc ce vecteur engendre Ker(M−I4 ). On en déduit que Im(𝑑−Id) = vect(− sin + cos, − sin − cos, ch − sh
1
et que Ker(𝑑 − Id) = vect(ch + sh). Remarquons que ch − sh est la fonction et que ch + sh est la fonction exp.
exp
⎛ −2 0 0 0⎞
⎜ 0 −2 0 0 ⎟
6. On a 𝑔 ∘ 𝑓 = 𝑑 2 − Id. La matrice de 𝑔 ∘ 𝑓 est donc M 2 − I4 = ⎜ . On a clairement Im 𝑔 ∘ 𝑓 = vect(sin, cos) et
0 0 0 0⎟
⎜ ⎟
⎝ 0 0 0 0⎠
Ker 𝑔 ∘ 𝑓 = vect(ch, sh).
Matrices remarquables
Solution 65
1. Un grand classique…
(A + λB)⊤ = A⊤ + λB⊤ = A + λB
Ainsi A + λB ∈ 𝒮𝑛 (ℝ) et 𝒮𝑛 (ℝ) est un sous-espace vectoriel de ℳ𝑛 (ℝ). On prouve de même que 𝒜𝑛 (ℝ) est un sous-espace
vectoriel de ℳ𝑛 (ℝ).
• Notons (E𝑖,𝑗 )1⩽𝑖,𝑗⩽𝑛 la base canonique de ℳ𝑛 (ℝ). Etablissons que la famille
http://lgarcin.github.io 43
© Laurent Garcin MP Dumont d’Urville
est une base de 𝒮𝑛 (ℝ). Soit M = (𝑚𝑖,𝑗 )1⩽𝑖,𝑗⩽𝑛 une matrice symétrique. On a
M= ∑ 𝑚𝑖,𝑗 E𝑖,𝑗
1⩽𝑖,𝑗⩽𝑛
𝑛
= ∑ 𝑚𝑖,𝑗 E𝑖,𝑗 + ∑ 𝑚𝑖,𝑗 E𝑖,𝑗 + ∑ 𝑚𝑖,𝑖 E𝑖,𝑖
1⩽𝑖<𝑗⩽𝑛 1⩽𝑗<𝑖⩽𝑛 𝑖=1
𝑛
𝑚𝑖,𝑖
= ∑ 𝑚𝑖,𝑗 (E𝑖,𝑗 + E𝑗,𝑖 ) + ∑ 2E𝑖,𝑖
1⩽𝑖<𝑗⩽𝑛 𝑖=1
2
La famille est donc génératrice. En reprenant ces calculs, il est clair que
𝑛
𝑚𝑖,𝑖
∑ λ𝑖,𝑗 (E𝑖,𝑗 + E𝑗,𝑖 ) + ∑ 2λ𝑖,𝑖 = 0
1⩽𝑖<𝑗⩽𝑛 𝑖=1
2
équivaut à Λ = (λ𝑖,𝑗 )1⩽𝑖,𝑗⩽𝑛 = 0 ie λ𝑖,𝑗 = 0 pour tous 1 ⩽ 𝑖 ⩽ 𝑗 ⩽ 𝑛. La famille est donc également libre : c’est une base de
𝑛(𝑛+1)
𝒮𝑛 (ℝ) qui est donc de dimension .
2
• On prouve de même que la famille
(E𝑖,𝑗 − E𝑗,𝑖 )1⩽𝑗<𝑖⩽𝑛
𝑛(𝑛−1)
est une base de 𝒜𝑛 (ℝ). La dimension de cet espace vaut donc .
2
Remarque. Puisque la somme des dimensions des deux sev étudiés vaut 𝑛2 = dim(ℳ𝑛 (ℝ)), la seule égalité 𝒜𝑛 (ℝ) ∩ 𝒮𝑛 (ℝ) = {0}
suffit pour établir le caractère direct de leur somme. Nous avons explicité ci-dessus les deux projections associées dans la mesure où
elles sont à connaître par cœur et rendent parfois de bien grands services !
Solution 66
1. Notons
⎛ 1 0 0 ⎞ ⎛ 0 0 0 ⎞
A = ⎜ 0 0 0 ⎟, B = ⎜ 0 1 0 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 1 ⎠ ⎝ 0 0 0 ⎠
et
⎛ 0 0 1 ⎞
C = ⎜ 0 0 0 ⎟.
⎜ ⎟
⎝ 1 0 0 ⎠
On a clairement
E = vect(A, B, C)
http://lgarcin.github.io 44
© Laurent Garcin MP Dumont d’Urville
donc E est un sev de ℳ3 (ℝ). Comme (A, B, C) est clairement libre, on a dim(E) = 3. Comme
A2 = A, B2 = B, C2 = A, AB = BA = 0,
AC = CA = C, BC = CB = 0,
E est stable par produit.
2. Soient 𝑎, 𝑏 et 𝑐 dans ℝ. Posons
⎛𝑎 0 𝑐⎞
M(𝑎, 𝑏, 𝑐) = ⎜ 0 𝑏 0 ⎟ .
⎜ ⎟
⎝𝑐 0 𝑎⎠
• Si 𝑎 ≠ ±𝑐 et 𝑏 ≠ 0, on a rg(M(𝑎, 𝑏, 𝑐)) = 3.
• Si 𝑎 = ±𝑐, 𝑐 ≠ 0 et 𝑏 ≠ 0, on a rg(M(𝑎, 𝑏, 𝑐)) = 2.
• Si 𝑎 = 𝑐 = 0 et 𝑏 ≠ 0, on a rg(M(𝑎, 𝑏, 𝑐)) = 1.
• Si 𝑎 = ±𝑐, 𝑐 ≠ 0 et 𝑏 = 0, on a rg(M(𝑎, 𝑏, 𝑐)) = 1.
• Si 𝑎 = 𝑏 = 𝑐 = 0, on a rg(M(𝑎, 𝑏, 𝑐)) = 0.
3. Dans le cas où M(𝑎, 𝑏, 𝑐) est de rang trois, on a
2 2
⎛ 𝑎/(𝑎 − 𝑐 ) 0 −𝑐/(𝑎2 − 𝑐2 ) ⎞
M(𝑎, 𝑏, 𝑐)−1 =⎜ 0 1/𝑏 0 ⎟.
⎜ ⎟
2 2 2 2
⎝ − 𝑐/(𝑎 − 𝑐 ) 0 𝑎/(𝑎 − 𝑐 ) ⎠
0 1 0 0 1 0
M1 = ( ) , M2 = ( ) , M3 = ( )
0 0 1 0 0 −1
http://lgarcin.github.io 45
© Laurent Garcin MP Dumont d’Urville
M+M⊤ M−M⊤
3. Soit M ∈ ℳ. On a M = P + Q avec P = symétrique et Q = antisymétrique. On a aussi
2 2
PU = P⊤ U = 𝑠(M)U et QU = Q⊤ U = 0.
Donc P et Q sont magiques. On sait enfin que les sous-espaces vectoriels des matrices symétriques et antisymétriques sont en somme
directe donc a fortiori ℳ𝑠 et ℳ𝑎 . On a donc bien ℳ = ℳ𝑠 ⊕ ℳ𝑎 .
4. Soit M ∈ ℳ. Comme on a MU = 𝑠(M)U, 𝒦 = vect((1, … , 1)) est stable par ϕM . De plus, ℋ = Ker ψ où ψ est la forme linéaire
canoniquement associée au vecteur ligne U⊤ . Comme U⊤ M = 𝑠(M)U⊤ , on a donc ψ ∘ ϕM = 𝑠(M)ψ de sorte que le noyau ℋ de ψ est
stable par ϕM .
Réciproquement, on suppose que ℋ et 𝒦 sont stables par ϕM . Comme 𝒦 = vect((1, … , 1)), il existe α ∈ 𝕂 tel que MU = αU. Comme
ℋ = Ker ψ est stable par ϕM , on a Ker ψ ∘ ϕM ⊂ Ker ψ et donc il existe β ∈ 𝕂 tel que ψ ∘ ϕM = βψ de sorte que M ⊤ U = βU. Mais
alors
tr(MUU⊤ ) = α tr(UU⊤ ) = 𝑛α
et
tr(M ⊤ UU⊤ ) = β tr(UU⊤ ) = 𝑛β.
De plus,
tr(MUU⊤ ) = tr(UU⊤ M) = tr(M ⊤ UU⊤ ).
Donc 𝑛α = 𝑛β et α = β. Ainsi M ∈ ℳ.
http://lgarcin.github.io 46
© Laurent Garcin MP Dumont d’Urville
1. Le fait que ΔA est un sous-espace vectoriel de ℳ𝑛 (ℂ) provient de la linéarité de la transposition et de la linéarité de la trace.
Soit M ∈ 𝒜𝑛 (ℂ). On a alors M+M ⊤ = 0. De plus, les éléments diagonaux de M sont nuls donc tr(M) = 0. Ainsi M+M ⊤ = tr(M)A = 0
donc M ∈ ΔA . D’où 𝒜𝑛 (ℂ) ⊂ ΔA .
2. Soit M ∈ ΔA . On a donc tr(M + M ⊤ ) = tr(tr(M)A). Par linéarité de la trace, ceci équivaut à tr(M) + tr(M ⊤ ) = tr(M) tr(A). Or
tr(M ⊤ ) = tr(M) donc 2 tr(M) = tr(A) tr(M). Puisque tr(A) ≠ 2, tr(M) = 0 et finalement M + M ⊤ = 0 i.e. M ∈ 𝒜𝑛 (ℂ). Ainsi
ΔA ⊂ 𝒜𝑛 (ℂ). L’inclusion réciproque ayant été prouvé à la première question, ΔA = 𝒜𝑛 (ℂ).
3. Soit M ∈ ΔA . Remarquons que (M + M ⊤ )⊤ = M + M ⊤ donc tr(M)A⊤ = tr(M)A. Comme A ∉ 𝒮𝑛 (ℂ), A⊤ ≠ A donc tr(M) = 0. On a
alors M + M ⊤ = 0 et donc M ∈ 𝒜𝑛 (ℂ). On a donc à nouveau ΔA = 𝒜𝑛 (ℂ).
4. Soit M ∈ ℳ𝑛 (ℂ). Puisque ℳ𝑛 (ℂ) = 𝒮𝑛 (ℂ)⊕𝒜𝑛 (ℂ), il existe P ∈ 𝒮𝑛 (ℂ) et Q ∈ 𝒜𝑛 (ℂ) telles que M = P+Q. On a déjà vu que Q ∈ ΔA
donc M ∈ ΔA si et seulement si P ∈ ΔA . Autrement dit, il suffit de déterminer ΔA ∩ 𝒮𝑛 (ℂ) et on aura ΔA = 𝒜𝑛 (ℂ) ⊕ (ΔA ∩ 𝒮𝑛 (ℂ))
(la somme est directe car 𝒜𝑛 (ℂ) et 𝒮𝑛 (ℂ) sont en somme directe).
Soit M ∈ ΔA ∩ 𝒮𝑛 (ℂ). Comme M ⊤ = M on a donc 2M = tr(M)A et donc M ∈ vect(A). Réciproquement soit M ∈ vect(A), il existe
λ ∈ ℂ tel que M = λA. Alors M + M ⊤ = 2λA car A⊤ = A par hypothèse. D’autre part, tr(M) = λ tr(A) = 2λ. On a donc bien
M + M ⊤ = tr(M)A et M ∈ ΔA . Ainsi ΔA ∩ 𝒮𝑛 (ℂ) = vect(A).
On a donc ΔA = 𝒜𝑛 (ℂ) ⊕ vect(A).
Solution 70
ℳ𝑛 (𝕂) ⟶ 𝕂
1. a. L’application φ ∶ { est une forme linéaire non nulle. Comme 𝒩𝑛 = Ker φ, 𝒩𝑛 est un hyperplan de
M ⟼ tr(M)
ℳ𝑛 (𝕂), c’est-à-dire un sous-espace vectoriel de ℳ𝑛 (𝕂) de dimension 𝑛2 − 1.
b. Soit M ∈ ℒ𝑛 . Il existe donc (A, B) ∈ ℳ𝑛 (𝕂)2 tel que M = [A, B]. Alors tr(M) = tr(AB) − tr(BA) = 0 et donc M ∈ 𝒩𝑛 . On a
donc ℒ𝑛 ⊂ 𝒩𝑛 .
2. a. Soient D une matrice de ℳ𝑛 (𝕂) de diagonale nulle et M ∈ ℳ𝑛 (𝕂) semblable à D. Il existe donc P ∈ GL𝑛 (𝕂) telle que
M = P−1 DP. Alors
tr(M) = tr(P−1 DP) = tr(PP−1 D) = tr(D) = 0
et M ∈ 𝒩𝑛 .
b. On raisonne par récurrence sur 𝑛.
Pour 𝑛 = 1, il n’y a rien à faire puisque la seule matrice de 𝒩1 est la matrice nulle.
Supposons le résultat établi pour un certain 𝑛 ∈ ℕ∗ . Soit M ∈ 𝒩𝑛+1 . On montre d’abord que M est semblable à une matrice dont
le coefficient sur la première ligne et la première colonne est nul. Pour cela, notons 𝑓 l’endomorphisme de 𝕂𝑛+1 canoniquement
associé à M. Si 𝑓 est une homothétie, alors son rapport est nécessairement nul puisque tr(M) = 0. Ainsi M = 0 et il n’y a rien à
faire. Sinon on montre classiquement qu’il existe 𝑥 ∈ 𝕂𝑛+1 tel que la famille (𝑥, 𝑓(𝑥)) soit libre. On complète cette famille en une
base de 𝕂𝑛+1 . On note M ′ la matrice de 𝑓 dans cette base. Alors M et M ′ sont bien semblables et M ′ est bien de la forme voulue.
⎛ 0 ∗⋯∗ ⎞
On a donc M ′ = ⎜ ∗ ″
⎟. Puisque M et M ′ sont semblables, tr(M) = tr(M ′ ) = 0. On en déduit tr(M ″ ) = 0. On peut alors
⎜ ⋮ M ⎟
⎝ ∗ ⎠
appliquer l’hypothèse de récurrence à M ″ . Il existe donc P ∈ GL𝑛 (𝕂) telle que D = P−1 M ″ P soit une matrice de diagonale nulle.
http://lgarcin.github.io 47
© Laurent Garcin MP Dumont d’Urville
c. Soit M ∈ 𝒩𝑛 . D’après la question précédente, il existe une matrice A ∈ ℳ𝑛 (𝕂) de diagonale nulle semblable à M. Soient
λ1 , … , λ𝑛 ∈ 𝕂 des scalaires distincts deux à deux. On note D la matrice diagonale dont les coefficients diagonaux sont λ1 , … , λ𝑛 .
A𝑖𝑗
si 𝑖 ≠ 𝑗
Enfin, on définit une matrice B ∈ ℳ𝑛 (𝕂) en posant B𝑖𝑗 = { 𝑖−λ𝑗 λ . On vérifie que A = DB − BD. Comme M est
0 sinon
semblable à A, il existe P ∈ GL𝑛 (𝕂) telle que M = P−1 AP ou encore
M = (P−1 DP)(P−1 BP) − (P−1 BP)(P−1 DP)
Ainsi M ∈ ℒ𝑛 .
Solution 71
Notons (E𝑖𝑗 )1≤𝑖,𝑗≤𝑛 la base canonique de ℳ𝑛 (𝕂). On rappelle que pour tout (𝑖, 𝑗, 𝑘, 𝑙) ∈ ℳ𝑛 (𝕂)4 , E𝑖𝑗 E𝑘𝑙 = δ𝑗𝑘 E𝑖𝑙 .
Soit (𝑖, 𝑗) ∈ J1, 𝑛K2 tel que 𝑖 ≠ 𝑗. Alors E𝑖𝑖 − E𝑗𝑗 = E𝑖𝑗 E𝑗𝑖 − E𝑗𝑖 E𝑖𝑗 et donc 𝑓(E𝑖𝑖 ) = 𝑓(E𝑗𝑗 ). On en déduit qu’il existe λ ∈ 𝕂 tel que 𝑓(E𝑖𝑖 ) = λ
pour tout 𝑖 ∈ J1, 𝑛K.
Soit à nouveau (𝑖, 𝑗) ∈ J1, 𝑛K2 tel que 𝑖 ≠ 𝑗. Alors E𝑖𝑗 = E𝑖1 E1𝑗 − E1𝑗 E𝑖1 . On en déduit que 𝑓(E𝑖𝑗 ) = 0.
Finalement,
• 𝑓(E𝑖𝑖 ) = λ = λ tr(E𝑖𝑖 ) pour tout 𝑖 ∈ J1, 𝑛K ;
• 𝑓(E𝑖𝑗 ) = 0 = λ tr(E𝑖𝑗 ) pour tout (𝑖, 𝑗) ∈ J1, 𝑛K2 tel que 𝑖 ≠ 𝑗.
Les formes linéaires 𝑓 et λ tr coïncident sur la base canonique de ℳ𝑛 (𝕂) : elles sont donc égales.
1 1 1
1. On a clairement Im A = vect (( )). Donc (( )) est une base de Im A. On vérifie que ( ) ∈ Ker A. Or d’après le théorème du
1 1 −1
1 1
rang dim Ker A = 1 donc Ker A = vect (( )) et (( )) est une base de Ker A.
−1 −1
http://lgarcin.github.io 48
© Laurent Garcin MP Dumont d’Urville
2. Le noyau de A est non nul donc A n’est pas inversible. On peut aussi dire que rg(A) = 1 ≠ 2.
3. On a X(X + I2 ) = A. Or un produit de matrices est inversible. A n’étant pas inversible, on a X ou X + I2 non inversible.
4. a. On a A = X(X + I2 ) donc Im A ⊂ Im X et A = (X + I2 )X donc Ker X ⊂ Ker A.
b. Comme X n’est pas inversible, Ker X ≠ {0} et dim Ker X ≥ 1. Or dim Ker A = 1 donc d’après la question précédente dim Ker X =
1 et Ker X = Ker A.
Par le théorème du rang, rg X = 1. Et on sait que rg A = 1. Donc d’après la question précédente, Im X = Im A.
1 𝑥 𝑦 1
c. On a Im X = Im A = vect (( )) donc il existe (𝑥, 𝑦) ∈ ℝ2 tel que X = ( ). Or ( ) ∈ Ker A = Ker X donc 𝑥 = 𝑦. Il
1 𝑥 𝑦 −1
existe donc 𝑥 ∈ ℝ tel que X = 𝑥A. Or la matrice nulle n’est pas solution de l’équation de l’énoncé donc 𝑥 ≠ 0. Comme A2 = 2A,
1 1
en reportant dans l’équation, on obtient 2𝑥2 + 𝑥 = 1 donc 𝑥 = −1 ou 𝑥 = . Ainsi X = −A ou X = A.
2 2
5. Y n’est donc pas inversible. L’équation initiale équivaut à Y + Y = A. En se reportant au cas précédent, on aboutit à Y = −A ou
2
1 1
Y = A i.e. X = A − I2 ou X = − A − I2 .
2 2
6. On a vu qu’une solution X était nécessairement dans {−A, A, A − I2 , − A − I2 }. On vérifie également que toutes ces matrices sont
1 1
2 2
bien solutions. On en déduit que les solutions sont
−1 −1 1 1 1 0 1 1 −3 −1
( ), ( ), ( ), ( )
−1 −1 2 1 1 1 0 2 −1 −3
Solution 75
0 1
1. Notons A = ( ). On a Im A = Im XY ⊂ Im X. Or rg A = 1 donc rg X ≥ 1. De plus, Ker Y ⊂ Ker XY = Ker A. Comme rg A = 1,
0 0
dim Ker A = 1. Donc dim Ker Y ≤ 1.
Comme YX = 0, Im X ⊂ Ker Y. Or on a montré que dim Ker Y ≤ 1 donc rg X ≤ 1. Finalement, rg X = 1 et rg Y = 1.
2. On a Im A ⊂ Im X et rg A = rg X = 1 donc Im X = Im A. Or Im A = vect(𝑒1 ) où 𝑒1 est le premier vecteur de la base canonique de ℝ2 .
𝑎 𝑏
Donc A est de la forme ( ) avec 𝑎 et 𝑏 non tous deux nuls.
0 0
0 𝑐
Par ailleurs, Im X ⊂ Ker Y et rg X = dim Ker Y = 1 donc Im X = Ker Y. Y est donc de la forme ( ) avec 𝑐 et 𝑑 non tous deux
0 𝑑
nuls.
3. La condition XY = A donne 𝑎𝑐 + 𝑏𝑑 = 1. Réciproquement, si 𝑎, 𝑏, 𝑐, 𝑑 sont 4 réels tels que 𝑎𝑐 + 𝑏𝑑 = 1, le couple de matrices
𝑎 𝑏 0 𝑐
(X, Y) = (( ),( )) est bien solution du système.
0 0 0 𝑑
Solution 76
Remarquons d’abord que si X est une solution, alors tr(X) + tr(X) tr(A) = 0 i.e. tr(X)(tr(A) + 1) = 0 par linéarité de la trace. On est donc
amené à distinguer deux cas.
Cas tr(A) ≠ −1 Si X est solution, on a tr(X) = 0 d’après ce qui précède. Mais alors X = 0. On vérifie que 0 est bien solution de l’équation.
Cas tr(A) = −1 Si X est solution, alors X est de la forme X = λA avec λ ∈ ℝ. Réciproquement si X = λA avec λ ∈ ℝ, alors X + tr(X)A =
λA + λ tr(A)A = 0 donc X est bien solution.
Récapitulons : si tr(A) ≠ −1, la seule solution est la solution nulle ; si tr(A) = −1, l’ensemble des solutions est vect(A).
http://lgarcin.github.io 49
© Laurent Garcin MP Dumont d’Urville
Systèmes linéaires
Solution 77
1 2 −1 𝑎 2 −1
( −2 −3 3 𝑏 ) ←
−+
1 1 −2 𝑐 ←−−−− +
1 2 −1 𝑎
( 0 1 1 𝑏 + 2𝑎 )
0 −1 −1 𝑐−𝑎 ←
−+
1 2 −1 𝑎
( 0 1 1 𝑏 + 2𝑎 )
0 0 0 𝑎+𝑏+𝑐
𝑥 + 2𝑦 − 𝑧 = 𝑎
{ 𝑦 + 𝑧 = 𝑏 + 2𝑎
0 = 𝑎+𝑏+𝑐
qui admet une solution si et seulement si 𝑎 + 𝑏 + 𝑐 = 0. Géométriquement cela signifie qu’un point de ℝ3 est une image par l’application
⎛𝑥⎞ ⎛ 𝑥 + 2𝑦 − 𝑧 ⎞
3 3 ⎜ 𝑦 ⎟ ⟼ ⎜ −2𝑥 − 3𝑦 + 3𝑧 ⎟
ℝ ⟶ℝ ,
⎜ ⎟ ⎜ ⎟
⎝𝑧⎠ ⎝ 𝑥 + 𝑦 − 2𝑧 ⎠
si et seulement si il est dans le plan d’équation 𝑥 + 𝑦 + 𝑧 = 0.
Dans ce cas le système est équivalent à
𝑥 + 2𝑦 − 𝑧 = 𝑎
{
𝑦 + 𝑧 = 𝑎−𝑐
qu’on résoud en remontant du bas vers le haut. On trouve
⎛ 𝑥 ⎞ ⎛ 2𝑐 − 𝑎 + 3𝑧 ⎞
⎜ 𝑦 ⎟=⎜ 𝑎−𝑐−𝑧 ⎟ où 𝑧 ∈ ℝ.
⎜ ⎟ ⎜ ⎟
⎝𝑧⎠ ⎝ 𝑧 ⎠
⎛ 2𝑐 − 𝑎 ⎞ ⎛ 3 ⎞
𝒟 = ⎜ 𝑎 − 𝑐 ⎟ + ℝ ⎜ −1 ⎟ .
⎜ ⎟ ⎜ ⎟
⎝ 0 ⎠ ⎝ 1 ⎠
Solution 78
http://lgarcin.github.io 50
© Laurent Garcin MP Dumont d’Urville
1. Pivot de Gauss :
2 −1 4 −4 −3 −5
( 3 2 −3 17 ) | 2 ←
−+
5 −3 8 −10 | 2 ←−−−−− +
2 −1 4 −4
( 0 7 −18 46 )
0 −1 −4 0 |7 ←
−+
2 −1 4 −4
( 0 7 −18 46 )
0 0 −46 46
2𝑥 − 𝑦 + 4𝑧 = −4
{ 7𝑦 − 18𝑧 = 46
− 46𝑧 = 46
qu’on résout facilement en commençant par le bas. On trouve l’unique solution (2, 4, −1).
2.
1 −1 2 1 −3
( 3 2 −3 2 ) ←
−+
−1 6 −11 −3 02
1 −1 2 1
( 0 5 −9 −1 ) −1
0 5 −9 −2 ←
−+
1 −1 2 1
( 0 5 −9 −1 )
0 0 0 −1
Le système initial est donc équivalent à un système dont une équation est 0𝑥 + 0𝑦 + 0𝑧 = −1, ou encore 0 = −1. Il n’y a pas de (𝑥, 𝑦, 𝑧)
vérifiant cette équation. Par conséquence le système n’a pas de solution.
Remarque. On aurait déjà pu le voir une étape plus tôt, car elle contient les équations contradictoires 5𝑦 − 9 = −1 et 5𝑦 − 9 = −2.
http://lgarcin.github.io 51
© Laurent Garcin MP Dumont d’Urville
3. On commence par une permutation de lignes pour obtenir un pivot en haut à gauche.
0 2 −1 −2 ←
−
( 1 1 1 2 ) ←
−
−2 4 −5 −10
1 1 1 2 2
( 0 2 −1 −2 )
−2 4 −5 −10 ←
−+
1 1 1 2
( 0 2 −1 −2 ) −3
0 6 −3 −6 ←
−+
1 1 1 2
( 0 2 −1 −2 )
0 0 0 0
Le système initial est donc équivalent au système
𝑥 + 𝑦 + 𝑧 = 2
{ 2𝑦 − 𝑧 = −2
0 = 0.
La dernière équation est vérifiée pour tout choix de (𝑥, 𝑦, 𝑧). Elle est donc superflue et peut être omise. En résout les deux équations
restantes.
𝑥 = 2 − 𝑦 − 𝑧 = 2 − 𝑦 − (2 + 2𝑦) = −3𝑦
{
𝑧 = 2 + 2𝑦.
Le système admet donc une unfinité de solutions, à savoir tous les triplets (−3𝑦, 𝑦, 2 + 2𝑦) avec 𝑦 ∈ ℝ. L’ensemble de solutions s’écrit
aussi comme
{(0, 0, 2) + 𝑦(−3, 1, 2) | 𝑦 ∈ ℝ}
ou encore,
(0, 0, 2) + ℝ(−3, 1, 2).
Il s’agit de la droite passant par le point (0, 0, 2) est dirigée par le vecteur (−3, 1, 2).
4. On commence par une permutation de lignes puisque le pivot le plus simple à manipuler est 1.
1 1 −7 2 −3 −2 −2
⎛ ⎞
⎜ 3 2 −3 0 ⎟ ←−+
⎜ 2 1 −5 ⎟
3 ⎟ ←−−−−− +
⎜
⎝ 2 −3 8 5 ⎠ ←−−−−−−−−− +
1 1 −7 2
⎛ ⎞
⎜ 0 −1 18 −6 ⎟ −1 −5
⎜ 0 −1 9 ⎟
−1 ⎟ ←−+
⎜
⎝ 0 −5 22 1 ⎠ ←−−−−− +
1 1 −7 2
⎛ ⎞
⎜ 0 −1 18 −6 ⎟
⎜ 0 0 −9 5 ⎟⎟
⎜
⎝ 0 0 −68 31 ⎠
http://lgarcin.github.io 52
© Laurent Garcin MP Dumont d’Urville
La troisième équation donne 𝑧 = −5/9 tandis que la quatrième donne 𝑧 = −68/31 ≠ −5/9. Par conséquence le système n’a pas de
solution.
Solution 79
𝑚𝑥 + 𝑦 + 𝑧 = 1
{𝑥 + 𝑚𝑦 + 𝑧 = 𝑚
𝑥 + 𝑦 + 𝑚𝑧 = 𝑚2
(1 − 𝑚)𝑦 + (1 − 𝑚2 )𝑧 = 1 − 𝑚3 L1 ← L1 − 𝑚L3
2
⟺ { (𝑚 − 1)𝑦 + (1 − 𝑚)𝑧 = 𝑚 − 𝑚 L2 ← L2 − L3
𝑥 + 𝑦 + 𝑚𝑧 = 𝑚2
(2 − 𝑚 − 𝑚2 )𝑧 = (1 + 𝑚 − 𝑚2 − 𝑚3 ) L1 ← L1 + L2
2
⟺ {(𝑚 − 1)𝑦 + (1 − 𝑚)𝑧 = 𝑚 − 𝑚
𝑥 + 𝑦 + 𝑚𝑧 = 𝑚2
𝑚3 + 𝑚 2 − 𝑚 − 1 (𝑚 + 1)2
𝑧= =
𝑚2 + 𝑚 − 2 𝑚+2
2
𝑚−𝑚 1
𝑦= +𝑧=
𝑚−1 𝑚+2
𝑚+1
𝑥 = 𝑚2 − 𝑦 − 𝑚𝑧 = −
𝑚+2
L’ensemble des solutions est donc le singleton
𝑚+1 1 (𝑚 + 1)2
{(− , , )}
𝑚+2 𝑚+2 𝑚+2
http://lgarcin.github.io 53