16 - Sommes Directes Et Changement de Bases
16 - Sommes Directes Et Changement de Bases
16 - Sommes Directes Et Changement de Bases
2 Changement de base 19
2.1 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Diagonalisation et trigonalisation . . . . . . . . . . . . . . . . . . . . . 21
2.3 Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4 Matrices équivalentes et matrices semblables . . . . . . . . . . . . . . . 24
2.4.1 Matrices équivalentes . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.2 Propriétés du rang d’une matrice . . . . . . . . . . . . . . . . . 26
2.4.3 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . 27
3 Les hyperplans 28
3.1 En dimension quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.2 En dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3 Les hyperplans affines . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4 Application aux systèmes linéaires . . . . . . . . . . . . . . . . . . . . . 31
Sommes directes et changements de bases 1 Somme de sous-espaces vectoriels
Démonstration.
nXk o
Notons F = xi / ∀i ∈ {1, . . . , k} xi ∈ Ei .
i=1
k
X
• Pour tout i ∈ {1, . . . , k}, 0 ∈ Ei , donc 0 = 0 ∈ F . Ainsi, F 6= ∅.
i=1
Soit (α, β, x, y) ∈ K2 × F 2 . Il existe (xi )1≤i≤k ∈ E1 × · · · × Ek et
X k k
X
(yi )1≤i≤k ∈ E1 × · · · × Ek tels que x = xi et y = yi .
i=1 i=1
k
X
αx + βy = (αxi + βyi ) ∈ F , donc F est stable par combinaison linéaire.
i=1
Ainsi, F est un sous-espace vectoriel.
[k
• Soit x ∈ Ei . Il existe j ∈ {1, . . . , k} tel que x ∈ Ej .
i=1
Pour i = j, posons xi = x et pour tout i ∈ {1, . . . , k} \ {j}, posons xi = 0.
k
X
(xi )1≤i≤k ∈ E1 × · · · × Ek et x = xi , donc x ∈ F .
i=1
k
[
Ainsi F contient Ei .
i=1
k
[
• Soit G un sous-espace vectoriel qui contient Ei .
i=1
k
X
Si (x1 , . . . , xk ) ∈ E1 × · · · × Ek , xi ∈ G, donc F ⊂ G.
i=1
k
[
Ainsi F est bien le plus petit sous-espace vectoriel contenant Ei .
i=1
i) E = F ⊕ G.
ii) E = F + G et F ∩ G = {0}.
iii) ∀x ∈ E ∃!(x1 , x2 ) ∈ F × G x = x1 + x2 .
Démonstration.
F étant de dimension finie, F possède au moins une base, notée (e1 , . . . , ep ). D’après
le théorème de la base incomplète, on peut la compléter en une base e = (e1 , . . . , en )
de E. Posons G = Vect(ep+1 , . . . , en ).
X n
Soit x ∈ E, on peut écrire x = xi ei où xi ∈ K.
i=1
p n
X X
Alors x = xi e i + xi ei ∈ F + G, donc E = F + G.
i=1 i=p+1
p n
X X
Soit x ∈ F ∩ G. On peut écrire x = xi e i = xi ei , où les xi sont des scalaires.
i=1 i=p+1
p n
X X
Alors xi e i − xi ei = 0, or e est une base, donc pour tout i, xi = 0. Ainsi, x = 0,
i=1 i=p+1
puis F ∩ G = {0}. On a ainsi construit un supplémentaire de F .
Remarque. Tout sous-espace vectoriel de E possède au moins un supplémentaire, si
l’on accepte l’axiome du choix, ce qui formellement place ce résultat hors programme.
Exemple. Deux droites vectorielles D et D0 dans K2 sont supplémentaires si et
seulement si elles sont distinctes. Il est important de noter que D ∩ D0 = {0} 6= ∅
et que D ∪ D0 6= K2 , ainsi D0 n’a aucun rapport avec le complémentaire de D. En
/ D, donc x ∈ D0 ” est complètement faux.
particulier, le raisonnement “x ∈
Remarque. Plus généralement, les notions d’union d’ensembles et de somme de sous-
espaces vectoriels sont très voisines, mais il ne faut pas les confondre.
Si A et B sont deux parties d’un ensemble E, A∪B est le plus petit ensemble contenant
A et B. Si ce sont des sous-espaces vectoriels, A + B est le plus petit espace vectoriel
contenant A et B.
Ainsi, la somme de sous-espaces vectoriels est à l’algèbre linéaire ce qu’est l’union de
parties à la théorie des ensembles.
Cependant, et nous insistons, la somme de deux sous-espaces vectoriels n’est pas l’union
de ces deux sous-espaces vectoriels.
En particulier, la situation suivante est possible. E = F ⊕ G, x ∈ E, x ∈ / F et x ∈/ G.
Propriété. On suppose que la caractéristique de K est différente de 2.
Mn (K) = Sn (K) ⊕ An (K). Pour tout M ∈ Mn (K), la décomposition de M selon cette
1 1
somme directe est M = (M + t M ) + (M − t M ).
2 2
n(n + 1) n(n − 1)
De plus dim(Sn (K)) = et dim(An (K)) = .
2 2
Démonstration.
1 1
Pour tout M ∈ Mn (K), M = (M + t M ) + (M − t M ) ∈ Sn (K) + An (K), donc
2 2
Mn (K) = Sn (K) + An (K). De plus, si M ∈ Sn (K) ∩ An (K), alors M = t M = −M ,
donc M = 0. Ainsi, Mn (K) = Sn (K) ⊕ An (K).
Soit M ∈ An (K).
XOn sait alors que
Xpour tout i, Mi,i = 0,
donc (1) : M = Mi,j Ei,j = Mi,j (Ei,j − Ej,i ), or pour tout i, j,
1≤i,j≤n 1≤i<j≤n
Ei,j − Ej,i ∈ A
Xn (K), donc (Ei,j − Ej,i )1≤i<j≤n est une famille génératrice de An (K).
De plus si Mi,j (Ei,j − Ej,i ) = 0, pour une famille de scalaires (Mi,j )1≤i<j≤n ,
1≤i<j≤n
en posant pour i > j, Mi,j = −Mj,i et pour i = j, Mi,i = 0, la relation (1) affirme
que (Mi,j ) = 0, donc (Ei,j − Ej,i )1≤i,j≤n est libre. C’est
une base de An (K), dont la
n n(n − 1)
dimension vaut donc |{(i, j) ∈ N/1 ≤ i < j ≤ n}| = = .
2 2
Remarque. Lorsque car(K) = 2, Sn (K) = An (K).
Exercice. Soit n ∈ N et P un polynôme de K[X] de degré n + 1.
Montrer que l’idéal P K[X] est un supplémentaire de Kn [X] dans K[X].
Solution : D’après le principe de la division euclidienne, pour tout S ∈ K[X],
il existe un unique couple (Q, R) ∈ K[X]2 tel que S = P Q + R et deg(R) ≤ n,
c’est-à-dire qu’il existe un unique couple (T, R) ∈ K[X]2 tel que S = T + R,
T ∈ P K[X] et R ∈ Kn [X].
Ainsi, K[X] = Kn [X] ⊕ P K[X].
Théorème.
M Soit (Ei )1≤i≤k une famille de k sous-espaces vectoriels de E telle que
E= Ei . Soit F un second K-espace vectoriel et, pour tout i ∈ {1, . . . , k}, soit ui
1≤i≤k
une application linéaire de Ei dans F .
Il existe une unique application linéaire u de E dans F telle que,
pour tout i ∈ {1, . . . , k}, la restriction de u à Ei est égale à ui .
Ainsi, pour définir une application linéaire u de E dans F , on peut se contenter de
préciser ses restrictions aux sous-espaces vectoriels Ei .
Démonstration.
Unicité. Supposons qu’il existe une application linéaire u de E dans F telle que,
pour tout i ∈ {1, . . . , k}, la restriction de u à Ei est égale à ui .
Xk
Soit x ∈ E. Il existe un unique (xi )1≤i≤k tel que, pour tout i, xi ∈ Ei et x = xi .
i=1
k
X k
X
Alors u(x) = u(xi ) = ui (xi ), ce qui prouve l’unicité : u est nécessairement
i=1 i=1
k
X k
X
l’application qui à x ∈ E associe ui (xi ) où xi est l’unique décomposition de x
i=1 i=1
Remarque. Une erreur fréquente est de croire que (Ei )1≤i≤k constitue une somme
directe si et seulement si, pour tout (i, j) ∈ {1, . . . , k}, avec i 6= j, Ei ∩ Ej = {0}.
C’est faux. En effet, la figure représente trois droites vectorielles d’un plan vectoriel
P , notées D1 , D2 et D3 . On sait qu’elles sont deux à deux en somme directe, donc
D1 ∩ D2 = D1 ∩ D3 = D2 ∩ D3 = {0}. Cependant, D1 , D2 et D3 ne sont pas en somme
directe, car il est facile de dessiner sur la figure ci-dessus 3 vecteurs non nuls sur D1 , D2
et D3 dont la somme est nulle.
Théorème. Soit E un K-espace vectoriel muni d’une base (ei )i∈I . Soit (Ik )1≤k≤n une
n
M
partition de I. Pour tout k ∈ {1, . . . , n}, on pose Ek = Vect(ei )i∈Ik . Alors E = Ek .
k=1
Démonstration. X
• Soit x ∈ E. il existe (αi )i∈I ∈ K(I) telle que x = αi ei .
! i∈I
Xn X X n X n
x= αi e i ∈ Ek , ainsi E = Ek .
k=1 i∈Ik k=1 k=1
Xn
• Soit (xk )1≤k≤n ∈ E1 × · · · × En tel que xk = 0.
k=1 X
Pour tout k ∈ {1, . . . , n}, il existe (αi )i∈Ik ∈ K(Ik ) telle que xk = αi ei .
i∈Ik
n
X X
Ainsi 0 = xk = αi ei , or (ei ) est une famille libre, donc, pour tout i ∈ I, αi = 0.
k=1 i∈I
Ainsi, pour tout k ∈ {1, . . . , n}, xk = 0, ce qui prouve que la somme est directe.
Théorème réciproque. Soit (Ek )1≤k≤n une famille de sous-espaces vectoriels d’un
Mn
K-espace vectoriel E tels que E = Ek . Pour tout k ∈ {1, . . . , n}, on suppose que
k=1
Ek admet une base bk . Alors la concaténation des bases (bk )1≤k≤n , notée b, est une base
de E. On dit que b est une base adaptée à la décomposition en somme directe
M n
E= Ek .
k=1
Démonstration.
• Soit k ∈ {1, . . . , n}. Notons bk = (ei )i∈Ik . On peut supposer que les Ik sont deux
[n
à deux disjoints. Notons I = Ik . Ainsi b = (ei )i∈I . C’est en ce sens que b est la
k=1
concaténation des bases (bk )1≤k≤n
X.
(I)
• Soit (αi )i∈I ∈ K telle que αi ei = 0.
! i∈I
Xn X X
0= αi ei et pour tout k ∈ {1, . . . , n}, αi ei ∈ Ek . Or E1 , . . . , En forment
k=1 i∈Ik i∈Ik
X
une somme directe, donc, pour tout k ∈ {1, . . . , n}, αi ei = 0. De plus, pour tout
i∈Ik
k ∈ {1, . . . , n}, bk = (ei )i∈Ik est libre, donc, pour tout i ∈ I, αi = 0, ce qui prouve que
b est une famille libre. n
X
• Soit x ∈ E. Il existe (xk )1≤k≤n ∈ E1 × · · · × En tel que x = xk .
k=1
1.5.1 Définitions
h
X
Prenons l’image de (1) par u. Ainsi, −λh+1 xh+1 = λ j xj .
j=1
X h
Multiplions (1) par λh+1 . Ainsi, −λh+1 xh+1 = λh+1 xj .
j=1
h
X
Effectuons la différence des deux égalités précédentes. 0 = (λj − λh+1 )xj .
j=1
Or, pour tout j ∈ Nh , (λj − λh+1 )xj ∈ Eλj , et, d’après R(h), la famille (Eλj )1≤j≤h
constitue une somme directe. Ainsi, si j ∈ Nh , (λj − λh+1 )xj = 0, or λj − λh+1 6= 0,
donc xj = 0.
L’égalité (1) prouve alors que xh+1 = 0, ce qui montre R(h + 1).
Corollaire. Si (xi )i∈I est une famille de vecteurs propres de u associés à des valeurs
propres deux à deux distinctes, alors cette famille est libre.
Démonstration.
Pour tout i ∈ I, il existe λi ∈ Sp(u) tel que u(xi ) = λi xi .
De plus, par hypothèse, pour tout (i, j) ∈ I 2 tel que i 6= j, X
λi 6= λj .
Soit (αi )i∈I une famille presque nulle de scalaires telle que αi xi = 0.
i∈I
Supposons que (αi ) est une famille non nulle. Posons J = {i ∈ I/αi 6= 0}. J étant fini
Xnon vide, les sous-espaces propres Eλi , pour i ∈ J, constituent une somme directe,
mais
or αi xi = 0 et, pour tout i ∈ J, αi xi ∈ Eλi , donc, pour tout i ∈ J, αi xi = 0.
i∈J
Les xi étant des vecteurs propres, ils sont non nuls, donc, pour tout i ∈ J, αi = 0, ce
qui est faux. Ainsi la famille (αi )i∈I est nulle, ce qui prouve que la famille (xi )i∈I est
libre.
Exemple. Reprenons pour E l’ensemble des applications de classe C ∞ de R dans R et
E −→ E f : R −→ R
pour u, . En posant λ , l’étude précédente de u montre
f 7−→ f 0 x 7−→ eλx
que (fλ )λ∈R est une famille libre de E.
1.5.2 Exemples
Démonstration.
• Supposons que u = λIdE , où λ ∈ K.
Pour tout x ∈ E \ {0}, u(x) = λx, donc x est un vecteur propre associé à λ.
Ainsi Sp(u) = {λ} et Eλ = E.
• Supposons que u est le projecteur sur F parallèlement à G.
x ∈ F ⇐⇒ u(x) = x, or F 6= {0}, donc 1 ∈ Sp(u) et F = E1 .
x ∈ G ⇐⇒ u(x) = 0, or G 6= {0}, donc 0 ∈ Sp(u) et G = E0 .
Supposons qu’il existe une troisième valeur propre λ ∈ K \ {0, 1}.
Alors Eλ ⊕ (E0 ⊕ E1 ) = E, donc d’après le lemme, Eλ = {0}, ce qui est impossible.
Ainsi, u admet 0 et 1 pour seules valeurs propres.
On a montré que Sp(u) = {0, 1}, avec E0 = G et E1 = F .
• Supposons que u est la symétrie par rapport à F parallèlement à G.
x ∈ F ⇐⇒ u(x) = x, or F 6= {0}, donc 1 ∈ Sp(u) et F = E1 .
x ∈ G ⇐⇒ u(x) = −x, or G 6= {0}, donc −1 ∈ Sp(u) et G = E−1 .
Comme dans le cas du projecteur, on montre que 1 et −1 sont les seules valeurs propres
de u.
1.5.3 Propriétés
Propriété.
Si v ∈ L(E) commute avec u, les sous-espaces propres de u sont stables par v.
Démonstration.
Supposons que v et u commutent. Soit λ ∈ Sp(u).
Soit x ∈ Eλu . u(v(x)) = v(u(x)) = v(λx) = λv(x), donc v(x) ∈ Eλu .
Ainsi, v(Eλu ) ⊂ Eλu .
Propriété. Soit F un sous-espace vectoriel de E stable par u.
On note u/F l’endomorphisme induit par u sur F .
u
Alors Sp(u/F ) ⊂ Sp(u) et pour tout λ ∈ Sp(u/F ), Eλ /F = Eλu ∩ F .
Démonstration.
Soit λ ∈ Sp(u/F ). Il existe x ∈ F \ {0} tel que u/F (x) = λx,
or u/F (x) = u(x), donc λ ∈ Sp(u).
u
De plus, si x ∈ F , x ∈ Eλ /F ⇐⇒ u/F (x) = λx ⇐⇒ u(x) = λx ⇐⇒ x ∈ Eλu ,
u
donc Eλ /F = Eλu ∩ F .
2 Changement de base
2.1 Matrice de passage
Notation. On fixe un K-espace vectoriel E de dimension finie égale à n ∈ N∗ .
Propriété. Soit e = (e1 , . . . , en ) une base de E et f = (fj )1≤j≤n ∈ E n une famille de
n vecteurs de E. Pour tout j ∈ Nn , on pose pi,j = e∗i (fj ) : c’est la ième coordonnée dans
Xn
ème
la base e du j vecteur de la famille f . Ainsi, pour tout j ∈ Nn , fj = pi,j ei .
i=1
f est une base si et seulement si la matrice P = (pi,j ) est inversible. Dans ce cas, P
est noté Pef (ou bien Pe→f ) et on dit que Pef = (pi,j ) est la matrice de passage de
la base e vers la base f .
Démonstration.
P = mat(u, e) où u est l’unique endomorphisme tel que u(e) = f . P est inversible si et
seulement si u est inversible, ce qui est vrai si et seulement si f est une base de E.
Interprétation tabulaire : Avec les notations précédentes,
f1 ··· fn
p1,1 ··· p1,n e1
Pef = .. .. .. .
. . .
pn,1 ··· pn,n en
Démonstration.
Soit P ∈ GLn (K). Si f est une base telle que P = Pef , alors pour tout j ∈ Nn ,
Xn
fj = Pi,j ei , ce qui prouve l’unicité de f .
i=1
Posons f = u(e), où u est l’unique automorphisme de E tel que P = mat(u, e). Alors
f = u(e) est une base et P = Pef . Ceci prouve l’existence.
0 0
Propriété. Soit e et e0 deux bases de E. Alors Pee = mat(IdE , e0 , e) = mat(IdE )ee .
Remarque. ci-dessous, nous réutilisons la notation x̂ définie dans le cours sur les
matrices, page 24.
Formule de changement de base pour les vecteurs :
Soit e et e0 deux bases de E. Soit x ∈ E.
−1
On pose X = Ψ−1 0
e (x) (resp : X = Ψe0 (x)) le vecteur colonne des coordonnées de x
dans la base e (resp : dans la base e0 ).
On notera indifféremment X = Ψ−1 1
e (x) = mat(x̂, 1, e) = mat(x̂)e = mat(x)e .
0 −1
De même on pose X = Ψe0 (x) = mat(x)e0 .
0 0
Alors, X = Pee X 0 , ou encore mat(x)e = Pee mat(x)e0 .
Démonstration.
X = mat(x̂, 1, e) = mat(IdE ◦ x̂, 1, e) = mat(IdE , e0 , e) × mat(x̂, 1, e0 )).
Remarque. Cette formule n’est pas naturelle. En effet, P étant appelée la matrice
de passage de la base (ancienne) e vers la (nouvelle) base e0 , on est plutôt en droit
d’attendre qu’elle permette d’exprimer simplement les nouvelles coordonnées X 0 en
fonction des anciennes coordonnées X, or c’est l’inverse qui se produit.
Exemple. Soit E un R-plan vectoriel muni d’une base (i, j). Soit θ ∈ R. On pose
cos θ − sin θ
uθ = (cos θ)i + (sin θ)j et vθ = −(sin θ)i + (cos θ)j. Posons P = :
sin θ cos θ
(u ,v )
det(P ) = 1 6= 0, donc P est inversible. Ainsi (uθ , vθ ) est une base de E et P = P(i,j)θ θ .
Soit M un point de E. Notons (x0 , y0 )les
coordonnées de Mdans (i, j) et (xθ , yθ ) ses
x0 cos θ − sin θ xθ
coordonnées dans (uθ , vθ ). Alors = , donc en inversant
y0 sin θ cos θ y θ
xθ cos θ sin θ x0
cette relation, = .
yθ − sin θ cos θ y0
Formule. Si e, e0 et e00 sont trois bases de E, Pee” = Pee Pee”0 et (Pee )−1 = Pee0 .
0 0
Démonstration.
0
IdE = IdE ◦ IdE et Pee × Pee0 = Pee = In .
Formule de changement de bases pour les applications linéaires :
Soient E et F deux K-espaces vectoriels de dimensions finies.
On suppose que e et e0 sont deux bases de E et que f et f 0 sont deux bases de F .
Démonstration.
u = IdF ◦ u ◦ IdE .
Formule de changement de bases pour les endomorphismes :
Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). On suppose que e et e0
0
sont deux bases de E. Notons M = mat(u, e), M 0 = mat(u, e0 ) et P = Pee . Alors,
M 0 = P −1 M P .
D’après la formule
de changement
de bases pour les endomorphismes, M = P DP −1 ,
1 2 1
e
où P = Pc = −1 0 0 .
0 1 −1
Définition. Soit E un K-espace vectoriel de dimension n ∈ N∗ et u ∈ L(E).
Les propriétés suivantes sont équivalentes.
i) Il existe une base e de E telle que mat(u, e) est diagonale.
ii) Il existeM une base de E constituée de vecteurs propres de u.
iii) E = Eλu .
λ∈SpK (u)
X
iv) n = dim(Eλu ).
λ∈SpK (u)
Lorsqu’elles sont vraies, on dit que u est diagonalisable.
Démonstration.
• i)=⇒ii). Supposons qu’il existe une base e = (e1 , . . . , en ) de E telle mat(u, e) est
diagonale. Soit j ∈ Nn . La j ème colonne de mat(u, e) a tous ses coefficients nuls, sauf
éventuellement le j ème , donc u(ej ) est colinéaire à ej . Ainsi, pour tout j ∈ Nn , ej est
un vecteur propre de u.
• ii)=⇒iii). Supposons qu’il existe une base e = (e1 , . . . , en ) de E constituée de vec-
teurs propres de u. M
Soit j ∈ Nn . Il existe µ ∈ Sp(u) telle que ej ∈ Eµu , donc ej ∈ Eλu .
λ∈SpK (u)
M M
Ainsi, {e1 , . . . , en } ⊂ Eλu , donc E = V ect({e1 , . . . , en }) ⊂ Eλu .
λ∈SpK (u) λ∈SpK (u)
M
• iii)=⇒iv). Supposons que E = Eλu .
λ∈SpK (u)
M X
Alors, n = dim(E) = dim Eλu = dim(Eλu ).
λ∈SpK (u) λ∈SpK (u)
X
• iv)=⇒i). Supposons que n = dim(Eλu ).
λ∈SpK (u)
Pour tout λ ∈ SpK (u), choisissons une base de Eλu , notée eλ . D’après le théorème
de la base adaptée à une décomposition en somme directe, la “réunion” des eλ pour
λX∈ SpK (u) est une famille libre de E. De plus elle est de cardinal
dim(Eλu ) = n = dim(E), donc c’est une base de E, constituée de vecteurs
λ∈SpK (u)
propres de u. Ainsi, la matrice de u dans cette base est diagonale.
Propriété. les homothéties, les projecteurs et les symétries sont diagonalisables.
Démonstration.
On a déjà vu que, pour chacun de ces endomorphismes, la somme des sous-espaces
propres est égale à l’espace E en entier.
Démonstration.
Soient e et f deux bases de E.
mat(u, e) et mat(u, f ) sont deux matrices semblables, donc elles ont la même trace.
Propriété. Soit E un K-espace vectoriel de dimension finie.
Pour tout u, v ∈ L(E), Tr(uv) = Tr(vu).
Propriété. Soit E un K-espace vectoriel de dimension finie.
Si p est un projecteur de E, alors Tr(p) = rg(p).
Démonstration.
Il existe F et G avec E = F ⊕ G tels que p est le projecteur sur F parallèlement à G.
Notons rg(p) = r = dim(F ) et n = dim(E). Considérons une base (e1 , . . . , er ) de F et
une base (er+1 , . . . , en ) de G. La famille de vecteurs e = (e1 , . . . , en ) est une base de E,
adaptée à la décomposition en somme directe E = F ⊕ G.
Ir 0r,n−r
La matrice de p dans e est égale à la matrice blocs suivante : , dont
0n−r,r 0n−r,n−r
la trace vaut r. Ainsi Tr(p) = r = rg(p).
⇐= : par hypothèse, il existe deux matrices inversibles P (qui provient des opérations
élémentaires portant sur les colonnes) et Q (qui provient des opérations élémentaires
portant sur les lignes) telles que M 0 = QM P , donc M et M 0 sont équivalentes.
=⇒ : par hypothèse, il existe deux matrices inversibles P et Q telles que M 0 = QM P .
D’après l’algorithme de Gauss-Jordan d’inversion d’une matrice, la matrice inver-
sible Q peut être transformée en la matrice identité par une succession d’opérations
élémentaires portant sur les lignes. Ces opérations élémentaires correspondent globale-
ment au fait de multiplier Q à sa gauche par une matrice Q0 , donc ces mêmes opérations
transforment M 0 en Q0 M 0 = (Q0 Q)M P = M P . On raisonne de même à droite pour la
matrice P en utilisant des opérations élémentaires portant sur les colonnes.
Théorème. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0
et n > 0, et soit u ∈ L(E, F ). Notons r le rang de u.
Il existe une base e de E et une base f de F telles que mat(u, e, f ) admet la décomposition
en blocs suivante :
Ir 0r,p−r
mat(u, e, f ) = .
0n−r,r 0n−r,p−r
Pour la suite, cette matrice sera notée Jn,p,r .
Démonstration.
D’après la formule du rang, dim(Ker(u)) = p − r : notons (er+1 , . . . , ep ) une base de
Ker(u), que l’on complète en une base e = (e1 , . . . , ep ) de E.
Posons H = Vect(e1 , . . . , er ) : d’après le théorème de la base adaptée à une décomposition
Im(u)
en somme directe, E = H ⊕ Ker(u). On sait alors que u|H est un isomorphisme,
donc (u(e1 ), . . . , u(er )) est une base de Im(u), que l’on complète en une base
f = (u(e1 ), . . . , u(er ), fr+1 , . . . , fn ) de F . Alors mat(u, e, f ) = Jn,p,r .
Propriété. Si M ∈ MK (n, p), M est équivalente à Jn,p,r , où r désigne le rang de M .
Démonstration.
Notons u l’application linéaire canoniquement associée à M .
p n
u a pour rang r, donc il existe une
base e de K et une base f de K telles que
Ir 0r,p−r
mat(u, e, f ) = = Jn,p,r . Or, dans les bases canoniques de Kp et de
0n−r,r 0n−r,p−r
Kn , la matrice de u est M , donc M et Jn,p,r sont équivalentes.
Corollaire. Deux matrices sont équivalentes si et seulement si elles ont le même rang.
Démonstration.
Soient M et M 0 deux matrices de MK (n, p). Si M et M 0 ont le même rang noté r, elles
sont toutes deux équivalentes à Jn,p,r , donc M est équivalente à M 0 .
Réciproquement, supposons que M est équivalente à M 0 Il existe P ∈ GLp (K) et
Q ∈ GLn (K) telles que M 0 = Q−1 M P , donc, P étant inversible, rg(M 0 ) = rg(Q−1 M ),
puis rg(M 0 ) = rg(M ).
4 5 6 15
colonne est la somme des précédentes, mais M est de rang supérieur ou égal à 3, car
3 Les hyperplans
Dans tout ce chapitre, on fixe un K-espace vectoriel E, où K est un corps.
Démonstration. n n
X X
Soit Ψ ∈ E ∗ : Pour tout x ∈ E, x = e∗i (x)ei , donc Ψ(x) = e∗i (x)Ψ(ei ).
i=1 i=1
n
X
Ainsi, Ψ = Ψ(ei )e∗i ∈ Vect(e∗1 , . . . , e∗n ).
i=1
Ceci prouve que e∗ est une famille génératrice de E ∗ . De plus
dim(L(E, K)) = dim(E) × dim(K) = n, donc e∗ est une base de E ∗ .
Remarque.
Les hyperplans de E sont les sous-espaces vectoriels de E de dimension n − 1.
Définition. Soit e = (e1 , . . . , en ) une base de E et H un hyperplan de E.
Xn
∗
Si H = Ker(ψ), où ψ ∈ E , en notant ψ = αi e∗i , l’équation de l’hyperplan H
i=1
n
X n
X
devient x = xi ei ∈ H ⇐⇒ αi xi = 0 : (E). On dit que (E) est une équation
i=1 i=1
cartésienne de l’hyperplan H, c’est-à-dire une condition nécessaire et suffisante portant
sur les coordonnées de x dans la base e pour que x appartienne à H.
Démonstration. n n
hX iX X
∗
x ∈ H ⇐⇒ ψ(x) = 0, or ψ(x) = αi ei xj e j = αi xj e∗i (ej ), or e∗i (ej )
i=1 j=1 1≤i≤n
1≤j≤n
n
X
représente la i-ème coordonnée de ej , donc e∗i (ej ) = δi,j , puis ψ(x) = αi xi , ce qu’il
i=1
fallait démontrer.
Exemple. Dans un plan vectoriel rapporté à une base (~ı, ~), une droite vectorielle D
a une équation cartésienne de la forme :
→
−v = x~ı + y~ ∈ D ⇐⇒ ax + by = 0, où (a, b) ∈ R2 \ {0}.
Exemple. Dans un espace vectoriel de dimension 3 rapporté à une base (~ı, ~, ~k), un
plan vectoriel P a une équation cartésienne de la forme :
→
−
v = x~ı + y~ + z~k ∈ P ⇐⇒ ax + by + cz = 0, où (a, b, c) ∈ R3 \ {0}.
où, pour tout (i, j) ∈ {1, . . . , n} × {1, . . . , p}, αi,j ∈ K, pour tout i ∈ {1, . . . , n}, bi ∈ K,
les p inconnues étant x1 , . . . , xp , éléments de K.