Algebre Lineaire 2023-24
Algebre Lineaire 2023-24
Algebre Lineaire 2023-24
2 Bases et dimension 13
2.1 Parties génératrices et parties libres . . . . . . . . . . . . . . . . . . . 13
2.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 La dimension d’un espace vectoriel . . . . . . . . . . . . . . . . . . . 20
3 Applications linéaires 24
3.1 Définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2 Propriétés des applications linéaires . . . . . . . . . . . . . . . . . . . 27
6 Noyau et Image 48
6.1 Le rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 48
6.2 Noyau et image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
i
TABLE DES MATIÈRES ii
7 Géométrie affine 60
7.1 La géométrie affine d’un espace vectoriel . . . . . . . . . . . . . . . . 60
7.2 Transformations affines . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.3 Systèmes d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . 63
8 Dualité 66
8.1 L’espace dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
8.2 Le dual d’une application linéaire . . . . . . . . . . . . . . . . . . . . 69
8.3 L’espace bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
L’alphabet Grec 75
Ceci sont les notes de cours pour la première partie du cours MathF122: Algèbre li-
néaire et géométrie, comme il est donné dans la première année du Bachelier en Sciences
Mathématiques et Physiques à l’Université libre de Bruxelles pendant l’année acadé-
mique 2023-2024. Ces notes sont librement et partiellement basées sur les anciennes
notes de cours rédigées par Michele D’Adderio, Samuel Fiorini, Francis Buekenhout et
Jean Doyen.
Il reste sans doute encore beaucoup d’erreurs et fautes dans ces notes. Pour toute
correction ou question, le lecteur est invité à contacter les auteurs via l’adresse email
[email protected] pour la partie du premier quadrimestre et l’adresse email
[email protected] pour la partie du deuxième quadrimestre.
Les codes QR qui apparaissent parfois en marge du texte, donnent un accès direct
aux capsules vidéo, qui expliquent cette partie du théorie. Ils concernent des vidéos
réalisées pendant la crise sanitaire, souvent sous une forte pression temporelle, donc
la qualité n’est pas toujours top, mais nous espérons qu’elles pourront quand-même
servir comme support supplémentaire pour étudier le cours.
Dans cette première partie, nous développons la théorie des espaces vectoriels et des
applications linéaires entre eux, c’est-à-dire l’algèbre linéaire. Ceci mène à une théorie
qui est plus abstraite, mais aussi beaucoup plus générale et applicable comparée avec ce
qui est fait dans le cours de MATHF121. En effet, les techniques de calculs traitées dans
le cours de MATHF121 seront très utiles dans cette première partie et nous donnerons
beaucoup d’exemples des notions abstraites introduites ici et nous donnerons aussi des
outils pour les manipuler. L’algèbre linéaire est une des théories les plus centrales dans
les mathématiques. Les espaces vectoriels et les applications linéaires apparaissent en
un certain sens dans toute théorie mathématique, et aussi dans les théories physiques,
informatiques, économiques, ... .
iii
Chapitre 1
σ4 4 σ1 j σ5
.a
σ3 σ2
. .
b c
A2 A3
A1
1
CHAPITRE 1. LES ESPACES VECTORIELS SUR UN CORPS 2
Remarquons que si nous exécutons une symétrie après l’autre, le résultat est de
nouveau une symétrie. Autrement dit, nous pouvons "composer" les symétries. Plus
exactement, nous avons le tableau suivante pour ces compositions
◦ σ1 σ2 σ3 σ4 σ5 σ6
σ1 σ6 σ5 σ4 σ3 σ2 σ1
σ2 σ4 σ6 σ5 σ1 σ3 σ2
σ3 σ5 σ4 σ6 σ2 σ1 σ3
σ4 σ2 σ3 σ1 σ5 σ6 σ4
σ5 σ3 σ1 σ2 σ6 σ4 σ5
σ6 σ1 σ2 σ3 σ4 σ5 σ6
Nous appelons ce tableau un tableau de Cayley. Nous pouvons constater que la com-
position est associative, que σ6 est un élément neutre pour la composition et que tout
symétrie est inversible (pour toute symétrie donnée, il existe une (autre) symétrie tel
que la composition des deux est la symétrie idenique). En effet, tout ensemble de sy-
métries d’un objet quelconque satisfait ces trois propriétés pour la composition des
symétries. Ceci nous mène à la définition suivante.
Définitions 1.1. Un groupe est un ensemble G, muni d’une loi de composition 1
binaire, c’est-à-dire une application
∗ : G × G → G, (x, y) 7→ x ∗ y
x ∗ (y ∗ z) = (x ∗ y) ∗ z;
[G2] il existe un élément neutre, c’est-à-dire il existe un élément e ∈ G tel que pour
tous les éléments x ∈ G on a :
x ∗ e = x = e ∗ x;
[G3] tout élément de G est inversible, c’est-à-dire pour tout x ∈ G, il existe x−1 ∈ G
tel que
x ∗ x−1 = e = x−1 ∗ x.
Un groupe G est appelé un groupe commutatif ou abélien si et seulement si en
outre l’axiome suivante est satisfait:
[G4] pour tous éléments x, y ∈ G on a
x ∗ y = y ∗ x.
1. aussi appelée loi interne ou simplement loi ou composition
CHAPITRE 1. LES ESPACES VECTORIELS SUR UN CORPS 3
Cet ensemble muni de la composition naturelle des applications n’est pas un groupe,
comme il n’y a pas d’élément neutre. 3
(6) Étant donné un ensemble X, considérons l’ensemble P(X) de tous les sous-
ensembles de X. Muni de la loi suivante, P(X) est un groupe commutatif:
A∆B = (A ∪ B) \ (A ∩ B) = (A \ B) ∪ (B \ A),
inversibles (par rapport à la multiplication matricielle). Alors GLn (R) est un groupe
pour la multiplication matricielle. On appele ce groupe le groupe général linéaire
de degré n sur R. Le sous-ensemble de tous les matrices de déterminant 1 est
aussi un groupe pour la multiplication matricielle, qu’on dénote comme SLn (R) et
qu’on appelle le groupe spécial linéaire. L’ensemble de toutes les matrices A de
taille n × n qui sont inversibles et qui satisfont A−1 = At est appelé le groupe
orthogonal et est noté comme On (R). Finalement l’intersection de On (R) et de
SLn (R) est notée comme SOn (R) et forme le groupe spécial orthogonal. Tous
ces groupes sont non-commutatifs.
(8) Soient X un ensemble et (G, ∗) un groupe. Alors App(X, G) est un groupe muni
de la loi de convolution suivante
Soit e ∈ G le neutre, alors l’élément neutre de App(X, G) est donné par l’applica-
tion fe : X → G, fe (x) = e pour tout x ∈ X. Pour tout f ∈ App(X, E), l’inverse
dans App(X, G) est donné par l’application f −1 : X → G, f −1 (x) = f (x)−1 pour
tout x ∈ X. Si G est commutatif alors App(X, G) est aussi commutatif.
√ √
8. Considérons l’ensemble Q[ 2] = {a + b 2 | a, b ∈ Q} ⊂ R. Alors l’addition
et la multiplication de R induisent une structure de corps commutatif sur cet
ensemble.
9. Considérons l’ensemble R × R, des couples de nombres reéls avec l’addition et
multiplication suivantes:
Alors tous les axiomes d’un corps commutatif sont satisfaits, sauf l’existence
des inverses pour la multiplication (C9): par exemple (1, 0) n’a pas d’inverse
multiplicatif. Ceci est donc un anneau commutatif.
10. Considérons le sous-ensemble H de l’ensemble des matrices C2×2 , de tous les
matrices de la forme suivante:
z w
−w z
avec z, w ∈ C. Alors nous pouvons vérifier que H satisfait tous les axiomes d’un
corps commutatif sauf la commutativité de la multiplication, donc H est un corps
non-commutatif.
Dans la suite, nous allons toujours travailler sur un corps commutatif K (bien que
tous la théorie que nous développons reste - mutatis mutandis - valable sur un corps
non-commutatif). Comme nous n’allons pas considérer de corps non-commutatifs,
“corps” sera utilisé comme un synonyme de “corps commutatif” dans ce syllabus.
(EV4) ∀⃗v , w
⃗ ∈ V, ⃗v + w
⃗ =w
⃗ + ⃗v ;
(commutativité de l’addition)
(EV5) ∀λ, µ ∈ K, ∀⃗v ∈ V, λ(µ⃗v ) = (λµ)⃗v ;
(associativité mixte pour la multiplication scalaire)
(EV6) ∀λ, µ ∈ K, ∀⃗v ∈ V, (λ + µ)⃗v = λ⃗v + µ⃗v ;
(distributivité de la multiplication scalaire par rapport à l’addition scalaire)
(EV7) ∀λ ∈ K, ∀⃗v , w
⃗ ∈ V, λ(⃗v + w)
⃗ = λ⃗v + λw;
⃗
(distributivité de la multiplication scalaire par rapport à l’addition vectorielle)
(EV8) ∀⃗v ∈ V, 1⃗v = ⃗v ;
(1 ∈ K est l’élément neutre pour la multiplication scalaire).
Si K est le corps des réels R (respectivement des complexes C), nous parlons d’espace
vectoriel réel (respectivement complexe)
Remarque 1.7. Nous notons un élément dans un espace vectoriel comme ⃗v , donc
avec une petite flèche au dessus. En effet, les mathématiciens préfèrent plutôt de ne
pas écrire ces flèches, et donc écrivent souvent simplement v pour un élément de V .
Les physiciens prérèrent écrire ⃗v , ou parfois v ou v. Dans ce syllabus, nous utilisons la
notation ⃗v , afin de souligner la différence entre les vecteurs (les éléments de V ) et les
scalaires (les éléments du corps de base K).
pour tout λ ∈ K. Nous appelons cet espace vectoriel l’espace trivial, l’espace
zéro ou l’espace nul. Nous notons cet espace vectoriel simplement 0.
2. Chaque corps K est un espace vectoriel sur lui-même avec pour loi interne l’addi-
tion du corps, et pour la multiplication scalaire la multiplication du corps. Ainsi,
R est un espace vectoriel réel et C est un espace vectoriel complexe.
3. L’ensemble des vecteurs du plan réel, muni de l’addition des vecteurs et de la
multiplication scalaire pour les vecteurs, est un espace vectoriel réel. Si nous
fixons un point o dans le plan, et nous identifions tout point p avec le vecteur
→
−
op, nous obtenons de la même manière une structure d’espace vectoriel sur l’en-
semble des points du plan, où o est le vecteur nul. Similairement, l’ensemble
des vecteurs dans l’espace tridimensionnel et l’ensemble des points dans l’espace
tridimensionnel sont naturellement munis d’une structure d’espace vectoriel.
CHAPITRE 1. LES ESPACES VECTORIELS SUR UN CORPS 8
Remarque 1.9. Les axiomes (EV1)-(EV8) ne sont pas tous indépendants. Par exemple,
l’existence d’un inverse à droite pour l’addition mis avec la commutativité impliquent
l’existence d’un inverse à gauche.
1.3 Sous-espaces
Définition 1.11. Un sous-espace (vectoriel) W d’un espace vectoriel V sur un
corps K est un sous-ensemble W de V tel que W muni de la restriction de l’addition
et de la multiplication scalaire de V est de nouveau un espace vectoriel.
Remarque 1.12. Si W est un sous-espace de V , alors W n’est pas vide comme il doit
contenir un vecteur zéro. De plus, grace à Proposition 1.10(ii), ce vecteur zéro dans W
est exactement le vecteur ⃗0, le vecteur zéro de V . Donc si W est us sous-espace de V ,
alors ⃗0 ∈ W . La réciproque n’est pas vraie. Par exemple, soit W = {(0, 0), (0, 1)} ⊂
R2 , alors ⃗0 = (0, 0) ∈ W mais 2(0, 1) = (0, 2) ∈/ W . Le prochain but est de formuler
un critère pour vérifier facilement si un sous-ensemble est un sous-espace.
Définition 1.13. Soit V un espace vectoriel sur un corps K.
Si λ1 , . . . , λr ∈ K et ⃗v1 , . . . , ⃗vr ∈ V , le vecteur
r
X
λ1⃗v1 + . . . + λr⃗vr = λi⃗vi
i=1
autrement dit, le sous-espace vectoriel engendré par A est l’ensemble de tous les com-
bilis d’éléments de A.
Si A = ∅, alors Vect(A) = {⃗0}.
Bases et dimension
Exemples 2.2. 1. Pour chaque espace vectoriel V , V lui-même est une partie
génératrice.
2. Comme Vect(∅) = 0, l’ensemble vide est une partie génératrice pour l’espace
zéro.
Dans chacun des espaces vectoriels suivants on donne deux parties génératrices.
3. Dans l’espace réel R3 :
{(1, 0, 0), (0, 1, 0), (0, 0, 1)} et {(0, 0, 1), (0, 1, 1), (1, 0, 1), (1, 1, 1)}.
13
CHAPITRE 2. BASES ET DIMENSION 14
Remarque 2.3. Soit A une partie génératrice infinie pour un espace vectoriel V (par
exemple {X i | i ∈ N} pour R[X]). Comme A est génératrice, on peut écrire chaque
élément ⃗v de V comme une combili d’un nombre fini d’éléments de A:
n
X
⃗v = λi⃗ai (2.1)
i=1
avec λi ∈ K, ⃗ai ∈ A. Il revient au même d’ajouter les termes λ⃗a avec λ = 0 pour tous
les ⃗a ∈ A qui n’appartiennent pas à la combili (2.1). Alors on peut dire que A est une
partie génératrice (infinie) ssi pour tous ⃗v ∈ V , il existe des éléments λ⃗a ∈ K, pour
tout ⃗a ∈ A tels que X
⃗v = λ⃗a⃗a,
⃗a∈A
où seulement un nombre fini de λ⃗a sont différents de zéro. Nous disons simplement
que presque tous les λ⃗a sont zéro.
Proposition 2.4. Considérons un espace vectoriel V sur K.
(i) Soit A ⊆ V une partie génératrice de V et ⃗v ∈ V , alors A ∪ {⃗v } est une partie
génératrice de V ;
(ii) Soit A ⊆ V une partie génératrice de V et ⃗v ∈ A. Alors A \ {⃗v } est une partie
génératrice de V ssi ⃗v ∈ Vect(A \ {⃗v }).
Démonstration. (i). Si A est génératrice pour V , alors tout vecteur w ⃗ ∈ V s’écrit
Pn
comme w ⃗ = i=1 λi⃗ai avec λi ∈ K et ⃗ai ∈ A. Comme A ⊂ A ∪ {⃗v }, tout vecteur
⃗ ∈ V est aussi une combili d’éléments de A ∪ {⃗v } et donc cette partie est aussi
w
génératrice.
(ii). Si A \ {⃗v } est une partie génératrice de V , alors V = Vect(A \ {⃗v }) et donc en
particulier ⃗v ∈ Vect(A \ {⃗v }). Réciproquement, si ⃗v ∈ Vect(A \ {⃗v }) alors
X
⃗v = λ⃗a⃗a (2.2)
a∈A
⃗
a̸=⃗
⃗ v
Comme presque tous les λ⃗a et presque tous les µ⃗a sont zéro, cette somme est finie et
⃗ ∈ Vect(A \ {⃗v }) et donc A \ {⃗v } est une partie génératrice.
nous trouvons que w
CHAPITRE 2. BASES ET DIMENSION 15
λ1⃗v1 + . . . + λm⃗vm = ⃗0 ⇒ λ1 = λ2 = . . . = λm = 0.
CHAPITRE 2. BASES ET DIMENSION 16
Démonstration. Nous allons démontrer l’équivalence entre les négations des deux as-
sertations. C’est-à-dire, nous alons montrer que A n’est pas libre si et seulement si
il existe des vecteurs de vecteurs ⃗v1 , . . . , ⃗vm ∈ A (deux à deux distincts) et des
scalaires λ1 , . . . , λm ∈ K, avec λi ̸= 0 pour au moins un i ∈ {1, . . . , m} tels que
λ1⃗v1 + . . . + λm⃗vm = ⃗0.
Supposons donc d’abord que A n’est pas libre. Alors il existe un vecteur ⃗v ∈ A qui
est une combili d’autres vecteurs de A:
⃗v = λ1⃗v1 + . . . + λm⃗vm
où le coefficient de ⃗v vaut −1 ̸= 0.
Réciproquement, supposons qu’on ait une identité
avec avec ⃗vi ∈ A (deux à deux distincts) et au moins un des coefficients différent de
zéro. Sans perte de généralité, nous pouvons supposer que λ1 ̸= 0 (sinon il suffit de
renuméroter les indices). Alors en multipliant l’identité ci-dessus par λ−1
1 , nous trouvons
que
⃗v1 = −λ−1 v2 − . . . − λ−1
1 λ2⃗ 1 λm ⃗vm ,
et donc ⃗v1 est une combili d’autres vecteurs de A.
Exemples 2.10. 1. L’ensemble vide ∅ est libre dans tout espace vectoriel V .
2. Pour tout espace vectoriel V , chaque singleton {⃗v } ⊂ V est une partie libre, à
condition que ⃗v ̸= ⃗0.
3. Les polynômes X 2 + X + 1 et X 2 − X sont linéairement indépendants dans
R[X].
4. Les fonctions cos x et sin x sont linéairement indépendantes dans RR .
5. Les vecteurs 1 et i sont linéairement indépendants dans C comme espace vec-
toriel réel, mais ils sont linéairement dépendants dans C comme espace vectoriel
complexe !
6. Un ensemble qui contient le vecteur zéro n’est jamais une partie libre.
Proposition 2.11. Soit V un espace vectoriel sur un corps K.
(i) Si A ⊆ V est un ensemble de vecteurs linéairement dépendants, alors A ∪ {⃗v }
est un ensemble de vecteurs linéairement dépendants, ∀⃗v ∈ V ;
(ii) Si A ⊆ V est une partie libre, alors A\{⃗v } est une partie libre, ∀⃗v ∈ V ;
CHAPITRE 2. BASES ET DIMENSION 17
(iii) A ⊆ V est une partie libre si et seulement si chacun des éléments de Vect(A)
s’écrit de manière unique comme combili de vecteurs de A;
(iv) Soit A ⊆ V une partie libre et ⃗v ∈ V , ⃗v ̸∈ A. Alors A ∪ {⃗v } est libre si et
seulement si ⃗v ̸∈ Vect(A).
Remarque 2.12. Dans la Proposition 2.11(iii), “tout vecteur de Vect(A) s’écrit ma-
nière unique” signifie unique à l’ordre des termes près et sans tenir compte des termes
triviaux, i.e. du type “0 · ⃗b”, ⃗b ∈ A.
Démonstration (de Proposition 2.11). Nous ne montrons que la partie (iii). Les autres
démonstrations sont laissées comme exercice.
Supposons que A est libre. Comme A est en particulier une partie génératrice pour
Vect(A) et en tenant compte de la Remarque 2.3, tout vecteur ⃗v de Vect(A) P peut
s’écrire d’au moins une manière comme combili des vecteurs de A, i.e. ⃗v = ⃗a∈A λ⃗a⃗a
où seulement un nombre fini des λ⃗a sont différents de zéro. Supposons que
X X
⃗v = λ⃗a⃗a = λ⃗a′ ⃗a.
⃗a∈A ⃗a∈A
Dès lors
⃗0 = ⃗v − ⃗v
X X
= λ⃗a⃗a − λ⃗a′ ⃗a
⃗a∈A ⃗a∈A
X
= (λ⃗a − λ⃗a′ ) ⃗a.
| {z }
⃗a∈A µ⃗a
Rappelons que dans cette somme seulement un nombre fini de λ⃗a et de λ⃗a′ sont dif-
férents de zéro, et donc aussi seulement un nombre fini des µ⃗a peuvent être différents
de zéro. Comme A est libre, les ⃗a sont linéairement indépendants, donc µ⃗a = 0, i.e.
λ⃗a − λ⃗a′ = 0 et λ⃗a = λ⃗a′ pour tout ⃗a ∈ A. Alors ⃗v s’écrit de manière unique comme
combili des vecteurs de A.
Réciproquement, supposons qu’il existe une combili
Comme aussi
⃗0 = 0⃗v1 + 0⃗v2 + . . . + 0⃗vn
l’unicité d’écriture d’un élément de V comme combili des éléments de A garantit que
λ1 = λ2 = . . . = λn = 0, donc A est libre.
CHAPITRE 2. BASES ET DIMENSION 18
2.2 Bases
Définition 2.13. Une base d’un espace vectoriel V est une partie génératrice et libre
de V .
Exemples 2.14. 1. L’espace nul V = {⃗0} a l’ensemble vide comme base.
2. La partie B = {X i | i ∈ N} = {1, X, X 2 , . . . , X n , . . .} est une base de R[X].
3. Dans Rn , les vecteurs
(1, 0, 0, . . . , 0)
(0, 1, 0, . . . , 0)
..
.
(0, 0, . . . , 0, 1)
forment une base, appelée la base canonique ou base standard.
4. Une autre base de Rn est donnée par les vecteurs
(1, 0, 0, . . . , 0)
(1, 1, 0, . . . , 0)
..
.
(1, 1, . . . , 1, 1)
De la même manière, nous pouvons construire des bases pour l’espace Kn sur
un corps K arbitraire.
5. Une base pour l’espace Kn×m des matrices à n lignes et m colonnes est donnée
par les matrices Ek,ℓ = (ek,ℓ
i,j ), qui ont partout 0 comme composante sauf sur la
k-ième ligne et ℓ-ième colonne, où il y a 1. C’est-à-dire,
ek,ℓ
i,j = δi,k δj,ℓ .
Lorsque la base est finie, i.e. possède un nombre fini n de vecteurs, nous écrivons
souvent
⃗v := (v1 , . . . , vn )
pour indiquer que v1 , . . . , vn sont les coordonnées du vecteur ⃗v . Nous notons ces co-
ordonnées aussi parfois dans une matrice colonne
v1
[⃗v ]B = ... .
vn
Donc par [⃗v ]B nous notons la matrice colonne des coordonnées d’un vecteur ⃗v dans la
base B.
E0 = L = {(1, 0, 0)}
E1 = {(1, 0, 0), (0, 1, 0)}
E2 = {(1, 0, 0), (0, 1, 0), (1, 1, 0)}
E3 = {(1, 0, 0), (0, 1, 0), (1, 1, 0), (0, 0, 1)}
E4 = G = {(1, 0, 0), (0, 1, 0), (1, 1, 0), (0, 0, 1), (1, 1, 1)}
Le premier élément de notre base est clairement ⃗e1 = (1, 0, 0), l’élément de L. On
observe que Vect(E0 ) ̸= Vect(E1 ), c’est à dire, (0, 1, 0) est linéairement indépendant
de (1, 0, 0), donc E1 est libre (voir Proposition 2.11). Alors ⃗e2 = (0, 1, 0) sera un
deuxième élément de notre base. On continue et on trouve que Vect(E2 ) = Vect(E1 ),
c’est à dire (1, 1, 0) est linéairement dépendant de E1 , donc (1, 1, 0) n’est pas un
élément de notre base B. On calcule de nouveau Vect(E3 ) ̸= Vect(E2 )(= Vect(E1 )),
c’est à dire (0, 0, 1) est linéairement indépendant de E2 , donc on ajoute (0, 0, 1) à
notre base B. Finalement, Vect(E4 ) = Vect(E3 ) = R3 et le dernier élément (1, 1, 1)
est à nouveau linéairement dépendant des autre éléments. On trouve alors que B =
{(1, 0, 0), (0, 1, 0), (0, 0, 1)} est une partie libre et génératrice, donc une base. Dans la
proposition suivante on formalise cette procédure.
Corollaire 2.19. Tout espace vectoriel de dimension finie admet une base.
Démonstration. (i). Soit L une partie libre de V et soit G un ensemble générateur fini
(qui existe comme V est finidimensionnel). Alors G′ = L ∪ G est aussi générateur et
L ⊆ G′ . Donc par Proposition 2.18, il existe une base B tel que L ⊆ B ⊆ G′ .
(ii). Soit G un ensemble générateur et rappelons que ∅ est libre. Alors par Proposi-
tion 2.18, il existe une base B telle que ∅ ⊆ B ⊆ G.
(iii). Pour tout vecteur ⃗v ̸= ⃗0 dans V , l’ensemble {⃗v } est une partie libre. Par la par-
tie (i), il est possible de compléter chacune de ses parties libres en une base. Comme
toutes les bases ont un nombre fini d’éléments, nous trouvons une infinité de bases
différentes.
pour tout i = 1, . . . , n. Soit A ∈ Kn×m la matrice avec les aij comme composantes.
Grâce à la méthode de Gauss, nous savons qu’il existe une matrice inversible E =
(eij ) ∈ Kn×n telle que la matrice A′ = EA est en forme échelonnée réduite. Supposons
par l’absurde que m < n. Alors la dernière ligne de la matrice échelonnée A′ est nulle
(il est possible qu’il y ait plusieurs lignes nulles, mais au moins les dernières n − m
lignes sont nulles). Ceci implique que
n
X
enk akj = 0
k=1
Dès lors et parce que L est libre, nous trouvons que enk = 0, pour k = 1, . . . , n. Alors
la matrice E a une ligne nulle ce qui est une contradiction avec l’inversibilité de E.
Nous pouvons conclure que n ≤ m.
Supposons maintenant que L est un ensemble libre infini et soit G un ensemble
générateur fini (qui existe comme V est finidimensionnel). Comme tout sous-sensemble
de L est de nouveau libre, il suffit de prendre un sous-ensemble de L avec plus d’élé-
ments de G pour obtenir une contradiction avec la première partie. Donc toute partie
libre est finie.
Si L est fini et G est infini, il n’y a rien à démontrer.
Théorème 2.22 (Premier théorème de la dimension). Dans un espace vectoriel fini-
dimensionnel, toutes les bases ont le même nombre d’éléments.
Démonstration. Soient B et B ′ deux bases d’un espace vectoriel finidimensionnel V .
Comme B et B ′ sont libres, il suit du Lemme 2.21 que B et B ′ sont finies. Comme B
est libre et B ′ est génératrice, il suit de Lemme 2.21 que #B ≤ #B ′ . D’autre part,
comme B est génératrice et B ′ est libre il suit aussi que #B ≥ #B ′ . Nous pouvons
donc conclure que #B = #B ′ .
Définition 2.23. Si V est un espace vectoriel de dimension finie, la dimension de V
est le nombre n de vecteurs d’une quelconque de ses bases. On écrit
dim(V ) = n.
CHAPITRE 2. BASES ET DIMENSION 22
dim(V ) = ∞.
Corollaire 2.25. Soit V un espace vectoriel finidimensionnel. Soit L une partie libre
de V et G une partie génératrice de V . Alors
#L ≤ dimV ≤ #G.
Proposition 2.26. Soit V un espace vectoriel finidimensionnel. Soit L une partie libre
de V et G une partie génératrice de V , alors :
(i) #L = dim(V ) ⇒ L est une base de V ;
(ii) #G = dim(V ) ⇒ G est une base de V .
Démonstration. (i). Grâce au Corollaire 2.20(i), nous savons qu’il existe une base B
de V telle que L ⊂ B. Comme #L = dim(V ) = #B, il suit que L = B et donc L est
une base.
(ii). Grâce au Corollaire 2.20(ii), nous savons qu’il existe une base B de V telle que
B ⊂ G. Comme #G = dim(V ) = #B, il suit que G = B et donc G est une base.
Démonstration. Soit B une base de W . Alors B est une partie libre dans V . Grâce au
Corollaire 2.25, il suit que dimW = #B ≤ dimV .
CHAPITRE 2. BASES ET DIMENSION 23
Applications linéaires
Dans les chapitres précédents, nous avons introduit les espaces vectoriels. Mainte-
nant, nous allons étudier les relations entre ces espaces.
En particulier, une symétrie (ou une réflexion) de centre (0, 0) est une application
linéaire.
24
CHAPITRE 3. APPLICATIONS LINÉAIRES 25
2. Une symétrie (ou une réflexion) d’axe L, où L est une droite qui passe par
l’origine, est une application linéaire de R2 dans R2 et est un automorphisme de
R2 .
3. Une homothétie ou dilatation homogène de centre (0, 0) et de rapport λ ∈ R est
une application linéaire de R2 dans R2 et est un automorphisme de R2 si λ ̸= 0.
4. Soit L une droite qui passe par l’origine et ⃗v un vecteur non-nul qui n’est pas un
vecteur directeur de L. La projection sur L et parallèle à ⃗v est une application
linéaire de R2 dans R2 qui n’est pas un monomorphisme, ni un épimorphisme.
5. Une translation d’un vecteur ⃗v ̸= ⃗0 n’est pas une application linéaire de R2 dans
R2 .
Exemples 3.3 (Exemples dans l’espace R3 ). 1. Les rotations (autour d’une droite
qui passe par l’origine) et les réflexions (par rapport à l’origine, par rapport à une
droite qui passe par l’origine ou par rapport à un plan qui passe par l’origine)
sont des automorphismes de R3 .
2. Une homothétie de centre (0, 0, 0) et de rapport λ ∈ R est une application
linéaire de R3 dans R3 et est un automorphisme de R3 si λ ̸= 0.
3. Les projections sur une droite qui passe par l’origine ou sur un plan qui passe
par l’origine sont des transformations linéaires de R3 qui ne sont ni injectives ni
surjectives.
4. Une translation d’un vecteur non-nul n’est pas une application linéaire de R3
dans R3 .
Exemples 3.4 (Exemples pour les matrices). 1. L’application Kn → K1×n qui en-
voie le n-tuple (x1 , . . . , xn ) sur la matrice ligne (x1 · · · xn ) est un isomorphisme.
2. La transposée (−)t : Kn×m → Km×n est une application linéaire et même un
isomorphisme.
3. La trace Tr : Kn×n → K est une application linéaire et un épimorphisme pour
tout n ≥ 1, c’est un isomorphisme si et seulement si n = 1.
4. Le déterminant (voir MathF121) det : Kn×n → K n’est pas une application
linéaire.
5. L’application Diag : Kn → Kn×n , qui envoie un élément ⃗a = (a1 , . . . , an ) ∈ Kn
sur la matrice diagonale avec les composantes de ⃗a sur la diagonale, est une
application linéaire et un monomorphisme.
a1 0 ··· 0
0 a2 ··· 0
Diag(a1 , . . . , an ) = .. .. .. .
..
. . . .
0 0 ··· an
CHAPITRE 3. APPLICATIONS LINÉAIRES 26
6. L’application (−)|1 : Kn×m → Kn×1 , qui envoie une matrice A sur la matrice co-
lonne A|1 est une application linéaire et un épimorphisme. C’est un isomorphisme
si et seulement si m = 1.
7. Soit A ∈ Km×p alors la multiplication à droite par A est une application linéaire
de Kn×m → Kn×p .
Exemples 3.5 (Exemples pour des espaces de fonctions). 1. Notons comme pré-
cédemment l’espace vectoriel réel de toutes les fonctions continues de R dans R
par C 0 (R, R). Alors l’application
définie par Z x
Int(f )(x) = f (t)dt
0
Lemme 3.7. Soient V et V ′ deux espaces vectoriels sur le corps K. Pour une appli-
cation f : V → V ′ les conditions suivantes sont équivalentes.
(i) f est une application linéaire;
(ii) ∀λ ∈ K et ∀⃗v , w
⃗ ∈ V , f (λ⃗v ) = λf (⃗v ) et f (⃗v + w) ⃗ = f (⃗v ) + f (w);
⃗
(iii) Pour tout nombre fini de vecteurs ⃗v1 , ⃗v2 , . . . , ⃗vr ∈ V , et de scalaires λ1 , . . . , λr ∈
K, nous avons f (λ1⃗v1 + . . . + λr⃗vr ) = λ1 f (⃗v1 ) + . . . + λr f (⃗vr ).
Démonstration. Nous laissons la démonstration comme exercice. Le raisonnement est
similaire à celui de Proposition 1.15.
Lemme 3.8. Soit f : V → V ′ une application linéaire. Alors les propriétés suivantes
sont satisfaites.
(i) f (⃗0) = ⃗0;
(ii) f (−⃗v ) = −f (⃗v );
ϕ : HomK (V, V ′ ) → V ′B
pour tout ⃗e ∈ B ⊂ V .
Réciproquement, nous allons définir maintenant une application ψ : V ′B → HomK (V, V ′ ).
Soit g : B → V ′ une application quelconque.
P Comme B est une base pour V , pour
tout ⃗v ∈ V , nous pouvons écrire ⃗v = i∈I vi⃗ei , où presque tous les vi ∈ K sont zéro.
Alors nous pouvons poser X
ψ(g)(⃗v ) = vi g(⃗ei ).
i∈I
Nous pouvons facilement vérifier (Exercice !) que ψ(g) est une application linéaire de
V dans V ′ .
Clairement ϕ ◦ ψ(g) = g pour tout g ∈ V ′V . Montrons que aussi ψ ◦ ϕ(f ) = f
pour tout f ∈ HomK (V, V ′ ) :
X
(ψ ◦ ϕ)(f )(⃗v ) = vi ϕ(f )(⃗ei )
i∈I
X
= vi f (⃗ei )
i∈I
!
X
= f vi⃗ei = f (⃗v )
i∈I
où nous avons utilisé que f est linéaire dans la troisième égalité. Nous pouvons conclure
que ϕ est une bijection.
Finalement, il est clair que ϕ est aussi une application linéaire (Exercice !) et donc
un isomorphisme.
CHAPITRE 3. APPLICATIONS LINÉAIRES 29
Remarque 3.11. Le résultat de la Proposition 3.10 est très important. Pas seulement,
le résultat nous dit que pour connaître une application linéaire, il suffit de connaître les
images des éléments d’une base quelconque. Aussi inversement, pour tout famille d’élé-
ments (w ⃗ i )i∈I , d’une cardinalité égale à la dimension de l’espace de départ #I = dimV ,
que nous choisissons dans l’espace d’arrivé W , il existe exactement une application li-
néaire f : V → W tel que f (⃗ei ) = w ⃗ i pour une base {⃗ei , i ∈ I} de V . Cette
observation jouera une rôle primordiale dans le chapitre suivant, quand nous allons
associer les applications linéaires avec les matrices.
Proposition 3.12. Soient V , V ′ et V ′′ des espaces vectoriels sur le corps K. Soient
f : V → V ′ et g : V ′ → V ′′ des applications linéaires. Alors g ◦ f : V → V ′′ est de
nouveau une application linéaire.
⃗ ∈ V et λ, µ ∈ K. Alors nous trouvons que
Démonstration. Soient ⃗v , w
g ◦ f (λ⃗v + µw)
⃗ = g(f (λ⃗v + µw))
⃗
= g(λf (⃗v ) + µf (w))
⃗
= λg(f (⃗v )) + µg(f (w))
⃗
= λg ◦ f (⃗v ) + µg ◦ f (w)
⃗
f −1 (λ⃗v ′ + µw
⃗ ′ ) = f −1 (λf ◦ f −1 (⃗v ′ ) + µf ◦ f −1 (w ⃗ ′ ))
= f −1 ◦ f (λf −1 (⃗v ′ ) + µf −1 (w
⃗ ′ ))
= λf −1 (⃗v ′ ) + µf −1 (w⃗ ′ ).
Ici nous avons utilisé que idV ′ = f ◦ f −1 dans la première égalité, que f est une
application linéaire dans la deuxième égalité et que f −1 ◦ f = idV dans la dernière
égalité.
Le prochain résultat est immédiat, mais c’est une observation très importante.
Proposition 3.14. Soit V un espace vectoriel sur le corps K et considérons l’en-
semble Aut K (V ) de tous les automorphismes de V . Alors les conditions suivantes sont
satisfaites:
CHAPITRE 3. APPLICATIONS LINÉAIRES 30
c’est-à-dire les coordonnées de f (⃗v ) dans la base B ′ sont (x′1 , . . . , x′m ) ce qui s’écrit
aussi m
X
f (⃗v ) = x′i⃗b′i . (4.1)
i=1
31
CHAPITRE 4. LA MATRICE D’UNE APPLICATION LINÉAIRE 32
ou autrement dit
f : R2 → R, (x, y) 7→ f (x, y) = 3x − y.
Si B = {(1, 0), (0, 1)} et B ′ = {1} (les bases canoniques), alors f (1, 0) = 3 =
3 · 1 et f (0, 1) = −1 = −1 · 1. Donc
[f ]B ′ ,B = 3 −1 .
Si B = {(3, 1), (1, 3)} et B ′ = {2}, alors f (3, 1) = 8 = 4·2 et f (1, 3) = 0 = 0·2.
Donc
[f ]B ′ ,B = 4 0 .
2. Considérons l’espace vectoriel réel R3 [x] des polynômes de degré 3 ou inférieur,
et l’opérateur linéaire sur cet espace donné par la dérivation:
Cequi implique que [λf + µg]B ′ ,B = (λaij + µbij ). Alors la dernière égalité de l’énoncé
est satisfaite et donc α est une application linéaire.
Vérifions que α est bijective. L’injectivité suit du fait que par construction, [f ]B ′ ,B
est uniquement déterminée par la donnée des images des vecteurs de base. La surjec-
m×n
tivité est garantie
Pn car⃗ chaque Pn A ∈ ⃗K′
Pmmatrice définit P une application linéaire par
la formule f ( i=1 xi bi ) = j=1 i=1 aji xi bj , pour tous ni=1 xi⃗bi ∈ V , où on note
comme précédemment B = {⃗b1 , . . . , ⃗bn } et B ′ = {⃗b′1 , . . . , ⃗b′m }.
Proposition 4.4. Soient U , V et W des espaces vectoriels finidimensionnels de di-
mensions respectives n, m et p. Soient BU , BV et BW des bases respectives de ces
espaces vectoriels. Soit f ∈ HomK (U, V ) et g ∈ HomK (V, W ). Alors
[g ◦ f ]BW ,BU = [g]BW ,BV [f ]BV ,BU
C’est-à-dire, la composition des applications linéaires correspond à la multiplication des
matrices.
CHAPITRE 4. LA MATRICE D’UNE APPLICATION LINÉAIRE 35
Démonstration. Notons les composantes de [f ]BV ,BU = A avec aij , les composantes
de [g]BW ,BV = B avec bij et les composantes de [g ◦ f ]BW ,BU = C avec cij . En
outre, posons BU = {⃗b1 , . . . , ⃗bn }, BV = {⃗b′1 , . . . , ⃗b′m } et BW = {⃗b′′1 , . . . , ⃗b′′p }. Alors,
par définition on a (comparer avec (4.3))
p
X
(g ◦ f )(⃗bi ) = cki⃗b′′k , ∀i = 1, . . . , n.
k=1
Soit K un corps et n ∈ N0 . Rappelons que GLn (K) dénote le groupe linéaire général
de degré n sur K :
pour tous g, g ′ ∈ G. Si ϕ est en plus bijectif, nous disons que ϕ est un isomorphisme
et que G et H sont des groupes isomorphes.
En bref, ⃗b′i = ⃗
Pn
j=1 γji bj . Les coefficients γij sont complètement déterminés par la
donnée des deux bases et constituent une matrice C = (γij ) appelée matrice de
changement de base qui fait passer de la base B à la base B ′ . Ce qui précède,
nous amène à n n n X n
X X X
⃗v = ⃗
vj bj = ′⃗ ′
vi bi = vi′ γji⃗bj .
j=1 i=1 i=1 j=1
CHAPITRE 4. LA MATRICE D’UNE APPLICATION LINÉAIRE 37
A′ = D−1 AC.
C’est-à-dire,
[f ]E ′ B ′ = [idW ]E ′ ,E [f ]E,B [idV ]B,B ′
CHAPITRE 4. LA MATRICE D’UNE APPLICATION LINÉAIRE 38
det (A) = det (C −1 )det (B)det (C) = det (C −1 )det (C)det (B) = det (B),
U + W = Vect(U ∪ W )
40
CHAPITRE 5. LA SOMME DIRECTE ET LE PRODUIT DIRECT 41
(2) U + W = V .
Nous notons V = U ⊕ W .
⃗u − ⃗u′ = w
⃗ ′ − w.
⃗
Le côté gauche de cette équation est une combili d’éléments de U et donc appartient
à U . Le côté droit est une combili d’éléments de W et donc appartient à W . Nous
pouvons conclure que ⃗u − ⃗u′ = w ⃗ ∈ U ∩ W = {⃗0} donc ⃗u − ⃗u′ = w
⃗′ − w ⃗′ − w⃗ = ⃗0 et
′ ′
donc ⃗u = ⃗u et w ⃗ =w ⃗.
Réciproquement, si tout élément de V s’écrit d’une manière unique comme une
somme d’un élément de U et d’un élément de W , nous avons directement que V =
U + W . Supposons maintenant que ⃗v ∈ U ∩ W . Alors il suit que les paires (⃗v , ⃗0) et
(⃗0, ⃗v ) appartiennent toutes les deux à U × W et satisfont ⃗v = ⃗v + ⃗0 = ⃗0 + ⃗v . Ceci
contredit l’unicité dans l’énoncé sauf si ⃗v = ⃗0. Donc U ∩ V = {⃗0}.
Exemples 5.4. 1. Tout espace V est la somme directe de ces sous-espaces triviaux
⃗
0 = {0} et V : V = V ⊕ 0.
2. Considérons l’espace R3×3 des matrices carrées réelles de taille 3×3. Considérons
le sous-espace D des matrices diagonales et le sous-espace U des matrices qui
n’ont que des zéros sur la diagonale. Alors R3×3 = D ⊕ U . Concrètement, nous
pouvons écrire tout matrice comme une somme:
a b c a 0 0 0 b c
d e f = 0 e 0 + d 0 f .
g h i 0 0 i g h 0
3. L’espace des polynômes R[X] est la somme directe du sous-espace des polynômes
avec que des termes de degré paire et le sous-espace des polynômes avec que
des termes de degré impair.
CHAPITRE 5. LA SOMME DIRECTE ET LE PRODUIT DIRECT 42
⃗ + (⃗v ′ , w
(⃗v , w) ⃗ ′ ) = (⃗v + ⃗v ′ , w ⃗ ′)
⃗ +w
λ(⃗v , w)⃗ = (λ⃗v , λw) ⃗
pour tous ⃗v , ⃗v ′ ∈ V , w,
⃗ w⃗ ′ ∈ W et λ ∈ K. Alors V × W est un espace vectoriel sur K.
Démonstration. Exercice.
L’espace vectoriel V × W est appelé le produit direct de V et W . Les notions de
produit direct et de somme directe sont fortement liées par le théorème suivant.
Théorème 5.6. Considérons un espace vectoriel V avec des sous-espaces U et W tel
que V = U ⊕ W . Alors l’application linéaire
f : U × W → V, f (⃗u, w)
⃗ = ⃗u + w
⃗
U ×W ∼
= U ⊕ W.
Démonstration. Nous pouvons facilement vérifier que f est linéaire. La Proposition 5.3
dit exactement que f pour tout ⃗v ∈ V , il existe un unique couple (⃗u, w)
⃗ ∈ U × W tel
que ⃗v = ⃗u + w ⃗ c’est-à-dire que f est une bijection. Alors f : U × W →
⃗ = f (⃗u, w),
V = U ⊕ W est un isomorphisme.
Soit V un espace qui est une somme directe de deux sous-espaces W1 et U1 .
Supposons que U1 est lui-même une somme directe de deux sous-espaces W2 et U2 .
De nouveau, il est possible que U2 soit une somme directe d’autres sous-espaces et
nous arrivons après un nombre fini d’étappes à la proposition et définition suivante.
Proposition 5.7. Soit V un espace vectoriel avec des sous-espaces W1 , W2 , . . . , Wn .
Alors les assertions suivantes sont équivalentes :
(i) V = Vect(∪ni=1 Wi ) et Wi ∩ Vect(∪nj̸=i Wj ) = {⃗0} pour tout i = 1, . . . , n;
(ii) ∀⃗v ∈ V , ∃!w
⃗ i ∈ Wi (pour i = 1, . . . , n) tels que ⃗v = w ⃗ n.
⃗1 + . . . w
Dans ce cas, nous disons que V est la somme directe des espaces W1 , W2 , . . . , Wn
et nous notons
V = W1 ⊕ · · · ⊕ Wn .
Démonstration. Exercice.
Il est même possible de généraliser la proposition pour le cas d’une infinité de
sous-espaces.
CHAPITRE 5. LA SOMME DIRECTE ET LE PRODUIT DIRECT 43
Proposition 5.8. Soit V un espace vectoriel avec une famille sous-espaces (Wi )i∈I , où
I est un ensemble arbitraire d’indices. Alors les assertions suivantes sont équivalentes
(i) V = Vect(∪i∈I Wi ) et et Wi ∩ Vect(∪j̸=i Wj ) = {⃗0} pour tous i ∈ I.
(ii) ∀⃗v ∈ V , ∃!w⃗ i ∈ Wi (pour ⃗ i = ⃗0 pour tous i ∈ I sauf un nombre
P i ∈ I) tel que w
fini d’indices et ⃗v = i∈I w⃗ i.
Dans ce cas, nous disons que V est la somme directe des espaces (Wi )i∈I et nous
notons M
V = Wi .
i∈I
P
Remarquons que la somme i∈I ⃗ i fait du sens, comme il n’y a qu’un nombre fini
w
de termes non-nuls.
Proposition 5.11. Soit (Vi )i∈I une famille d’espaces vectoriels sur K, où I est un
ensemble arbitraire d’indices. Alors l’ensemble
Y
Vi = {(⃗vi )i∈I | ⃗vi ∈ Vi , ∀i ∈ I}
i∈I
est un espace vectoriel sur K, appelé le produit direct des espaces (Vi )i∈I .
Le sous-ensemble
a Y
Vi = {(⃗vi )i∈I ∈ Vi | ⃗vi = ⃗0, sauf pour un nombre fini d’indices}
i∈I i∈I
Q
est un sous-espace de Vi que nous appelons le coproduit des espaces (Vi )i∈I .
i∈I
L
Remarque 5.12. Soit V = i∈I Wi . Il est possible de généraliser le Théorème 5.6
pour une nombre infini d’espaces vectoriels et donc obtenir un isomorphisme naturel
Wi ∼
a M
= Wi .
i∈I i∈I
C’est pourquoi les terminologies "somme directe" et "coproduit" sont parfois confon-
dus.
Axiome 5.13 (Axiome du choix). Soit (Si )i∈I une famille d’ensembles non-vide, alors
le produit cartésien de cette famille d’ensembles est de nouveau non-vide.
L’axiome de choix nous dit donc que pour chaque famille (Si )i∈I d’ensembles non-
vides, il existe une famille d’éléments (xi )i∈I tels que xi ∈ Si . Autrement dit, nous
pouvons "choisir" exactement un élément dans chacun des ensembles dans la famille
d’ensembles, même s’il s’agit d’une infinité d’ensembles. Bien que l’assertion de cet
axiome puisse paraître triviale à première vue, elle ne l’est pas du tout. En effet,
beaucoup de théorèmes importants dépendent fortement de cet axiome ou sont même
équivalents à cet axiome. Pour cette raison, même s’il est possible de développer une
théorie mathématique sans l’axiome de choix, dans la pratique ce n’est presque jamais
fait. Pour la proposition suivante, on a besoin d’une proposition qui est équivalente
avec l’axiome de choix et qui est connue comme le lemme de Zorn.
CHAPITRE 5. LA SOMME DIRECTE ET LE PRODUIT DIRECT 45
Lemme 5.14 (Zorn). Soit (T, ≤) un ensemble non-vide partiellement ordonné, tel
que toute chaîne totalement ordonnée possède un majorant. Alors T possède au moins
un élément maximal.
Rappelons qu’un ensemble (T, ≤) est appelé partiellement ordonné si ≤ est une
relation réflexive (i.e. ∀x ∈ T , x ≤ x), transitive (i.e. ∀x, y, z ∈ T , si x ≤ y et y ≤ z,
alors x ≤ z) et antisymétrique (i.e. ∀x, y ∈ T , si x ≤ y et y ≤ x alors x = y) sur T .
Une chaîne totalement ordonnée est un sous-ensemble S ⊂ T tel que pour tous
x, y ∈ S soit x ≤ y, soit y ≤ x. Un majorant pour une chaîne S, est un élément
t ∈ T tel que x ≤ t pour tout x ∈ S. Un élément t ∈ T est appelé maximal si pour
tout x ∈ T , t ≤ x implique que t = x.
λ1⃗v1 + . . . + λn⃗vn = ⃗0
pour certains ⃗vi ∈ A et λi ∈ K. Alors il existe des parties libres B1 , . . . Bn ∈ S telles que
⃗vi ∈ Bi , i = 1, . . . , n. Comme S est totalement ordonné, il existe un ensemble Bi (avec
i ∈ {1, . . . , n}) tel que Bj ⊂ Bi pour tout j ∈ {1, . . . , n}. Donc {⃗v1 , . . . , ⃗vn } ⊂ Bi et
comme Bi est libre, il suit que λ1 = . . . = λn = 0, et nous pouvons conclure que A
est libre.
Comme A est la réunion de tous les éléments de S, il suit que B ⊂ A pour tout
B ∈ S. Donc A est un majorant pour S. Nous pouvons donc appliquer le Lemme de
Zorn, et donc il existe un élément B ∈ T qui est maximal.
Nous revendiquons que B est une base pour V . Par construction, B ∈ T et donc
B est libre. Nous devons encore montrer que B est aussi génératrice. Supposons que
ce n’est pas le cas, alors il existe un élément ⃗v ∈ V tel que ⃗v ∈ / Vect(B). Alors par
la Proposition 2.11(iv) nous savons que B ∪ {⃗v } est aussi une partie libre de V . Mais
alors B ∪ {⃗v } ∈ T et B ⊊ B ∪ {⃗v }, ce qui est en contradiction avec la maximalité de
B.
Aussi le résultat du Théorème 2.22 reste valable en dimension infinie. Dans le cas
infini, le “nombre” d’éléments d’une base doit être interpreté comme le cardinal de la
base. Le résultat dit alors qu’il existe toujours une bijection entre 2 bases du même
espace vectoriel.
∃!u /
Q
T i∈I Vi
∀τj πj
|
Vj
Démonstration. Nous laissons comme exercice de vérifier que les applications πj sont
K-linéaires et surjectives.
Soient (T, (τj )j∈I ) comme dans l’énoncé du théorème et soit u : T → V , telle
que τj = πj ◦ u pour tout j ∈ I. Alors pour un ⃗t ∈ T quelconque, si on dénote
u(⃗t) = (⃗vi )i∈I , alors pour tout j ∈ I, nous trouvons que
Théorème 5.18 (propriété universelle` du coproduit). Soit (Vi )i∈I une famille d’espaces
vectoriels sur un corps K et soit V = i∈I Vi le coproduit de cette famille. Alors pour
tout j ∈ I, il y a un monomorphisme ιj : Vj → V, ιj ((⃗v ) = (⃗vi )i∈I ), avec ⃗vj = ⃗v et
⃗vi = ⃗0 pour tout i ̸= j.
En outre, pour tout espace vectoriel T et tout famille d’applications linéaires (θj :
Vj → T )j∈I , il existe une unique application linéaire u : V → T , telle que θj = u ◦ ιj
CHAPITRE 5. LA SOMME DIRECTE ET LE PRODUIT DIRECT 47
pour tout j ∈ I.
Vj
∀θj ιj
Q#
To
∃!u
i∈I Vi
Remarquons que par définition du coproduit, presque tout ⃗vj est nul et donc la somme
dans la formule pour u(⃗u) est toujours une somme finie.
Proposition 5.19. Soit V un espace vectoriel sur un corps K avec une base B.
Considérons pour tout ⃗b ∈ B l’espace vectoriel Vect(⃗b) ∼
= K. Alors V est isomorphe au
⃗
coproduit de la famille (Vect(b))⃗b∈B . En d’autres mots : V est isomorphe au coproduit
de |B| copies de K.
En particulier, si V est finidimensionnel avec dimV = n alors V ∼ = Kn .
Démonstration. Soit ⃗v un vecteur de V , par la Proposition 2.15, il existe une P unique
famille (λ⃗b )⃗b∈B avec λ⃗b ∈ K telle que presque tous les λ⃗b sont nuls et ⃗v = ⃗b∈B λ⃗b⃗b.
Ceci dit exactement que le morphisme
a
V → Vect(⃗b), ⃗v 7→ (λ⃗b⃗b)⃗b∈B
⃗b∈B
est bijectif.
`
Remarquons que l’isomorphisme V → B K envoie un vecteur ⃗v ∈ V sur ses
coordonnées dans le base B.
Chapitre 6
Noyau et Image
Alors
rgcol A = 1 = rglig A,
rgcol B = 2 = rglig B,
rgcol C = 3 = rglig C.
Nous voyons que dans tous les exemples le rang de colonne et le rang de lignes coïn-
cident. Ceci n’est pas une coïncidence, le but principal de cette section est exactement
de démontrer ce résultat.
Les résultats de Section 2.3 nous permettent de reformuler la définition du rang en
termes de vecteurs linéairement indépendants à la place de vecteurs générateurs.
48
CHAPITRE 6. NOYAU ET IMAGE 49
et
1 2 3
4 5 6
A|1 =
7 A|2 =
8 A|3 =
9 .
0 1 2
Observation 6.6. Considérons de nouveau une matrice A ∈ Kn×m et soit B ∈ Kn×1
une matrice colonne. Supposons que la matrice colonne B est une combinaison linéaire
de certaines colonnes A|i1 , . . . , A|ik de A (avec i1 , . . . , ik ∈ {1, . . . , m}), c’est-à-dire
Nous pouvons donc exprimer une combinaison linéaire des colonnes de la matrice A
comme le produit de la matrice A avec une matrice colonne.
CHAPITRE 6. NOYAU ET IMAGE 50
De la même façon, considérons une matrice ligne C ∈ K1×m qui est une combinai-
son linéaire des matrices lignes Aj1 − , . . . , Ajℓ − de A:
Mais, de nouveau par l’Observation 6.6, ceci veut dire qu’une combinaison linéaire
des colonnes (AB)|i1 , . . . , (AB)|ik vaut zéro. Comme ces colonnes sont linéairement
indépendantes, il suit que tous les coéfficients doivent être zéro, donc M = Op,1 et
les colonnes B|i1 , . . . , B|ik sont aussi linéairement indépendantes. Par le Lemme 6.3, il
suit que rgcol (AB) ≤ rgcol (B).
(ii). Supposons que une matrice ligne C ∈ K1×p est une combinaison linéaire des lignes
de la matrice AB. Par l’Observation 6.6, ceci implique qu’il existe une matrice ligne
N ∈ K1×n telle que
N AB = C.
Soit N ′ = N A ∈ K1×m . Alors nous trouvons que N ′ B = C et donc de nouveau
l’Observation 6.6 implique que C est aussi une combinaison linéaire des lignes de B.
Nous trouvons donc que l’espace engendré par les lignes de la matrice AB est un
sous-espace de l’espace engendré par les lignes de B. Par conséquence, rglig (AB) ≤
rglig (B).
CHAPITRE 6. NOYAU ET IMAGE 51
Lemme 6.8. Soit A ∈ Kn×m une matrice quelconque et M ∈ Kn×n une matrice
inversible. Alors rgcol (A) = rgcol (M A) et rglig (A) = rglig (M A).
Lemme 6.9. Soit A une matrice échelonnée réduite. Alors rgcol (A) = rglig (A).
Théorème 6.10. Pour tout matrice A, le rang de colonne est égal au rang de ligne.
Définition 6.11. Grâce au Théorème 6.10, nous pouvons parler du rang d’une ma-
trice, sans spécifier si c’est le rang de colonne ou le rang de ligne. Nous notons le rang
de la matrice A simplement par rg(A).
Nous disons qu’une matrice A ∈ Kn×m est de rang maximal si et seulement si
rg(A) = min(n, m).
Proposition 6.12. Soit A ∈ Kn×n une matrice carrée. Alors A est de rang maximal
si et seulement si A est inversible (donc si et seulement si le déterminant de A est
non-nul).
CHAPITRE 6. NOYAU ET IMAGE 52
Démonstration. Nous savons que la forme echelonnée réduite d’une matrice A est égale
à la matrice identité si et seulement si A est inversible, et que la forme échelonnée
réduite a au moins une ligne nulle si et seulement si A est non-inversible. Ceci combiné
avec les observations précédentes nous permettent de conclure directement le résultat.
La proposition précédente montre que la notion de rang est fortement liée avec
la notion du déterminant. Pour mieux comprendre ce lien, nous devons introduire la
notion suivante.
Définition 6.13. Soit A ∈ Kn×m une sous-matrice de A est une matrice obtenue
en supprimant quelques lignes et/ou colonnes de la matrice A.
Proposition 6.14. Le rang d’une matrice A ∈ Kn×m est le nombre naturel maximal
r tel que A contient une sous-matrice inversible de taille r × r.
Im f = {f (⃗v ) | ⃗v ∈ V } ⊂ V ′ .
où nous avons utilisé la linéarité de f dans la deuxième égalité. Alors λ1⃗v1 + . . . λn⃗vn ∈
Ker f = {⃗0} et donc
λ1⃗v1 + . . . λn⃗vn = ⃗0.
Comme ⃗v1 , . . . , ⃗vn ∈ L et L est libre, il suit que λ1 = . . . = λn = 0, et donc f (L) est
libre.
(iv) ⇒ (v). Suit du fait que une base est une partie libre.
(v) ⇒ (vi). Soit B une base de V . Par (v), f (B) est libre et par le Lemme 6.19, f (B)
est génératrice pour Im f , et donc f (B) est une base pour Im f .
(vi) ⇒ (vii). Soit B une base de V , et donc f (B) une base de Im f ⊂ V ′ . Alors f (B)
est une partie libre de V ′ et donc il existe une base B ′ pour V ′ telle que f (B) ⊂ B ′
(voir Corollaire 2.20). Grâce à la Proposition 3.10, pour définir une application linéaire
f ′ : V ′ → V il suffit de définir une application de B ′ vers V . Définissons alors
comme ⃗e1 , . . . , ⃗en ∈ Ker f . Donc E ′ est génératrice pour Im f . Montrons encore que
E ′ est libre. Soient λm+1 , . . . , λn ∈ K tels que
⃗0 = λm+1 f (⃗em+1 ) + . . . + λn f (⃗en ) = f (λm+1⃗em+1 + . . . + λn⃗en )
(où nous avons utilisé que f est linéaire). Alors λm+1⃗em+1 +. . .+λn⃗en ∈ Ker f et donc
est une combili d’éléments de E. Mais comme E est une base, et donc en particulier
libre, ceci implique que λm+1 = . . . = λn = 0.
f : W × W ′ → V, f (w,
⃗ w⃗ ′) = w ⃗′
⃗ +w
f (w,
⃗ w⃗ ′) = w ⃗ ′ = ⃗0
⃗ +w
et donc si et seulement si
⃗ ′.
⃗ = −w
w
⃗ ∈ W et w
D’une part, comme w ⃗ ′ ∈ W ′ , nous avons que w
⃗ ∈ W ∩ W ′ . D’autre part,
pour tout w ′
⃗ ∈ W ∩ W , il suit que (w,
⃗ −w) ⃗ ∈ Ker f . Nous trouvons que Ker f ∼ =
′
W ∩ W . Du Théorème 6.25 nous trouvons que
avec m = dimV ′ , les vecteurs f (⃗ei ), ⃗ei ∈ B correspondent exactement aux colonnes
de [f ]B ′ ,B . Donc l’isomorphisme [−]B ′ , mène par restriction et corestriction, à un iso-
morphisme entre l’image de f et l’espace des colonnes de [f ]B ′ ,B .
(ii). Suit de la partie (i) et du deuxième théorème de la dimension.
Corollaire 6.34. Soit A une matrice carrée n × n. Les conditions suivantes sont
équivalentes.
(i) A est inversible;
(ii) rang(A) = n;
(iii) les n lignes de A constituent une base de K1×n ;
(iv) les n colonnes de A constituent une base de Kn×1 .
Chapitre 7
Géométrie affine
L = ⃗a + W = {⃗a + w
⃗ |w
⃗ ∈ W}
L’importance des variétés linéaires est donnée par les exemples suivants.
60
CHAPITRE 7. GÉOMÉTRIE AFFINE 61
⃗ ∈ W.
Lemme 7.3. Soient W un sous-espace vectoriel d’un espace vectoriel V et w
Alors w
⃗ + W = W.
Corollaire 7.5. Soit L = ⃗a + W une variété linéaire. Alors L = ⃗a′ + W pour tout
⃗a′ ∈ L.
Démonstration. Considérons une famille de variétés linéaires (Li )i∈I avecT I un en-
semble
T (non-vide) d’indices. S’il existe un i0 ∈ I tel que Li0 = ∅, alors i∈I Li = ∅,
alors i∈I Li est une variété linéaire par définition.
CHAPITRE 7. GÉOMÉTRIE AFFINE 62
Nous pouvons donc supposer qu’aucune des variétés linéairesTde la famille est vide
T pouvons écrire Li = ⃗ai + Wi , pour tout i ∈ I. Si i∈I Li = ∅, alors de
et donc nous
nouveau i∈I Li est une variété linéaire par définition. Supposons donc qu’il existe un
vecteur ⃗b ∈ i∈I Li . Alors, grâce au Corollaire 7.5, nous pouvons écrire Li = ⃗b + Wi
T
T
pour tout i ∈ I. Alors ⃗z ∈ i∈I Li , si et seulement si il existe des vecteurs w
⃗ i ∈ Wi
tels que
⃗z = ⃗b + w
⃗ i , ∀i ∈ I.
Fixons un élément i0 ∈ I arbitraire. Alors pour tout autre i ∈ I, T nous trouvons
⃗
que ⃗z = b + w ⃗ ⃗ i et donc w
⃗ i0 = b + w ⃗i = w ⃗ i0 ∈ i∈I Wi et donc
⃗ i0 . Il suit que w
⃗ T
⃗z ∈ b + i∈I Wi . Nous pouvons alors écrire
\ \
Li = ⃗b + Wi ,
i∈I i∈I
T T
et donc i∈I Li est une variété linéaire car i∈I Wi est un sous-espace vectoriel de
V.
T :V →V′
Démonstration. (i). Si L est vide, alors T (L) est aussi vide et donc une variété linéaire.
Supposons maintenant que L est non-vide et donc de la forme L = ⃗a + W avec ⃗a ∈ V
et W un sous-espace de V . Alors par la Proposition 6.16, fT (W ) est un sous-espace
de V ′ . Alors
avec ⃗a′ = fT (⃗a) + ⃗bT et W ′ = fT (W ). Nous trouvons donc que T (L) est une variété
linéaire de V ′ .
(ii). Si T −1 (L′ ) est vide, c’est une variété linéaire par définition. Supposons donc que
T −1 (L) est non-vide et soit ⃗a ∈ T −1 (L′ ), c’est-à-dire T (⃗a) ∈ L′ . Alors L′ est aussi
non-vide et nous pouvons l’écrire comme L′ = ⃗a′ + W ′ avec ⃗a′ ∈ V ′ où W ′ est un
sous-espace de V ′ . Nous trouvons alors que
⃗ ′′ − ⃗bT − ⃗a′ − w
fT (⃗v − ⃗a) = fT (⃗v ) − fT (⃗a) = ⃗a′ + w ⃗ ′ + ⃗bT = w
⃗ ′′ − w
⃗ ′ ∈ W ′.
Comme w ⃗ ′ , f (w)
⃗ ∈ W ′ , nous concluons que T (⃗a + w)
⃗ ∈ ⃗a′ + W ′ = L′ et donc
⃗ ∈ T −1 (L′ ).
⃗a + w
Corollaire 7.10. Soit f : V → V ′ une application linéaire et ⃗v ′ = f (⃗v ) ∈ Im f . Alors
l’image inverse de ⃗v ′ est une variété linéaire. Plus précisément,
f −1 (⃗v ′ ) = ⃗v + Ker f.
Démonstration. Rappelons que {⃗v ′ } = ⃗v ′ + {⃗0} est une variété linéaire. Comme toute
application linéaire est une transformation affine, l’assertion suit directement de (la
démonstration de) la proposition précédente et du fait que Ker f = f −1 ({⃗0}).
de surprise que les systèmes d’équations linéaires sont aussi liés avec les applications
linéaires.
Considérons un système (S) de n équations à m inconnues, i.e.
a11 x1 + . . . + a1m xm = b1
.. (7.1)
.
a x + ... + a x
n1 1 nm m = bn
AX = B
avec A = (aij ) ∈ Kn×m , B = (bi ) ∈ K n×1 et X = (xi ) ∈ Km×1 . Alors nous pouvons
considérer l’application linéaire f : Km → Kn qui a A comme matrice dans les bases
standards de Km et Kn . Alors un vecteur ⃗v = (v1 , . . . , vm ) ∈ Km est une solution du
système (7.1) si et seulement si f (⃗v ) = ⃗b = (b1 , . . . , bn ). C’est-à-dire, l’ensemble des
solutions du système (7.1) est f −1 (⃗b), l’image inverse de ⃗b sous l’application linéaire
f.
L = ⃗a + W
Démonstration. (i). Si ⃗b = ⃗0, alors il suit des observations avant la proposition que
l’ensemble des solutions du système est l’image inverse de l’espace nul, c’est-à-dire le
noyau de l’application f avec A comme matrice dans les bases canoniques, et donc
un sous-espace vectoriel de Km . Réciproquement, si l’ensemble des solutions est un
sous-espace, le vecteur zéro est une solution de (S) alors f (⃗0) = ⃗b et donc ⃗b = ⃗0
comme l’image du vecteur zéro par une application linéaire est le vecteur zéro.
(ii). Nous savons que l’ensemble des solution de (S) est l’image inverse de ⃗b par
l’application linéaire f . Par le Corollaire 7.10, nous savons que f −1 (⃗b) = ⃗a + Ker f ,
où ⃗a un vecteur quelconque tel que f (⃗a) = ⃗b. Alors ⃗a est une solution de (S) et
par la partie (i), Ker f est l’ensemble de toutes les solutions du système homogène
associé.
CHAPITRE 7. GÉOMÉTRIE AFFINE 65
Proposition 7.12. Soit (S) un système d’équations linéaires (7.1), avec m variables
et n équations. Notons L la variété linéaire des solutions, A la matrice du système, et
W l’ensemble des solutions du système homogène AX = 0.
1. L est non-vide si et seulement si dimL = dimW ;
2. dimL = m − rg(A) (si L est non-vide);
3. m − n ≤ dimL ≤ m (si L est non-vide).
Dualité
Lemme 8.2. Soit V un espace vectoriel sur le corps K de dimension n. Alors V ∗ est
aussi un espace vectoriel de dimension n et donc V et V ∗ sont isomorphes.
Alors V et V ∗ ont la même dimension et sont donc isomorphe par le Corollaire 6.23.
Notre prochain but est d’obtenir un isomorphisme explicite entre un espace vectoriel
finidimensionnel et son dual.
Soit E une base d’un espace vectoriel quelconque V sur un corps K. Alors pour
tout vecteur ⃗v ∈ V il existe une famille de scalaires unique (v⃗e )⃗e∈E telle que
X
⃗v = v⃗e⃗e.
⃗e∈E
Pour tout ⃗e ∈ E, nous pouvons donc définir une forme linéaire par la formule
e∗ (⃗v ) = v⃗e .
C’est-à-dire, l’image d’un vecteur ⃗v par la forme e∗ est les coordonée de ⃗v par rapport
aux vecteurs ⃗e de la base E. Autrement dit, la forme linéaire e∗ sur V est définie par
66
CHAPITRE 8. DUALITÉ 67
les formules
e∗ (⃗e) = 1
e∗ (e⃗′ ) = 0
e∗ (e⃗′ ) = δ⃗e,e⃗′
où δ⃗e,e⃗′ est le symbole de Kronecker qui vaut 1 si les indices coincident et qui vaut
0 si les indices sont différents. Il suit directement de la définition de e∗ que
X
⃗v = e∗ (⃗v )⃗e. (8.1)
⃗e∈E
Exemple 8.3. Soit E = {⃗e1 = (1, 0), ⃗e2 = (0, 1)} la base standard de l’espace R2 .
Alors
e∗1 (x, y) = x, e∗2 (x, y) = y
pour tout (x, y) ∈ R2 . D’autre part, si nous considérons le base B = {⃗b1 = (1, 0), ⃗b2 =
(1, 1)}, on a pour tout (x, y) ∈ R2
Proposition 8.4. Soit V un espace vectoriel sur un corps K et soit E une base de V .
Alors la base dual E ∗ est une partie libre dans V ∗ et l’application linéaire induite par
αE : V → V ∗ , α(⃗e) = e∗
Démonstration. Soit
λ1 e∗1 + . . . + λn e∗n = 0 (8.2)
CHAPITRE 8. DUALITÉ 68
f (⃗e) = 1
pour tous ⃗e ∈ E. Alors f n’est pas une combinaison linéaire des éléments de E ∗ ,
comme tout élément de Vect(E ∗ ) envoie presque tout ⃗e ∈ E à zéro (vérifiez-le !).
Soit f ∈ V ∗ une forme linéaire sur un espace vectoriel V de dimension n. Alors
pour une base E = {⃗e1 , . . . , ⃗en } et pour la base standard {1} de K, nous pouvons
représenter f par une matrice ligne
[f ]1,E = a1 · · · an
telle que
f (⃗v ) = a1 v1 + . . . + an vn
pour tout ⃗v = v1⃗e1 + . . . + vn⃗en . Nous trouvons donc que ⃗v ∈ Ker f si et seulement si
les coordonnées de ⃗v satisfont l’équation
a1 x1 + . . . + an xn = 0.
Proposition 8.6. Il y a une bijection entre les hyperplans (passant par l’origine) d’un
espace vectoriel finidimensionnel V et les éléments non-nuls de V ∗ , à un multiple
scalaire près.
Considérons maintenant l’application αE : V → V ∗ comme dans la Proposition 8.4.
Alors pour un vecteur ⃗a = (a1 , . . . , an ) nous notons les coordonnées de ⃗a dans la base
E habituellement comme une matrice colonne.
a1
..
[⃗a]E = . .
an
Alors, la matrice de αE (⃗a), par rapport à la base E et à la base standard {1} de K est
exactement la matrice ligne donnée par la transposée de [⃗a] !
[αE (⃗a)]1,E = [⃗a]tE = a1 · · · an .
De cette manière, l’application αE peut être vue comme la transposée. D’autre part, si
nous écrivons les coordonnées de αE (⃗a) par rapport à la base E ∗ comme une matrice
colonne, cette matrice est de nouveau le même que la matrice [⃗a]E :
a1
..
[αE (⃗a)]E ∗ = [⃗a]E = . .
an
(ψ ◦ ϕ)∗ = ϕ∗ ◦ ψ ∗ : W ∗ → U ∗ .
et (idV )∗ = idV ∗ .
(ψ ◦ ϕ)∗ (f ) = f ◦ (ψ ◦ ϕ) = (f ◦ ψ) ◦ ϕ = ϕ∗ (f ◦ ψ) = ϕ∗ (ψ ∗ (f )).
de W et donc nous pouvons la compléter pour obtenir une base E de W (avec donc
E ′ ⊂ E). Définissons maintenant un covecteur f ∈ W ∗ de la manière suivante:
f (⃗e) = 0, ∀⃗e ∈ E ′
f (⃗e) = 1, ∀⃗e ∈ E \ E ′ .
ϕ∗ (f )(⃗v ) = f ◦ ϕ(⃗v ) = 0
[ϕ∗ ]E ∗ ,B ∗ = [ϕ]tB,E
Alors pour tout vecteur dual b∗j ∈ B ∗ , et tout vecteur ⃗ei ∈ E, nous trouvons en utilisant
la définition de ϕ∗ et (8.4) que
V ∗∗ = (V ∗ )∗ = HomK (V ∗ , K).
pour tout f ∈ V ∗ . Vérifions que ιV (⃗v ) est linéaire. Pour tous λ, µ ∈ K et tous f, g ∈ V ∗
nous avons
Nous pouvons donc conclure que ιV (⃗v ) ∈ V ∗∗ pour tout ⃗v ∈ V et donc nous obtenons
une application
ιV : V → V ∗∗ .
C’est-à-dire ϕ∗∗ ◦ ιV = ιW ◦ ϕ.
CHAPITRE 8. DUALITÉ 73
Démonstration. La vérification du fait que ιV est une application linéaire est laissé
comme exercice. Montrons que ιV est injective. Alors supposons que ιV (⃗v ) = 0 pour
un certain ⃗v ∈ V . Alors c’est le cas si et seulement si f (⃗v ) = 0 pour tout f ∈ V ∗ .
Alors soit E une base quelconque, et E ∗ la base dual. Nous trouvons que
X X
⃗v = e∗ (⃗v )⃗e = 0⃗e = ⃗0.
⃗e∈E ⃗e∈E
ϕ∗∗ (ιV (⃗v ))(f ) = ιV (⃗v ) ◦ ϕ∗ (f ) = ιV (⃗v )(f ◦ ϕ) = (f ◦ ϕ)(v) = ιW (ϕ(⃗v ))(f ).
Démonstration. Nous savons que dimV ∗∗ = dimV ∗ = dimV . Alors comme ιV est
injective, elle est aussi surjective.
Le théorème précédent est un résultat très important et pas du tout trivial ! La
partie magique de ce théorème n’est pas que le fait que V et V ∗∗ sont isomorphes,
comme ceci suit directement de la comparaison des dimensions, mais le fait qu’il existe
une isomorphisme canonique. Rappelons que ceci veut dire que tous les diagrammes
de la forme (8.5) sont commutatifs. Une autre manière de le comprendre, est que nous
pouvons définir le morphisme ιV sans utiliser une base de V . Le morphisme ιV est donc
indépendant du choix d’une base, d’où le mot "naturel". Ceci contraste par exemple
avec le morphisme αE : V → V ∗ de Proposition 8.4, qui dépend fortement du choix
de la base E.
Appendices
74
L’alphabet Grec
75
Liste des notations
Dans cette liste, K dénote un corps, V, V ′ , W, W ′ sont des espaces vectoriels sur K.
Symbole Explication
N ensemble des nombres naturels
N0 ensemble des nombres naturels non nuls
Z ensemble des nombres entiers
Z0 ensemble des nombres entiers non nuls
Q ensemble des nombres rationnels
Q0 ensemble des nombres rationnels non nuls
R ensemble des nombres réels
R0 ensemble des nombres réels non nuls
C ensemble des nombres complexes
C0 ensemble des nombres complexes non nuls
|a| la valeur absolue d’un nombre réel a ∈ R
Pn
Qni=1 ai la somme des ai pour i qui varie de 1 jusqu’à n
i=1 ai le produit des ai pour i qui varie de 1 jusqu’à n
∈ est un élément de
∈
/ n’est pas un élément de
⊂, ⊆ est un sous-ensemble de
⊊ est un sous-ensemble strict de
̸ ⊂ n’est pas un sous-ensemble de
∀ “pour tous”
∃ “il existe”
∃! “il existe un unique”
|X| ou #X la cardinalité de l’ensemble X. Si X est fini ceci est le
nombre d’éléments dans X.
76
LISTE DES NOTATIONS 77
78
INDEX 79