Doc. Géométrie Affine
Doc. Géométrie Affine
Doc. Géométrie Affine
2 Barycentres 7
2.1 Système de points pondérés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Barycentre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3 Isobarycentre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4 Associativité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3 Sous-espaces affines 10
3.1 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2 Sous-espace affine engendré par une partie . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3 Familles de points affinement libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.4 Position relative de deux sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . 14
5 Convexité 23
6 Applications affines 24
6.1 Application conservant les barycentres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.2 Propriétés des applications affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
6.3 Endomorphisme affine et points fixes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
6.4 Groupe affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.5 Sous-groupe des homothéties-translations . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1
8 Théorèmes classiques de géométrie affine 35
8.1 Quotient de Mesures algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
8.2 Théorème de Thales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.3 Théorème de Pappus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.4 Théorème de Desargues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
14 Orientation 66
14.1 Groupe des isométries directes d’un plan vectoriel . . . . . . . . . . . . . . . . . . . . . . 66
14.2 Orientation d’un espace vectoriel réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
14.3 Orientation d’un espace affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
14.4 Produit mixte et produit vectoriel dans un espace affine euclidien orienté . . . . . . . . . 69
14.5 Aires et volumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2
15.6 Angles orientés de demi-droites et de droites . . . . . . . . . . . . . . . . . . . . . . . . . 81
15.7 Similitudes, isométries et angles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
1 Espaces affines
1.1 Définition
Définition 1.1. Soit 𝐸 un 𝕂-espace vectoriel. Un espace affine sur 𝕂 de direction 𝐸 est un ensemble
muni d’une application 𝜃 ∶ × ⟶ 𝐸 vérifiant les axiomes
(𝐴, 𝐵) ⟼ 𝜃(𝐴, 𝐵)
(A1) Pour tout 𝐴 ∈ l’application 𝜃𝐴 ∶ ⟶ 𝐸 est une bijection.
𝐵 ⟼ 𝜃(𝐴, 𝐵)
(A2) ∀𝐴, 𝐵, 𝐶 ∈
𝜃(𝐴, 𝐶) = 𝜃(𝐴, 𝐵) + 𝜃(𝐵, 𝐶). (Relation de Chasles).
On désigne l’espace affine de direction 𝐸 par (, 𝐸). Les éléments de sont appelés des points et ceux
de 𝐸 des vecteurs. Les éléments de 𝕂 sont appelés les scalaires.
La dimension de est la dimension du 𝕂-espace vectoriel 𝐸 associé à .
Notation : La plupart du temps on parlera d’un espace affine de direction 𝐸 en ne précisant pas le
corps 𝕂 qui est sous entendu dans la direction 𝐸. Afin de retrouver des notations habituelles provenant
⃖⃖⃖⃗
du plan ℝ2 et de l’espace ℝ3 pour tout 𝐴, 𝐵 ∈ on notera 𝜃(𝐴, 𝐵) = 𝐴𝐵.
La définition devient alors
Définition 1.2. Soit 𝐸 un 𝕂-espace vectoriel. Un espace affine de direction 𝐸 est un ensemble muni
d’une application × ⟶ 𝐸 vérifiant les axiomes
(𝐴, 𝐵) ⟼ 𝐴𝐵 ⃖⃖⃖⃗
(A1) Pour tout 𝐴 ∈ l’application ⟶ 𝐸 est une bijection.
𝐵 ⟼ 𝐴𝐵 ⃖⃖⃖⃗
(A2) ∀𝐴, 𝐵, 𝐶 ∈
⃖⃖⃖⃗ = 𝐴𝐵
𝐴𝐶 ⃖⃖⃖⃗ + 𝐵𝐶.
⃖⃖⃖⃗ (Relation de Chasles).
⃖⃖⃖⃖⃗ = 𝑢.
𝑀 = 𝐴 + 𝑢⃖⃗ ⇔ 𝐴𝑀 ⃖⃗ (∗) 𝐴
3
Exemple : Espace affine de dimension 0, 1, 2
1. Un espace affine (, 𝐸) est de dimension 0 si et seulement si est un singleton. En effet dim(𝐸) = 0
si et seulement si 𝐸 = {0𝐸 } et d’après l’axiome (𝐴1) les ensembles et 𝐸 sont en bijection.
2. Un espace affine (, 𝐸) de dimension 1 est appelé une droite affine. La direction est une droite
vectorielle. Pour tout 𝑢⃖⃗ ∈ 𝐸 non nul on a 𝐸 = Vect(⃖𝑢).
⃗
3. Un espace affine (, 𝐸) de dimension 2 est appelé un plan affine.
⃖⃖⃖⃗ = 𝐴𝐶
𝐴𝐵 ⃖⃖⃖⃗ ⇔ 𝐵 = 𝐶, et ⃖⃖⃖⃗ = 𝐵𝐶
𝐴𝐶 ⃖⃖⃖⃗ ⇔ 𝐴 = 𝐵; 𝐷
𝐶
4. Pour tout 𝐴, 𝐵 ∈ , 𝑢,
⃖⃗ 𝑣⃖⃗ ∈ 𝐸
𝐵
𝐴 + 𝑢⃖⃗ = 𝐴 + 𝑣⃖⃗ ⇔ 𝑢⃖⃗ = 𝑣,
⃖⃗ et 𝐴 + 𝑢⃖⃗ = 𝐵 + 𝑢⃖⃗ ⇔ 𝐴 = 𝐵; 𝐴
5. ∀𝐴 ∈ , 𝑢,
⃖⃗ 𝑣⃖⃗ ∈ 𝐸, ⃖⃗ + 𝑣⃖⃗ = 𝐴 + (⃖𝑢⃗ + 𝑣);
(𝐴 + 𝑢) ⃖⃗ 𝑣⃖⃗
6. Règle du parallélogramme 𝐵
∀𝐴, 𝐵, 𝐶, 𝐷 ∈ ⃖⃖⃖⃗ = 𝐶𝐷
𝐴𝐵 ⃖⃖⃖⃖⃗ ⇔ 𝐴𝐶
⃖⃖⃖⃗ = 𝐵𝐷;
⃖⃖⃖⃗
7. ∀𝐴, 𝐵 ∈ , ⃗ 𝑣⃖⃗ ∈ 𝐸,
∀⃖𝑢, ⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
(𝐴 ⃖⃗ + 𝑣)
+ 𝑢)(𝐵 ⃖⃖⃖⃗ − 𝑢⃖⃗ + 𝑣.
⃖⃗ = 𝐴𝐵 ⃖⃗ 𝑢⃖⃗
𝐴
En particulier pour tout 𝐴, 𝐵 ∈ et 𝑢⃖⃗ ∈ 𝐸 l’égalité 𝐵 = 𝐴 + 𝑢⃖⃗ détermine chacun des 3 éléments en fonction
des deux autres :
𝐵 = 𝐴 + 𝑢⃖⃗ ⇔ 𝐴 = 𝐵 + (−⃖𝑢) ⃖⃖⃖⃗
⃗ ⇔ 𝑢⃖⃗ = 𝐴𝐵.
⃖⃗
La deuxième égalité est aussi écrite 𝐴 = 𝐵 − 𝑢.
Intuitivement un espace affine (, 𝐸) peut être compris en disant que et 𝐸 sont deux points du vue
différents d’un même objet :
1. On peut choisir de voir uniquement les points de en oubliant la structure vectorielle (tout couple
⃖⃖⃖⃗ de 𝐸).
(𝐴, 𝐵) de points de définit un unique vecteur 𝐴𝐵
2. On peut choisir de voir uniquement les vecteurs de 𝐸 en oubliant les points de .
Ces deux points de vue sont liés par l’axiome (A1). Dès que l’on se fixe un choix d’un point 𝐴 ∈ , que
l’on peut alors voir comme le choix d’une origine :
1. tout vecteur 𝑢⃖⃗ de 𝐸 définit un unique point 𝐴 + 𝑢⃖⃗ de ;
2. tout point 𝐵 de définit un unique vecteur 𝐴𝐵⃖⃖⃖⃗ de 𝐸.
4
Définition 1.3. Soit 𝐸 un 𝕂-espace vectoriel. Un espace affine de direction 𝐸 est un ensemble muni
d’une action à droite du groupe additif (𝐸, +) sur : × 𝐸 ⟶ vérifiant
⃖⃗ ⟼ 𝐴 ∗ 𝑢⃖⃗
(𝐴, 𝑢)
Plus généralement une action d’un groupe 𝐺 sur un ensemble 𝑋 est dite simplement transitive si
pour tout 𝑥, 𝑦 ∈ 𝑋 il existe un unique 𝑔 ∈ 𝐺 tel que 𝑦 = 𝑔.𝑥. Au sens de la définition 1.3 une structure
d’espace affine sur un ensemble est la donné d’un espace vectoriel 𝐸 et d’une action de groupe à droite
simplement transitive de (𝐸, +) sur .
A titre d’exercice on peut vérifier que
Proposition 1.2. Soit 𝐺 un groupe abélien 𝐺. Une action de 𝐺 sur un ensemble 𝑋 est simplement
transitive si et seulement si cette action est fidèle et transitive.
Les définitions 1.1 et 1.3 sont équivalentes. Supposons que est un espace affine au sens de la défini-
tion 1.1 alors on a l’application × 𝐸 ⟶ 𝐸 . La proposition 1.1 montre que c’est une action de
⃖⃗ ⟼ 𝐴 + 𝑢⃖⃗
(𝐴, 𝑢)
groupe. L’axiome (𝐴3) se déduit de l’équivalence (∗).
Inversement si est un espace affine au sens de la définition 1.3. Grâce à l’axiome (𝐴3) on peut considérer
l’application 𝜃 ∶ × → 𝐸 où 𝑢⃖⃗ est l’unique vecteur vérifiant 𝐵 = 𝐴 ∗ 𝑢. ⃖⃗
(𝐴, 𝐵) ↦ 𝑢⃖⃗
Pour tout 𝐴 ∈ on a alors les applications
𝜃𝐴 ∶ → 𝐸 ; 𝜓𝐴 ∶ 𝐸 → .
𝐵 ↦ 𝜃(𝐴, 𝐵) 𝑣⃖⃗ ↦ 𝐴 ∗ 𝑣⃖⃗
Pour tout 𝑣⃖⃗ ∈ 𝐸 on a 𝜃𝐴 ◦𝜓𝐴 (⃖⃗ ⃖⃗ = 𝑢,
𝑣) = 𝜃𝐴 (𝐴 ∗ 𝑣) ⃖⃗ où 𝑢⃖⃗ est l’unique vecteur vérifiant 𝐴 ∗ 𝑣⃖⃗ = 𝐴 ∗ 𝑢.
⃖⃗ Donc
par unicité 𝑢⃖⃗ = 𝑣⃖⃗ et par conséquent 𝜃𝐴 ◦𝜓𝐴 = Id𝐸 .
Réciproquement pour tout 𝑀 ∈ on a 𝜃𝐴 (𝑀) = 𝑢⃖⃗ où 𝑢⃖⃗ est l’unique vecteur vérifiant 𝑀 = 𝐴 ∗ 𝑢. ⃖⃗ Donc
⃗ = 𝐴 ∗ 𝑢⃖⃗ = 𝑀.
𝜓𝐴 ◦𝜃𝐴 (𝑀) = 𝜓𝐴 (⃖𝑢)
La fonction 𝜃𝐴 est donc bijective et l’axiome (𝐴1) est vérifié.
Pour l’axiome (𝐴2) on considère 𝐴, 𝐵, 𝐶 ∈ . Alors il existe des unique vecteurs 𝑢,
⃖⃗ 𝑣,
⃖⃗ 𝑤
⃖⃗ ∈ 𝐸 tels que
⃖⃗
𝐶 = 𝐴 ∗ 𝑢, ⃖⃗
𝐵 = 𝐴 ∗ 𝑣, ⃖⃗
𝐶 = 𝐵 ∗ 𝑤.
Donc comme ∗ est une action du groupe additif (𝐸, +) on a 𝐶 = 𝐵 ∗ 𝑤 ⃖⃗ = (𝐴 ∗ 𝑣)
⃖⃗ ∗ 𝑤
⃖⃗ = 𝐴 ∗ (⃖⃗ ⃖⃗
𝑣 + 𝑤).
Par unicité de 𝑢⃖⃗ on a l’égalité 𝑢⃖⃗ = 𝑣⃖⃗ + 𝑤
⃖⃗ qui est l’axiome (𝐴2).
1.4 Exemples
1. Un 𝕂-espace vectoriel 𝑉 peut être vu comme un espace affine de direction lui même.
La structure est donnée par l’application 𝜃 ∶ 𝑉 × 𝑉 → 𝑉 . On dit que 𝑉 est muni de la
⃗ ⃖⃗ ⃖⃗
(⃖𝑢, 𝑣) ↦ 𝑣 − 𝑢 ⃖⃗
structure canonique d’espace affine.
En terme d’action de groupe la structure canonique d’espace affine est donnée pour tout 𝑢, ⃖⃗ 𝑣⃖⃗ ∈ 𝑉
par 𝑢⃖⃗ ∗ 𝑣⃖⃗ = 𝑢⃖⃗ + 𝑣.
⃖⃗
En particulier l’ensemble 𝕂𝑛 muni de la structure d’espace affine canonique est noté 𝔸𝑛𝕂 . Lorsque
𝕂 = ℝ on note 𝔸𝑛ℝ par 𝔸𝑛 .
2. Soit 𝐹 un 𝕂-espace vectoriel et 𝐸 est un sous-espace vectoriel de 𝐹 différent de 𝐹 . Alors pour tout
𝑎 ∈ 𝐹 ⧵ 𝐸 l’ensemble = 𝑎 + 𝐸 = {𝑎 + 𝑢,⃖⃗ 𝑢⃖⃗ ∈ 𝐸} n’est pas un espace vectoriel mais est un espace
⃖⃖⃖⃗ = 𝑣⃖⃗ − 𝑢⃖⃗ ∈ 𝐸.
⃖⃗ 𝐵 = 𝑎 + 𝑣⃖⃗ ∈ on a 𝐴𝐵
affine de direction 𝐸. Pour tout 𝐴 = 𝑎 + 𝑢,
On reverra cette exemple plus tard lorsque l’on étudiera les sous-espaces affines.
5
3. En particulier pour 𝐹 = 𝕂𝑝 l’ensemble des solutions d’un système d’équations linéaires inhomo-
gène 𝑀𝑋 = 𝑉 avec 𝑀 ∈ 𝑀𝑛,𝑝 (𝕂) et 𝑉 ∈ 𝕂𝑛 un vecteur non nul est un espace affine de direction 𝐸
l’ensemble des solutions de l’équation homogène 𝑀𝑋 = 0.
4. Soit 𝑃 l’ensemble des solutions réelles de l’équation 𝑥 2 + 𝑦 2 − 𝑧 = 0 c-a-d
{ 𝑥 }
3 2 2
𝑃 = ( 𝑧 ) ∈ ℝ |𝑥 + 𝑦 + 𝑧 = 0 .
𝑦
𝑥 𝑥′
⃖⃖⃖⃗ 𝑥 ′ −𝑥
C’est un espace affine de direction ℝ2 avec pour tout 𝐴 = ( 𝑦 𝑦′
) , 𝐵 = ( 𝑥 ′2 +𝑦 ′2 ) ∈ 𝑃 𝐴𝐵 = ( 𝑦 ′ −𝑦 ).
𝑥 2 +𝑦 2
5. Soit 𝐴 une application continue d’un intervalle 𝐼 de ℝ dans 𝑀𝑛 (ℝ) et 𝐵 une application continue
de 𝐼 dans ℝ𝑛 . L’ensemble des solutions d’une équation différentielle linéaire avec second membre
𝑋 ′ (𝑡) = 𝐴(𝑡)𝑋 (𝑡) + 𝐵(𝑡) est un espace affine de direction l’espace vectoriel des solutions du système
homogène associé.
6. Soit 𝑐1 , … , 𝑐𝑘 des réels et 𝑟 ∶ ℕ → ℝ. L’ensemble des suites vérifiant une relation linéaire d’ordre
𝑘 𝑢𝑛 = 𝑐1 𝑢𝑛−1 + ⋯ + 𝑐𝑘 𝑢𝑛−𝑘 + 𝑟(𝑛) est un espace affine de direction l’espace vectoriel des suites
vérifiant la relation linéaire homogène 𝑢𝑛 = 𝑐1 𝑢𝑛−1 + ⋯ + 𝑐𝑘 𝑢𝑛−𝑘 .
7. L’ensemble des fonctions 𝑓 d’une variable réelle vérifiant 𝑓 (0) = 1 est un espace affine de direction
l’espace vectoriel des fonctions nulles en 0.
Définition 1.4. Soit (, 𝐸) un espace affine. Pour tout 𝑢⃖⃗ ∈ 𝐸 la translation de vecteur 𝑢⃖⃗ est l’application
𝑡⃗𝑢 ∶ → .
𝐴 ↦ 𝐴 + 𝑢⃖⃗
⃖⃖⃖⃖⃗ = 𝑢.
𝑀 = 𝑡⃗𝑢 (𝐴) ⇔ 𝐴𝑀 ⃖⃗ 𝑢⃖⃗
⃖⃗ 𝑣⃖⃗ ∈ 𝐸 on a :
En particulier pour tout 𝑢,
6
Soit (, 𝐸) un espace affine. Par la définition 1.1 pour tout 𝐴 ∈ on a une bijection (ensembliste)
𝜃𝐴 ∶ → 𝐸 de réciproque donnée par 𝜃𝐴−1 ∶ 𝐸 → .
𝑀 ↦ 𝐴𝑀 ⃖⃖⃖⃖⃗ 𝑢⃖⃗ ↦ 𝐴 + 𝑢⃖⃗
On peut alors "transporter" la structure d’espace vectoriel de 𝐸 sur . L’addition +𝐴 ∶ × → et le
produit extérieur .𝐴 ∶ 𝐊 × → obtenus sont données pour tout 𝑀, 𝑁 ∈ et 𝛼 ∈ 𝕂 par :
⃖⃖⃖⃖⃗ + 𝐴𝑁
𝑀 +𝐴 𝑁 = 𝜃𝐴−1 (𝜃𝐴 (𝑀) + 𝜃𝐴 (𝑁 )) = 𝜃𝐴−1 (𝐴𝑀 ⃖⃖⃖⃖⃗) = 𝐴 + (𝐴𝑀
⃖⃖⃖⃖⃗ + 𝐴𝑁⃖⃖⃖⃖⃗) = 𝑀 + 𝐴𝑁
⃖⃖⃖⃖⃗;
−1 −1
𝛼.𝐴 𝑀 = 𝜃𝐴 (𝛼𝜃𝐴 (𝑀)) = 𝜃𝐴 (𝛼 𝐴𝑀) ⃖⃖⃖⃖⃗ = 𝐴 + 𝛼 𝐴𝑀.
⃖⃖⃖⃖⃗
Le 𝕂-espace vectoriel (, +𝐴 , .𝐴 ) ainsi obtenu est appelé vectorialisé de d’origine 𝐴. On le note 𝐴 .
𝑀 +𝐴 𝑁
Intuitivement un espace affine peut être vu comme une structure d’espace
vectoriel sans choix d’origine, mais ayant pour tout choix de point 𝐴 ∈ 3.𝐴 𝑀
𝑁
une vraie structure d’espace vectoriel avec 𝐴 comme origine. C’est l’espace
vectoriel 𝐴 . De plus les propriétés vectoriels de 𝐴 ne dépendent pas du choix
de l’origine 𝐴 ∈ choisie (tous les espaces vectoriels sont isomorphes à 𝐸). 𝐴 𝑀
2 Barycentres
Un des concepts fondamental de l’algèbre linéaire est la notion de combinaisons linéaires de vecteurs.
Dans le cadre vectoriel on associe à une famille finie de vecteurs 𝑢⃖⃗1 , … 𝑢⃖⃗𝑛 et de scalaire 𝜆1 , … , 𝜆𝑛 un vecteur
obtenu par combinaison linéaire : 𝜆1 𝑢⃖⃗1 + ⋯ + 𝜆𝑛 𝑢⃖⃗𝑛 . De la même façon dans le cadre affine on veut associer
à une famille de points 𝐴1 , … 𝐴𝑛 d’un espace affine (, 𝐸) et une famille de scalaires 𝜆1 , … , 𝜆𝑛 un point de
, que l’on appelle barycentre ou combinaison affine. On verra que l’existence d’un tel point dépend de
𝑛
∑ 𝜆𝑖 .
𝑖=1
2.2 Barycentre
On peut alors définir le barycentre d’un système de points pondérés de masse non nulle par :
7
Définition 2.2. Soit (, 𝐸) un espace affine et (𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼 un système de points pondérés de masse 𝜆 non
nulle.
⃖⃖⃖⃖⃗𝑖 = 0⃗. On le
Le barycentre du système de points pondérés (𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼 est le point 𝐺 ∈ vérifiant ∑ 𝜆𝑖 𝐺𝐴
𝑖∈𝐼
note Bar((𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼 ).
⃖⃖⃖⃗ = 1 ⃖⃖⃖⃖⃗𝑖 .
∀𝑃 ∈ , 𝑃𝐺 ∑ 𝜆𝑖 𝑃𝐴
∑ 𝜆𝑖 𝑖∈𝐼
𝑖∈𝐼
En utilisant la définition du barycentre on montre facilement que les modifications suivantes d’un sys-
tème de points pondérés de masse non nulle (𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼 ne changent par le barycentre du système :
1. Une permutations des couples (𝐴𝑖 , 𝜆𝑖 ). Par exemple
Bar((𝐴, 2), (𝐵, −1), (𝐶, 3)) = Bar((𝐶, −3), (𝐴, 2), (𝐵, −1)) = Bar((𝐶, −3), (𝐵, −1), (𝐴, 2)).
En particulier pour un système de points pondérés de masse non nulle (𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼 quitte à multiplier les
poids 𝜆𝑖 par l’inverse de la masse 𝜆1 , on peut toujours supposer pour calculer un barycentre que la masse
du sytème vaut 1
𝜆𝑖 𝜆𝑖 ∑𝑖∈𝐼 𝜆𝑖
Bar((𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼 ) = Bar((𝐴𝑖 , )𝑖∈𝐼 ), avec ∑ = = 1.
𝜆 𝑖∈𝐼 𝜆 𝜆
Dans les espaces affines sur ℝ les barycentres permettent de définir la notion de segment :
Définition 2.3. Soit un espace affine sur ℝ et 𝐴, 𝐵 des points distincts de .
La segment [𝐴𝐵] est l’ensemble des barycentres des systèmes de points pondérés ((𝐴, 𝛼), (𝐵, 𝛽)) avec
𝛼, 𝛽 ∈ ℝ+ .
2.3 Isobarycentre
Pour toute famille finie de points (𝐴𝑖 )𝑖∈𝐼 on peut considérer le système de points pondérés (𝐴𝑖 , 1)𝑖∈𝐼 .
La masse de ce système est le cardinal de 𝐼 . Le corps 𝕂 étant de caractéristique nulle, cette masse est non
nulle. On peut donc toujours considérer le barycentre de ce système.
Définition 2.4. Soit (, 𝐸) un espace affine et (𝐴𝑖 )𝑖∈𝐼 une famille finie de points de .
L’isobarycentre de (𝐴𝑖 )𝑖∈𝐼 est le barycentre du système de points pondérés (𝐴𝑖 , 1)𝑖∈𝐼 .
On le note Bar((𝐴𝑖 )𝑖∈𝐼 ).
8
En particulier l’isobarycentre 𝐺 de (𝐴1 , … , 𝐴𝑛 ) vérifie que
𝑛 𝑛
⃖⃖⃖⃖⃗𝑖 = 0⃗,
∑ 𝐺𝐴 ou encore que ∀𝑃 ∈ , ⃖⃖⃖⃗ = 1 ∑ 𝑃𝐴
𝑃𝐺 ⃖⃖⃖⃖⃗𝑖 .
𝑖=1 𝑛 𝑖=1
L’isobarycentre 𝐼 de 2 points 𝐴, 𝐵 d’un espace affine est appelé le milieu des points 𝐴 et 𝐵. Pour 𝑃 = 𝐴
l’égalité précédente devient 𝐴𝐼 ⃖⃖⃖⃗ En d’autre terme 𝐼 est défini par 𝐼 = 𝐴 + 1 𝐴𝐵.
⃖⃖⃖⃗ = 1 𝐴𝐵. ⃖⃖⃖⃗
2 2
L’isobarycentre 𝐼 de 3 points 𝐴, 𝐵, 𝐶 d’un espace affine est appelé le centre de gravité des points 𝐴,𝐵,𝐶.
Application : Parallélogramme.
𝐷
Soit (, 𝑈 ) un espace affine et 𝐴, 𝐵, 𝐶, 𝐷 des points de . On a déjà vu
(règle de parallélogramme) que 𝐴𝐵 ⃖⃖⃖⃗ = 𝐶𝐷
⃖⃖⃖⃖⃗ si et seulement si 𝐴𝐶
⃖⃖⃖⃗ = 𝐵𝐷.
⃖⃖⃖⃗ 𝐶
𝐼
Dans ce cas on dit 𝐴𝐵𝐷𝐶 est un parallélogramme.
On peut en donner une caractérisation supplémentaire : 𝐵
⃖⃖⃖⃗ = 𝐶𝐷
𝐴𝐵 ⃖⃖⃖⃖⃗ ⇔ 𝐴𝐶
⃖⃖⃖⃗ = 𝐵𝐷
⃖⃖⃖⃗ ⇔ le milieu de 𝐴, 𝐷 et le milieu de 𝐵, 𝐶 𝐴
sont confondus
2.4 Associativité
Lors du calcul de combinaisons linéaires de vecteurs la propriété d’associativité permet de calculer
une partie de la combinaison sans toucher aux termes restant. Cette propriété est encore vraie pour
le calcul de barycentre : on peut regrouper un sous-ensemble de points pondérés de masse non nulle
d’un système et le remplacer par le barycentre de ce sous-ensemble muni de la masse du sous-ensemble
comme poids. Par exemple
Bar((𝐴, 2), (𝐵, 1), (𝐶, 3), (𝐷, −4)) = Bar((𝐺1 , 5), (𝐵, 1), (𝐷, −4)) = Bar(𝐺2 , 𝐵),
où 𝐺1 = Bar((𝐴, 2), (𝐶, 3)) et 𝐺2 = Bar((𝐴, 2), (𝐶, 3), (𝐷, −4)) = Bar((𝐺1 , 5), (𝐷, −4)).
Par contre on ne peut pas considérer le sous-système ((𝐵, 1), (𝐶, 3), (𝐷, −4)) car il est de masse nulle et
donc il n’a pas de barycentre.
Cette règle est plus difficile à formuler de façon formelle que d’appliquer ou de prouver. Afin de simpli-
fier cette formulation on peut commencer par supposer que le sous-ensemble à remplacer est constitués
de points pondérés consécutifs situés au début de la famille (un barycentre ne change pas en appliquant
une permutation des points pondérés du système).
Proposition 2.2. Soit un espace affine et ((𝐴1 , 𝜆1 ), … , (𝐴𝑛 , 𝜆𝑛 )) un système de points pondérés de
masse non nulle.
Pour tout sous-ensemble de points pondérés ((𝐴1 , 𝜆1 ), … , (𝐴𝑟 , 𝜆𝑟 )) avec 1 ⩽ 𝑟 < 𝑛 et 𝜆1 + ⋯ + 𝜆𝑟 ≠ 0 on
a pour 𝐺 = Bar((𝐴1 , 𝜆1 ), … , (𝐴𝑟 , 𝜆𝑟 ))
9
Proposition 2.3. Soit un espace affine et (𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼 un système de points pondérés de masse non nulle
indexé par un ensemble fini 𝐼 .
Pour toute partition (𝐼𝑗 )𝑗∈𝐽 de 𝐼 telle que pour tout 𝑗 ∈ 𝐽 𝜔𝑗 = ∑ 𝜆𝑖 ≠ 0 on a
𝑖∈𝐼𝑗
3 Sous-espaces affines
Un sous-espace vectoriel est une partie d’un espace vectoriel stable par combinaison linéaire. Pour
les espaces affines la notion de combinaisons linéaires est remplacée par celle de barycentres. On définit
alors
Définition 3.1. Soit (, 𝐸) un espace affine. Une partie non vide de est un sous-espace affine (s-
e-a) de si pour tout système de points de pondérés (𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼 de masse non nulle son barycentre
Bar((𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼 ) appartient à .
Dans la notion de barycentre si l’on fixe un point 𝐴0 ∈ alors considérer le barycentre de (𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼
de masse 𝜆 non nulle revient à considérer le point 𝐺 de vérifiant 𝐴 ⃗ 1 ∑ 𝜆𝑖 𝐴
⃖⃖⃖⃖⃖
0𝐺 =
⃖⃖⃖⃖⃖⃗
0 𝐴𝑖 . Si l’on se place
𝜆 𝑖∈𝐼
dans l’espace vectoriel 𝐴0 associé à d’origine 𝐴0 cela revient à considérer une combinaison linéaire de
vecteurs.
Donc intuitivement dans la définition précédente en prenant 𝐴0 ∈ considérer l’ensemble des bary-
centres de points de revient à considérer l’ensemble des combinaisons linéaires de vecteurs de la forme
⃖⃖⃖⃖⃖⃗
𝐴 0 𝑀 avec 𝑀 ∈ . On peut alors énoncer une définition équivalente de sous-espace affine utilisant la
structure d’espace vectoriel :
s-e-a ⇔ ∃𝐴 ∈ , 𝜃𝐴 ( ) s-e-v de 𝐸.
{ }
⃖⃖⃖⃖⃗
En fait la condition qu’il existe 𝐴 ∈ tel que 𝐴𝑀; 𝑀 ∈ est un sous-espace vectoriel de 𝐸 est
équivalente à plusieurs autre conditions donnant chacune une autre définition (équivalente à 3.1) d’un
sous-espace affine :
Proposition 3.2. Soit (, 𝐸) un espace affine. Pour toute partie de les conditions suivantes sont
équivalentes :
{ }
⃖⃖⃖⃖⃗ 𝑀 ∈ est un sous-espace vectoriel de 𝐸 ;
1. il existe 𝐴 ∈ tel que 𝐴𝑀;
2. il existe 𝐴 ∈ et un sous espace vectoriel 𝐹 de 𝐸 tel que = 𝐴 + 𝐹 = {𝐴 + 𝑢;
⃖⃗ 𝑢⃖⃗ ∈ 𝐹 } ;
3. est non vide et il existe un sous-espace vectoriel 𝐹 de 𝐸 tel que
{ }
∀𝐴 ∈ , 𝐹 = 𝐴𝑀;⃖⃖⃖⃖⃗ 𝑀 ∈ ;
∀𝐴 ∈ , = 𝐴 + 𝐹 .
10
En particulier le point 3. montre qu’a tout sous-espace affine on peut associer un sous-espace vectoriel
particulier :
Définition 3.2. Soit (, 𝐸) un espace affine et un sous-espace affine. Le sous-espace vectoriel directeur
de est le sous-espace vectoriel 𝐹 de 𝐸 vérifiant pour tout 𝐴 ∈ 𝐹 = {𝐴𝑀; ⃖⃖⃖⃖⃗ 𝑀 ∈ }.
On dit également que est dirigé par 𝐹 et on note ( , 𝐹 ).
La dimension du sous-espace affine est la dimension du sous-espace vectoriel directeur 𝐹 de .
⃖⃖⃖⃖⃗ ∈ 𝐹
𝑀 ∈ ⇔ 𝐴𝑀 ⃖⃖⃖⃖⃗
et ∀𝐴 ∈ , ∀⃖𝑢⃗ ∈ 𝐹 , ∃!𝑀 ∈ , 𝑢⃖⃗ = 𝐴𝑀.
⃖⃖⃖⃖⃗ = 𝑢⃖⃗ ⇔ 𝑀 = 𝐴 + 𝑢⃖⃗ la dernière propriété peut se réécrire en terme de points par
Comme 𝐴𝑀
∀𝐴 ∈ , ∀⃖𝑢⃗ ∈ 𝐹 , ∃!𝑀 ∈ , 𝑀 = 𝐴 + 𝑢.
⃖⃗
Une partie de est un s-e-a si et seulement si il existe 𝐴 ∈ et un sous espace vectoriel 𝐹 de 𝐸 tel que
= 𝐴 + 𝐹.
En particulier elle montre que si on se donne un point 𝐴 et un s-e-v 𝐹 alors il existe un s-e-a dirigé
⃖⃖⃖⃖⃗ ∈ 𝐹 } = 𝐴 + 𝐹 .
par 𝐹 tel que 𝐴 ∈ . C’est la partie de donnée par = 𝜃𝐴−1 (𝐹 ) = {𝑀 ∈ , 𝐴𝑀
De plus ce s-e-a est unique. En effet si est un autre s-e-a dirigé par 𝐹 et contenant 𝐴 on a 𝐹 = 𝜃𝐴 ( ′ )
′
Définition 3.3. Soit (, 𝐸) un espace affine. Pour tout 𝐴 ∈ et sous-espace vectoriel 𝐹 de 𝐸 le sous-
espace affine de dirigé par 𝐹 et passant par 𝐴 est l’unique sous-espace affine de dirigé par 𝐹 et
contenant 𝐴.
3.1 Exemple
Soit (, 𝐸) un espace affine.
1. Les sous-espaces affines de dimension 0 sont les singletons de c-a-d {𝐴} avec 𝐴 ∈ . On dit que
ce sont des points.
2. Les sous-espaces affines de dimension 1 sont appelés des droites. Des points d’un espace affine
sont dits alignés s’ils appartiennent à une même droite.
3. Les sous-espaces affines de dimension 2 sont appelés des plans. Des points d’un espace affine sont
dis coplanaires s’ils appartiennent à un même plan.
4. L’ensemble est un sous-espace affine de lui même de direction 𝐸.
5. Si est de dimension 𝑛 alors un hyperplan de est un s-e-a de dimension 𝑛 − 1.
11
6. Pour 𝔸2 ou 𝔸3 et un s-e-v de dimension 1 associé à un vecteur 𝑢⃖⃗ le s-e-a passant par 𝐴 et dirigé
⃖⃗
par 𝐹 est l’une unique droite passant par 𝐴 de vecteur directeur 𝑢.
7. Dans le cas d’un espace vectoriel 𝑉 muni de sa structure canonique d’espace affine, les s-e-v de 𝑉
sont les s-e-a de l’espace affine 𝑉 contenant l’origine 0⃗𝑉 . En effet une partie de 𝑉 est un s-e-a si
et seulement il existe un s-e-v 𝐹 de 𝑉 tel que pour tout 𝑣 ∈ on a
= 𝑣 + 𝐹 = {𝑣 + 𝑢,
⃖⃗ 𝑢⃖⃗ ∈ 𝐹 },
Pour toute partie non vide de il y a au moins un s-e-a de contenant . C’est le s-e-a . Donc l’en-
semble des s-e-a de contenant est non vide et on peut considérer l’intersection de ces éléments. C’est
un s-e-a car est inclus dans chaque élément. Par construction c’est le plus petit s-e-a de contenant
. On peut donc définir :
Définition 3.4. Soit une partie non vide d’un espace affine (, 𝐸). L’intersection de tous les s-e-a
de contenant , qui est aussi le plus petit s-e-a de contenant , est appelé le sous-espace affine
engendré par . On le note < >.
Le s-e-a engendré par une famille de points {𝐴0 , … , 𝐴𝑛 } est noté < 𝐴0 , … , 𝐴𝑛 >.
En particulier
1. Des points 𝐴0 , … , 𝐴𝑛 sont alignés si et seulement si dim(< 𝐴0 , … , 𝐴𝑛 >) ⩽ 1.
2. Des points 𝐴0 , … , 𝐴𝑛 sont coplanaires si et seulement si dim(< 𝐴0 , … , 𝐴𝑛 >) ⩽ 2.
On peut décrire le s-e-a engendré en terme de barycentres :
Proposition 3.4. Soit une partie non vide d’un espace affine (, 𝐸). L’ensemble des barycentres
de système de points pondérés de de masse non nulle est le s-e-a engendré par . Si 𝐹 est le s-e-v
⃖⃖⃖⃖⃗ 𝑀 ∈ }).
directeur de < > pour tout 𝐴 ∈ on a 𝐹 = Vect({𝜃𝐴 ()}) = Vect({𝐴𝑀,
Preuve : Notons l’ensemble des barycentres de système de points pondérés de de masse non
nulle. Pour tout 𝐴 ∈ on a 𝐴 = Bar((𝐴, 1)) donc 𝐴 ∈ et est non vide. Pour montrer que un s-e-a il
suffit alors de montrer que le barycentre de tout système de points de de masse non nulle appartient
12
à .
Soit 𝐺 le barycentre d’un système de points de de masse non nulle (𝐺𝑖 , 𝜆𝑖 )𝑖∈𝐼 . Par définition des points 𝐺𝑖
pour tout 𝑖 ∈ 𝐼 il existe un système de points de de masse non nulle (𝐴𝑗 , 𝜇𝑗 )𝑗∈𝐼𝑗 tel que 𝐺𝑖 = Bar((𝐴𝑗 , 𝜇𝑗 )𝑗∈𝐼𝑗 ).
Comme la masse du système est non nulle on peut supposer qu’elle vaut 1. En particulier on aura alors
𝐺𝑖 = Bar((𝐴𝑗 , 𝜇𝑗 )𝑗∈𝐼𝑗 ) = Bar((𝐴𝑗 , 𝜆𝑖 𝜇𝑗 )𝑗∈𝐼𝑗 ) avec ∑𝑗∈𝐼𝑗 𝜆𝑖 𝜇𝑗 = 𝜆𝑖 . Ainsi par associativité du barycentre on peut
remplacer dans 𝐺 = Bar((𝐺𝑖 , 𝜆𝑖 )𝑖∈𝐼 ) chacun des (𝐺𝑖 , 𝜆𝑖 ) par le système (𝐴𝑗 , 𝜆𝑖 𝜇𝑗 )𝑗∈𝐼𝑗 et donc 𝐺 s’écrit comme
le barycentre d’un système de points de . On a bien 𝐺 ∈ .
On a déjà vu que ⊂ donc est un s-e-a contenant et par conséquent < >⊂ .
Inversement pour tout 𝐺 ∈ il existe un système de points de de masse non nulle ((𝐴1 , 𝜆1 ), … , (𝐴𝑛 , 𝜆𝑛 ))
tel que 𝐺 = Bar((𝐴1 , 𝜆1 ), … , (𝐴𝑛 , 𝜆𝑛 )). De plus on peut supposer que la masse vaut 1.
𝑛
Alors 𝐴⃖⃖⃖⃖⃖
⃗ ⃖⃖⃖⃖⃖⃗
1 𝐺 = ∑ 𝜆𝑖 𝐴1 𝐴𝑖 avec pour tout 𝑖 ∈ {1, … , 𝑛} les points 𝐴1 , 𝐴𝑖 ∈< >, donc 𝐴1 𝐴𝑖 ∈ 𝐹 et par
⃖⃖⃖⃖⃖⃗
𝑖=2
⃖⃖⃖⃖⃖
conséquent 𝐴 ⃗
1 𝐺 ∈ 𝐹 . D’où 𝐺 ∈< > et ainsi =< >.
Soit 𝐴 ∈ montrons que 𝐹 = Vect({𝐴𝑀, ⃖⃖⃖⃖⃗ 𝑀 ∈ }). Si 𝑢⃖⃗ ∈ Vect({𝐴𝑀,⃖⃖⃖⃖⃗ 𝑀 ∈ }) alors il existe une famille
𝑛
⃖⃖⃖⃖⃖⃗𝑖 . Or on a 𝐴, 𝑀𝑖 ∈ ⊂< > donc
de points 𝑀1 , … , 𝑀𝑛 ∈ et des scalaires 𝛼1 , … , 𝛼𝑛 tels que 𝑢⃖⃗ = ∑ 𝛼𝑖 𝐴𝑀
𝑖=1
𝑛
⃖⃖⃖⃖⃖⃗𝑖 ∈ 𝐹 et par conséquent 𝑢⃖⃗ = ∑ 𝛼𝑖 𝐴𝑀
𝐴𝑀 ⃖⃖⃖⃖⃖⃗𝑖 ∈ 𝐹 .
𝑖=1
⃖⃖⃖⃖⃗ Comme 𝑀 ∈ il est barycentre d’un système
Inversement pour 𝑢⃖⃗ ∈ 𝐹 il existe 𝑀 ∈< > tel que 𝑢⃖⃗ = 𝐴𝑀.
de points de de masse non nulle, que l’on peut supposer valant 1, (𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼 .
⃖⃖⃖⃖⃗ = ∑ 𝜆𝑖 𝐴𝐴
Alors 𝑢⃖⃗ = 𝐴𝑀 ⃖⃖⃖⃖⃗𝑖 ∈ Vect({𝐴𝑀,
⃖⃖⃖⃖⃗ 𝑀 ∈ }). ■
𝑖∈𝐼
En particulier si {𝐴0 , … , 𝐴𝑛 } est une famille de points d’un espace affine alors
⃖⃖⃖⃖⃖⃗
dim(< 𝐴0 , … , 𝐴𝑛 >) = dim (Vect({𝐴 ⃖⃖⃖⃖⃖⃖⃗ ⃖⃖⃖⃖⃖⃖⃗
0 𝑀, 𝑀 ∈ })) = dim (Vect(𝐴0 𝐴1 , … , 𝐴0 𝐴𝑛 )) ⩽ 𝑛.
Plus généralement pour tout 𝑗 ∈ {0, … , 𝑛} on peut remplacer dans ces deux propositions 𝐴0 par n’importe
lequel des 𝐴𝑗 .
En particulier on a la caractérisation
Corollaire 3.1. Soit un espace affine et ( , 𝐹 ) un s-e-a de . Pour tout famille {𝐴0 , … , 𝐴𝑛 } de points
de on a
=< 𝐴0 , … , 𝐴𝑛 >⇔ 𝐹 = Vect (𝐴 ⃖⃖⃖⃖⃖⃖
⃗ ⃖⃖⃖⃖⃖⃖⃗
0 𝐴1 , … , 𝐴0 𝐴𝑛 ) .
Définition 3.5. Une famille de points {𝐴0 , … , 𝐴𝑛 } d’un espace affine (, 𝐸) est dite affinement libre si
dim(< 𝐴0 , … , 𝐴𝑛 >) = 𝑛.
13
Remarque :
1. Une famille de 𝑛 + 1 points est affinement libre si et seulement si aucun d’eux n’appartient au s-e-a
engendré par les 𝑛 autres.
2. Toute sous-famille d’une famille affinement libre est affinement libre.
3. Une famille {𝐴0 , … , 𝐴𝑛 } d’un espace affine de dimension 𝑛 est affinement libre si et seulement
si =< 𝐴0 , … , 𝐴𝑛 >.
Droite affine passant par 2 points
Soit 𝐴, 𝐵 des points distincts d’un espace affine . La famille {𝐴, 𝐵} est affinement libre et dim < 𝐴, 𝐵 >= 1.
On dit < 𝐴, 𝐵 > est la droite affine passant par 𝐴, 𝐵, notée (𝐴𝐵) :
⃖⃖⃖⃗ 𝐴𝑀}
𝑀 ∈ (𝐴𝐵) ⇔ 𝐴, 𝐵, 𝑀 alignés ⇔ {𝐴𝐵, ⃖⃖⃖⃖⃗ liée ⇔ ∃𝜆 ∈ 𝕂, 𝐴𝑀
⃖⃖⃖⃖⃗ = 𝜆𝐴𝐵
⃖⃖⃖⃗
Définition 3.6. Soit ( , 𝐹 ) et (, 𝐾 ) des sous-espaces affines d’un espace affine (, 𝐸).
1. On dit que et se coupent si ∩ ≠ ∅.
2. On dit que et sont supplémentaires si 𝐸 = 𝐹 ⊕ 𝐾 .
3. On dit que et sont parallèles si 𝐹 = 𝐾 . On le note ∥ .
4. On dit que est faiblement parallèle à si 𝐹 ⊂ 𝐾 .
Remarque :
1. La relation "être parallèle" est une relation d’équivalence.
La relation "est faiblement parallèle à" n’est pas une relation d’équivalence.
14
2. Si et sont parallèles alors dim( ) = dim() et on peut avoir = . Donc tout sous-espace
affine est parallèle à lui même.
3. Deux sous-espace affines sont toujours faiblement parallèle si l’un est réduit à un point ou si l’un
est égal à l’espace entier.
4. Dans le cas dim( ) = dim() le s-e-a est faiblement parallèle à si et seulement si ils sont
parallèles.
5. Si ∩ ≠ ∅ alors dim( ∩ ) ⩾ dim( ) + dim() − dim().
En particulier dans un espace affine de dimension 3, deux plans qui se coupent ont pour intersec-
tion au moins une droite.
Proposition 3.6. Soit ( , 𝐹 ) et (, 𝐾 ) des sous-espaces affines d’un espace affine (, 𝐸).
1. Si est parallèle à alors soit = soit ∩ = ∅.
2. Le s-e-a est faiblement parallèle à si et seulement si est parallèle à un s-e-a de . Dans
ce cas soit ⊂ soit ∩ = ∅.
Exemple :
1. La réciproque au point 1. est fausse. Par exemple dans un espace affine (, 𝐸) de dimension 3. Il
existe des droites non sécantes et non parallèles.
2. Si 𝑓 ∶ 𝑉 → 𝑊 est une application linéaire alors tout les s-e-a 𝑓 −1 (𝑤) avec 𝑤 ∈ 𝑊 dans l’image de
𝐹 sont parallèles.
3. Soit 𝐴, 𝐵, 𝐶 trois points affinement libres d’un espace affine . Pour tout point 𝐷 ∈ on a l’équi-
valence :
𝐴𝐵𝐶𝐷 parallélogramme ⇔ (𝐴𝐵) ∥ (𝐶𝐷) et (𝐴𝐷) ∥ (𝐵𝐶).
Lorsque les directions de s-e-a engendrent la direction de l’espace ou sont supplémentaires on peut dé-
crire la position des s-e-a. Pour cela on a besoin du résultat suivant :
Lemme 3.1. Soit ( , 𝐹 ) et (, 𝐾 ) des sous-espaces affines d’un espace affine (, 𝐸).
Pour tout 𝐴 ∈ et 𝐵 ∈ on a
∩ ≠ ∅ ⇔ 𝐴𝐵 ⃖⃖⃖⃗ ∈ 𝐹 + 𝐾 .
Proposition 3.7. Soit ( , 𝐹 ) et (, 𝐾 ) des sous-espaces affines d’un espace affine (, 𝐸).
1. On suppose que 𝐹 et 𝐾 engendrent 𝐸, c-a-d 𝐸 = 𝐹 + 𝐾 . Alors tout s-e-a parallèle à coupe .
2. Si et sont supplémentaire alors ils se coupent et leur intersection est réduite à un unique
point.
15
Si et sont supplémentaire alors 𝐸 = 𝐹 ⊕ 𝐾 . On peut donc appli-
2. quer le point précédent à et . On en conclut que ∩ ≠ ∅ donc
∩ est un s-e-a de de direction 𝑉 ∩ 𝐾 = {0𝐸 }. Il est donc réduit
à un unique point. ■
Corollaire 3.2. 1. Deux hyperplans affines d’un espace affine sont parallèles si et seulement si ils
sont égaux ou disjoints.
2. Dans un plan affine deux droites non parallèles se coupent et leur intersection est réduite à un
point.
3. Dans un espace affine un hyperplan affine et un s-e-a distinct de non faiblement
parallèle à se coupent et dim( ∩ ) = dim() − 1.
16
En particulier (𝐴0 , … , 𝐴𝑛 ) est une base affine d’un espace affine de dimension 𝑛 si et seulement si
(𝐴0 , … , 𝐴𝑛 ) est une famille affinement libre si et seulement si (𝐴0 , … , 𝐴𝑛 ) est une famille génératrice de .
Exemple : Pour une famille affinement libre (𝐴, 𝐵, 𝐶) l’isobarycentre du triangle 𝐴𝐵𝐶 à pour coordon-
nées barycentriques (1/3, 1/3, 1/3).
On peut également décrire par les points d’un espace affine des coordonnées utilisant les coordonnées
cartésiennes des vecteurs.
Définition 4.2. Un repère cartésien d’un espace affine (, 𝐸) est un couple = (𝑂, ) formé d’un
point 𝑂 ∈ appelé l’origine du repère, et d’une base = (𝑒⃖⃗1 , … , 𝑒⃖⃖⃗𝑛 ) de l’espace vectoriel 𝐸.
𝑥1
⃖⃖⃖⃖⃗ dans la base sont appelé les coordonnées
Pour tout point 𝑀 ∈ les coordonnées ( 𝑥⋮ ) du vecteur 𝑂𝑀
𝑛
𝑥1
cartésiennes de 𝑀 dans le repère . On note 𝑀 = ( 𝑥⋮ ).
𝑛
En d’autre terme dans un repère = (𝑂, ) tout point 𝑀 ∈ s’écrit de manière unique comme
𝑥1 𝑦1
𝑀 = 𝑂 + 𝑥1 𝑒⃖⃗1 + ⋯ + 𝑥𝑛 𝑒⃖⃖⃗𝑛 avec 𝑀 = ( 𝑥⋮ ). De plus si 𝑁 ∈ avec 𝑁 = ( 𝑦⋮ ) alors en utilisant Chasles le
𝑛 𝑛
𝑦1 −𝑥1
⃖⃖⃖⃖⃖⃗ a pour coordonnées dans la base
vecteur 𝑀𝑁 (𝑦 ). ⋮
𝑛 −𝑥𝑛
Dans la suite on notera 𝑢⃖⃗ les coordonnées du vecteur 𝑢⃖⃗ ∈ 𝐸 dans la base .
Définition 4.3. Soit (, 𝐸) un espace affine. Un paramétrage d’un s-e-a de est un couple (Λ, 𝜌) où
Λ est une partie d’un ensemble 𝕂𝑝 et 𝜌 ∶ Λ → est une application surjective.
On dit que le paramétrage est bijectif lorsque 𝜌 est une bijection.
Si (Λ, 𝜌) est un paramétrage de alors chaque point de est obtenue (paramétré) par un vecteur de
Λ ⊂ 𝕂𝑝 . Lorsque le paramétrage est bijectif chaque point de est paramétré de manière unique par un
vecteur de Λ.
17
Exemple : Soit = (𝑂, ) un repère cartésien de . On considère un s-e-a ( , 𝐹 ) de , 𝐴 ∈ et
𝑣 1 , … , 𝑣⃖⃗𝑝 ) une famille génératrice de 𝐹 . Alors pour tout 𝑀 ∈ on a
(⃖⃗
𝑝
⃖⃖⃖⃖⃗ ∈ 𝐹 ⇔ ∃(𝜆1 , … , 𝜆𝑝 ) ∈ 𝕂𝑝 , 𝐴𝑀
𝑀 ∈ ⇔ 𝐴𝑀 ⃖⃖⃖⃖⃗ = ∑ 𝜆𝑖 𝑣⃖⃗𝑖 .
𝑖=1
⎧
⎪
⎪ 𝑥1 = 𝑎1 + 𝜆1 𝛼11 + ⋯ + 𝜆𝑝 𝛼𝑝1
⎪
⎪ 𝑥 = 𝑎2 + 𝜆1 𝛼12 + ⋯ + 𝜆𝑝 𝛼𝑝2
𝑀 ∈ ⇔ ∃(𝜆1 , … , 𝜆𝑝 ) ∈ 𝕂𝑝 ⎨ 2
⎪
⎪ ⋮
⎪
⎪ 𝑥 = 𝑎𝑛 + 𝜆1 𝛼1𝑛 + ⋯ + 𝜆𝑝 𝛼𝑝𝑛
⎩ 𝑛
Les relations précédentes sont appelé une représentation paramétrique du s-e-a dans le repère .
Remarque : Il y a une infinité de représentation paramétrique possible pour un s-e-a.
Exemple : Dans un espace affine (, 𝐸) de dimension 3 muni d’un repère cartésien = (𝑂, ) on consi-
𝑎1
⃗ 𝑣}
dère un point 𝐴 de coordonnées 𝐴 = ( 𝑎𝑎2 ) et une famille libre {⃖𝑢, ⃖⃗ de vecteurs de 𝐸 de coordonnées
3
𝛼1 𝛽1
𝑢⃖⃗ = ( 𝛼𝛼2 ) et 𝑣⃖⃗ = 𝛽2 . Une représentation paramétrique
3 ( 𝛽3 )
⎧
⎪ 𝑥 = 𝑎1 + 𝜆𝛼1
⎪ 1
1. de la droite passant par 𝐴 et de vecteur directeur 𝑢⃖⃗ est ⎨ 𝑥2 = 𝑎2 + 𝜆𝛼2 avec 𝜆 ∈ 𝕂 ;
⎪
⎪
⎩ 𝑥3 = 𝑎3 + 𝜆𝛼3
2. du plan passant par 𝐴 et dirigé par le plan vectoriel de base {⃖𝑢,⃗ 𝑣}est
⃖⃗
⎧
⎪ 𝑥 = 𝑎1 + 𝜆1 𝛼1 + 𝜆2 𝛽1
⎪ 1
⎨ 𝑥2 = 𝑎2 + 𝜆1 𝛼2 + 𝜆2 𝛽2 avec 𝜆1 , 𝜆2 ∈ 𝕂.
⎪
⎪
⎩ 𝑥3 = 𝑎3 + 𝜆1 𝛼3 + 𝜆2 𝛽3
Théorème 4.1. Soit (, 𝐸) un espace affine de dimension 𝑛 muni d’un repère cartésien = (𝑂, ).
Une partie de est un hyperplan de si et seulement si il existe (𝑎1 , … , 𝑎𝑛+1 ) ∈ 𝕂𝑛+1 avec
𝑥1
(𝑎1 , … , 𝑎𝑛+1 ) ≠ (0, … , 0) tel que est l’ensemble des points 𝑀 ∈ de coordonnées 𝑀 = ( 𝑥⋮ )
𝑛
vérifiant
𝑎1 𝑥1 + ⋯ + 𝑎𝑛 𝑥𝑛 + 𝑎𝑛+1 = 0.
Cette équation est appelée une équation cartésienne de l’hyperplan .
De plus lorsque est un hyperplan affine sa direction est l’hyperplan vectoriel de 𝐸 donné par l’équa-
tion dans la base 𝑎1 𝑥1 + ⋯ + 𝑎𝑛 𝑥𝑛 = 0.
18
Preuve : Si est un hyperplan affine de direction 𝐻 alors 𝐻 est un hyperplan vectoriel de 𝐸 et il existe
donc une forme linéaire non nulle 𝑓 ∶ 𝐸 → 𝕂 de noyau 𝐻 . Si on note = (𝑒⃖⃗1 , … , 𝑒⃖⃖⃗𝑛 ) et ∗ = (𝑒⃖⃗1 ∗ , … , 𝑒⃖⃖⃗𝑛 ∗ )
la base duale de de l’espace dual 𝐸 ∗ alors il existe (𝑎1 , … , 𝑎𝑛 ) ∈ 𝕂𝑛 avec (𝑎1 , … , 𝑎𝑛 ) ≠ (0, … , 0) tel que
𝑦1
𝑓 = 𝑎1 𝑒⃖⃗1 ∗ + ⋯ + 𝑎𝑛 𝑒⃖⃖⃗𝑛 ∗ . Donc pour tout 𝑢⃖⃗ ∈ 𝐸 avec 𝑢⃖⃗ = ( 𝑦⋮ ) on a
𝑛
𝑛 𝑛 𝑛 𝑛 𝑛 𝑛
⃗ = ∑ 𝑎𝑖 𝑒⃖⃗𝑖 ∗ (⃖𝑢)
𝑓 (⃖𝑢) ⃗ = ∑ 𝑎𝑖 𝑒⃖⃗𝑖 ∗ ∑ 𝑦𝑗 𝑒⃖⃗𝑗 = ∑ ∑ 𝑎𝑖 𝑦𝑗 𝑒⃖⃗𝑖 ∗ (𝑒⃖⃗𝑗 ) = ∑ 𝑎𝑖 𝑦𝑖 .
𝑖=1 𝑖=1 (𝑗=1 ) 𝑖=1 𝑗=1 𝑖=1
𝑥1
⃖⃖⃖⃖⃗ ∈ ⇔ 𝑎1 (𝑥1 − 𝑧1 ) + ⋯ + 𝑎𝑛 (𝑥𝑛 − 𝑧𝑛 ) = 0 ⇔ 𝑎1 𝑥1 + ⋯ + 𝑎𝑛 𝑥𝑛 + 𝑎𝑛+1 = 0,
𝑀 ∈ avec 𝑀 = ( 𝑥⋮ ) ⇔ 𝐴𝑀
𝑛
𝑥1
𝑀 ∈ avec 𝑀 = ( 𝑥⋮ ) ∈ ⇔ 𝑎1 𝑥1 +⋯+𝑎𝑛 𝑥𝑛 +𝑎𝑛+1 = 𝑎1 𝑧1 +⋯+𝑎𝑛 𝑧𝑛 +𝑎𝑛+1 ⇔ 𝑎1 (𝑥1 −𝑧1 )+⋯+𝑎𝑛 (𝑥𝑛 −𝑧𝑛 ) = 0
𝑛
Ainsi (𝑎1 , … , 𝑎𝑛 ) ≠ (0, … , 0) la forme linéaire 𝑓 ∶ 𝐸 → 𝕂 donnée par 𝑓 = 𝑎1 𝑒⃖⃗1 ∗ + ⋯ + 𝑎𝑛 𝑒⃖⃖⃗𝑛 ∗ est non nul.
Donc 𝐻 = Ker(𝑓 ) est un hyperplan vectoriel de 𝐸 et
1 𝑥
⃖⃖⃖⃖⃗ ∈ 𝐻 .
𝑀 ∈ avec 𝑀 = ( 𝑥⋮ ) ∈ ⇔ 𝐴𝑀
𝑛
Corollaire 4.1. Soit (, 𝐸) un espace affine de dimension 𝑛 muni d’un repère cartésien = (𝑂, ).
Soient et ′ des hyperplans d’équations 𝑎1 𝑥1 + ⋯ + 𝑎𝑛 𝑥𝑛 + 𝑎𝑛+1 = 0 et 𝑎1′ 𝑥1 + ⋯ + 𝑎𝑛′ 𝑥𝑛 + 𝑎𝑛+1
′
=0
dans . Alors
1. ∥ ′ ⇔ ∃𝜆 ∈ 𝕂, 𝜆 ≠ 0, 𝑎𝑖′ = 𝜆𝑎𝑖 pour tout 𝑖 ∈ {1, … , 𝑛}.
2. = ′ ⇔ ∃𝜆 ∈ 𝕂, 𝜆 ≠ 0, 𝑎𝑖′ = 𝜆𝑎𝑖 pour tout 𝑖 ∈ {1, … , 𝑛 + 1}.
Preuve :
1. C’est une conséquence du résultat suivant d’algèbre linéaire : Pour 𝑓 ∶ 𝐸 → 𝕂 et 𝑓 ′ ∶ 𝐸 → des
forme linéaires non nulles d’un espace vectoriel 𝐸 on a
Ker(𝑓 ) = Ker(𝑓 ′ ) ⇔ ∃𝜆 ∈ 𝕂, 𝜆 ≠ 0, 𝑓 = 𝜆𝑓 ′ .
2. Si = ′ alors 𝐻 = 𝐻 ′ et donc il existe 𝜆 ∈ 𝕂, 𝜆 ≠ 0 tel que 𝑎𝑖′ = 𝜆𝑎𝑖 pour tout 𝑖 ∈ {1, … , 𝑛}.
𝑧1
D’où pour 𝐴 ∈ = ′ avec 𝐴 = ( 𝑧⋮ ) on a 𝑎1 𝑧1 + ⋯ + 𝑎𝑛 𝑧𝑛 + 𝑎𝑛+1 = 0 et par conséquent
𝑛
𝑎1′ 𝑧1 + ⋯ + 𝑎𝑛′ 𝑧𝑛 + 𝑎𝑛+1
′ ′
= 𝜆𝑎1 𝑧1 + ⋯ + 𝜆𝑎𝑛 𝑧𝑛 + 𝑎𝑛+1 ′
= 0. Donc −𝜆𝑎𝑛+1 + 𝑎𝑛+1 = 0.
Inversement comme 𝜆 ≠ 0 on a
𝑧1
𝐴 ∈ ′ avec 𝐴 = ( 𝑧⋮ ) ⇔ 𝑎1′ 𝑧1 + ⋯ + 𝑎𝑛′ 𝑧𝑛 + 𝑎𝑛+1
′
= 0 ⇔ 𝜆𝑎1 𝑧1 + ⋯ + 𝜆𝑎𝑛 𝑧𝑛 + 𝜆𝑎𝑛+1 = 0
𝑛
𝑧1
⇔ 𝑎1 𝑧1 + ⋯ + 𝑎𝑛 𝑧𝑛 + 𝑎𝑛+1 = 0 ⇔ 𝐴 ∈ avec 𝐴 = ( 𝑧⋮ ) . ■
𝑛
19
4.4 Equations cartésiennes des droites dans un espace affine de dimension 2
On se place dans un espace affine (, 𝐸) de dimension 2 muni d’un repère = (𝑂, ).
Une équation cartésienne d’une droite affine est de la forme 𝑎𝑥 + 𝑏𝑦 + 𝑐 = 0 avec 𝑎, 𝑏, 𝑐 ∈ 𝕂 et
(𝑎, 𝑏) ≠ (0, 0).
⃗ avec 𝑢⃖⃗ ( −𝑏
La direction de est la droite vectorielle 𝐷 d’équation 𝑎𝑥 +𝑏𝑦 = 0 dans . Donc 𝐷 = Vect(⃖𝑢) 𝑎 ).
Proposition 4.1. Soient 𝐴, 𝐵 ∈ avec 𝐴 = ( 𝑎𝑎12 ) et 𝐵 = ( 𝑏𝑏12 ). Alors pour tout 𝑀 ∈ avec 𝑀 = ( 𝑥𝑥12 )
on a
| 𝑥1 𝑥2 1 |
|𝑥1 − 𝑎1 𝑏1 − 𝑎1 | | |
𝑀, 𝐴, 𝐵 alignés ⇔ | | | = 0 ⇔ |𝑎1 𝑎2 1| = 0.
| | |
|𝑥2 − 𝑎2 𝑏2 − 𝑎2 | | 𝑏 𝑏 1|
| 1 2 |
De plus pour 𝐴 ≠ 𝐵 la nullité des déterminants donne une équation cartésienne de la droite (𝐴𝐵).
1.
= ′
si 𝑐 ′ = 𝜆𝑐 alors les deux équation de (𝑆) sont proportionnelles donc = ′ ;
′
Dans le cas Δ ≠ 0 les droites ne sont pas parallèle et le système (𝑆) est de Cra- ′
mer. Il admet donc une unique solution qui donne les coordonnées de l’unique
point d’intersection de et ′ .
20
𝑎1 𝑏1 𝑐1
Proposition 4.2. Soient 𝐴, 𝐵, 𝐶 ∈ avec 𝐴 = ( 𝑎𝑎2 ), 𝐵 = ( 𝑏2 ) et 𝐶 = ( 𝑐𝑐2 ). Alors pour tout
3 𝑏3 3
𝑥1
𝑀 ∈ avec 𝑀 = ( 𝑥𝑥2 ) on a
3
|𝑥 𝑥2 𝑥3 1||
|𝑥1 − 𝑎1 𝑏1 − 𝑎1 𝑐1 − 𝑎1 | | 1
| | |𝑎 𝑎2 𝑎3 1||
| | |
𝑀, 𝐴, 𝐵, 𝐶 coplanaires ⇔ |𝑥2 − 𝑎2 𝑏2 − 𝑎2 𝑐2 − 𝑎2 | = 0 ⇔ | 1 | = 0.
|𝑥3 − 𝑎3 𝑏3 − 𝑎3 𝑐3 − 𝑎3 | |𝑏1 𝑏2 𝑏3 1|
| | | |
| 𝑐1 𝑐2 𝑐3 1||
|
⃖⃖⃖⃗ 𝐴𝐶}
De plus pour {𝐴𝐵, ⃖⃖⃖⃗ libre la nullité des déterminants donne une équation cartésienne du plan (𝐴𝐵𝐶).
′ ′
1. si 𝑑 = 𝜆𝑑 alors les deux équation de (𝑆) sont proportionnelles donc = ;
= ′
Dans le cas 𝑀𝑆 de rang différent de 1 les plans ne sont pas parallèles. De plus comme (𝑎, 𝑏, 𝑐) ≠ (0, 0, 0) et
(𝑎′ , 𝑏 ′ , 𝑐 ′ ) ≠ (0, 0, 0) le rang de 𝑀𝑆 est non nulle. Donc 𝑀𝑆 est de rang 2 et par conséquent l’un des trois
|𝑎 𝑏| |𝑎 𝑐 | |𝑏 𝑐 | |𝑎 𝑏|
mineurs || ′ ′ || , || ′ ′ || , || ′ ′ || est non nul. On en déduit que ∩ ′ ≠ ∅. Par exemple si || ′ ′ || ≠ 0
|𝑎 𝑏 | |𝑎 𝑐 | |𝑏 𝑐 | { 𝑥(𝑧) } |𝑎 𝑏 |
𝑥(𝑧)
alors l’ensemble des solutions de (𝑆) est ( 𝑦(𝑧) ) ; 𝑧 ∈ 𝕂 , avec ( 𝑦(𝑧) ) l’unique solution du système de
{ 𝑧
𝑎𝑥 + 𝑏𝑦 = −𝑐𝑧 − 𝑑
Cramer .
𝑎′ 𝑥 + 𝑏 ′ 𝑦 = −𝑐 ′ 𝑧 − 𝑑 ′
21
4.6 Droites dans un espace de dimension 3
On se place dans un espace affine (, 𝐸) de dimension 3 muni d’un repère = (𝑂, ).
Proposition 4.3. Une partie non vide de est une droite affine si et seulement si il existe des plans
affines et ′ distincts tels que ∩ ′ = .
En d’autres terme est une droite affine si et seulement si il existe (𝑎, 𝑏, 𝑐) et (𝑎′ , 𝑏 ′ , 𝑐 ′ ) deux triplets
linéairement indépendant de 𝕂3 avec (𝑎, 𝑏) ≠ (0, 0), (𝑎′ , 𝑏 ′ ) ≠ (0, 0) et deux ′
{ scalaires 𝑑, 𝑑 ∈ 𝕂 tels que
𝑥 𝑎𝑥 + 𝑏𝑦 + 𝑐𝑧 + 𝑑 = 0
est l’ensemble des points 𝑀 ∈ avec 𝑀 = ( 𝑦𝑧 ) solutions du système .
𝑎 𝑥 + 𝑏′𝑦 + 𝑐 ′𝑧 + 𝑑 ′ = 0
′
On dit que ce système est un système d’équation cartésiennes de la droite affine dans le repère .
Preuve : Comme est de dimension 3 on sait l’intersection de deux plans distincts et ′ de est
soit l’ensemble vide soit un droite affine. Par hypothèse est non vide donc si = ∩ ′ alors est
une droite affine.
Il reste à montrer le sens direct. Soit une droite affine passant par 𝐴 et de direction 𝐹 = Vect(⃖𝑢).
⃗ On
′
complète 𝑢⃖⃗ en une base (⃖𝑢,
⃗ 𝑣, ⃖⃗ de 𝐸. On peut alors considérer les plans affines et passant 𝐴 et de
⃖⃗ 𝑤)
direction respective 𝑃 = Vect(⃖𝑢, ⃖⃗ et 𝑃 ′ = Vect(⃖𝑢,
⃗ 𝑣) ⃗ 𝑤).
⃖⃗
Comme {⃖𝑢, ⃗ 𝑣, ⃖⃗ est libre on a 𝑃 ≠ 𝑃 ′ donc et ′ ne sont pas parallèles. De plus par construction
⃖⃗ 𝑤}
𝐴 ∈ ∩ ′ donc ∩ ′ ≠ ∅ et par conséquent ∩ ′ est une droite affine passant par 𝐴 et de direction
𝑃 ∩ 𝑃 ′ . De plus on a Vect(⃖𝑢)
⃗ ⊂ 𝑃 ∩ 𝑃 ′ et les s-e-v sont de même dimensions donc ∩ ′ est la droite
passant par 𝐴 et de direction Vect(⃖𝑢) ⃗ c-a-d = ∩ ′ . ■
Position relative d’une droite et d’un plan
Soient une droite affine et un plan affine. On a déjà vu que
1. soit est faiblement parallèle à . Dans ce cas d’après la proposition 3.6 soit ⊂ soit ∩ = ∅ ;
2. soit n’est pas faiblement parallèle à . Dans ce cas d’après le corollaire 3.2 ∩ ≠ ∅ et
dim( ∩ ) = 1 − 1 = 0 donc ∩ est un point.
Du point de vue des équations cartésiennes on considère le système (𝑆) composé des 2 équations de la
droite et de celle du plan. Par hypothèse les équations de la droite ne sont pas liées donc le rang de (𝑆)
est compris entre 2 et 3.
𝑀
1. Si le rang vaut 3 alors le système a une unique solution. Cela correspond à
l’intersection qui est un point.
soit le système est incompatible et l’intersection est vide,
soit il est compatible et alors l’intersection est un s-e-a (car non vide) de direc-
tion un s-e-v de dimension 3 − 2 = 1. C’est donc une droite, qui est nécessaire-
ment la droite .
22
2. soit ≠ ′ et ∥ ′ et donc ∩ ′ = ∅ ;
3. soit ≠ ′ et n’est pas parallèle à ′ . Alors soit ∩ ′ = ∅ soit ∩ ′ est un point.
Du point de vue des équation cartésiennes on considère le système (𝑆) composé des 2 équations de la
droite et de celles de ′ . Par hypothèse les équations de la droite ne sont pas liées donc le rang de
(𝑆) est compris entre 2 et 3. Notons 𝑀𝑆 la matrice du système. Comme ker(𝑀𝑆 ) est un s-e-v des directions
𝐷 et 𝐷 ′ on a
= ′ ; = ′
ou ∩ ′ = ∅.
′
Soit (𝑆) est de rang 3 et donc n’est pas parallèle à ′ . Il existe alors une sous matrice 𝑁 de taille de 3
de 𝑀𝑆 qui est inversible. Le sous-système de (𝑆) associé à 𝑁 admet alors une unique solution
𝑀
soit elle est solution de la dernière équation de (𝑆) et dans ce cas ∩ ′
est un s-e-a constitué d’un point ; ′
soit elle n’est pas solution de la dernière équation. Dans ce cas (𝑆) est un ′
système incompatible et par conséquent ∩ ′ = ∅.
5 Convexité
Dans cette partie on se place uniquement dans des espaces affines sur ℝ. On peut donc parler de
segment.
Définition 5.1. Soit (, 𝐸) un espace affine réel. Une partie de est dite convexe si pour tout 𝐴, 𝐵 ∈
on a [𝐴𝐵] ⊂ .
𝐴
𝐵
, ,
Les parties suivantes ne sont pas convexes :
𝐵 , ,
23
On peut donner une caractérisation des parties convexes en terme de barycentres.
Proposition 5.1. Soit (, 𝐸) un espace affine réel. Une partie de est convexe si et seulement si le
barycentre de toute famille finie de points de pondérés par des poids positifs appartient .
Il est évident que l’intersection d’une famille de partie convexe de est convexe. De plus pour toute
partie de il existe des parties convexe de contenant (par exemple ). Donc l’intersection de
toutes ces parties convexes est encore une partie convexe. De plus par construction c’est la plus petite
partie convexe de contenant .
Définition 5.2. Soit (, 𝐸) un espace affine réel. L’enveloppe convexe d’une partie de , noté
Conv(), est l’intersection de toutes les parties convexes de contenant . C’est le plus petit convexe
de contenant .
Preuve : Soit l’ensemble des barycentres de système fini de points de pondérés de poids positifs.
Tout point 𝑀 de est le barycentre du système (𝑀, 1) donc ⊂ . De plus si 𝐺 est le barycentre d’un
système fini de points de pondérés de poids positifs alors par définition de ces points et associativité
du barycentre 𝐺 est aussi le barycentre d’un système fini de points de pondérés de poids positifs. Donc
est convexe et par conséquent Conv() ⊂ .
Inversement si 𝐺 est le barycentre d’un système fini de points de ⊂ Conv() pondérés de poids positifs
alors comme Conv() est convexe on a 𝐺 ∈ Conv(𝑋 ). D’où ⊂ Conv(). ■
Exemple :
1. Soit 𝐴, 𝐵 deux points distincts. Alors par définition du segment Conv(𝐴, 𝐵) = [𝐴𝐵].
2. Soit 𝐴, 𝐵, 𝐶 trois points non alignés ou de façon équivalente affinement libre. Alors on définit le
triangle plein 𝐴𝐵𝐶 comme étant l’enveloppe convexe de {𝐴, 𝐵, 𝐶}. On dit 𝐴, 𝐵, 𝐶 sont les sommets
du triangle et que [𝐴𝐵], [𝐴𝐶], [𝐵𝐶] sont les cotés.
Donc le triangle plein 𝐴𝐵𝐶 est l’ensemble des points dont les coordonnées barycentriques dans le
repère {𝐴, 𝐵, 𝐶} sont positives ou nulles.
6 Applications affines
6.1 Application conservant les barycentres
Du point de vue vectoriel un morphisme d’espace vectoriel 𝜌 ∶ 𝐸 → 𝐹 est une application conservant
⃖⃗ = 𝛼 𝑢⃖⃗ + 𝛽 𝑣⃖⃗ alors 𝜌(𝑤)
les combinaisons linéaires : si 𝑤 ⃖⃗ = 𝛼𝜌(⃖𝑢)
⃗ + 𝛽𝜌(⃖⃗
𝑣).
La notion affine correspondante aux combinaisons linéaire étant celle de barycentre on considère des
applications conservant les barycentres.
Définition 6.1. Soit (, 𝐸) et ( , 𝐹 ) des espaces affines et 𝑓 ∶ → une application. On dit que 𝑓
conserve les barycentres si pour tout 𝐺 barycentre d’un système (𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼 de points pondérés de alors
𝑓 (𝐺) est le barycentre du système (𝑓 (𝐴𝑖 ), 𝜆𝑖 )𝑖∈𝐼 de points pondérés de .
24
Fixons 𝑂 ∈ . Par définition d’un espace affine on a les bijections ensemblistes :
𝜃𝑂 ∶ ⟶ 𝐸 𝜃𝑓 (𝑂) ∶ ⟶ 𝐹
⃖⃖⃖⃖⃗ ,
𝑀 ⟼ 𝑂𝑀 𝑁 ⟼ 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃗
(𝑂)𝑁
.
Soit 𝑓 = → une application. On considère l’application ensembliste 𝜑𝑂 = 𝜃𝑓 (𝑂) ◦𝑓 ◦𝜃𝑂−1 . Elle est donnée
par 𝜑𝑂 ∶ 𝐸 → 𝐹 .
⃖⃖⃖⃖⃗ ⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
𝑂𝑀 ↦ 𝑓 (𝑂)𝑓 (𝑀)
Supposons que 𝑓 conserve les barycentres alors pour tout système ((𝐴, 𝜆), (𝐵, 𝜆′ )) de points pondérés de
de masse non nulle de barycentre 𝐺 on a 𝑓 (𝐺) = Bar((𝑓 (𝐴), 𝜆), (𝑓 (𝐵), 𝜆′ )) c-a-d
⃖⃖⃖⃖⃗ = 𝜆𝑂𝐴
𝑂𝐺 ⃖⃖⃖⃖⃗ + 𝜆′ 𝑂𝐵,
⃖⃖⃖⃗ et 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
(𝑂)𝑓 (𝐺) = 𝜆𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
(𝑂)𝑓 (𝐴) + 𝜆′ 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
(𝑂)𝑓 (𝐵).
⃖⃖⃖⃖⃗ + 𝜆′ 𝑂𝐵
𝜑𝑂 (𝜆𝑂𝐴 ⃖⃖⃖⃖⃗ = 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
⃖⃖⃖⃗ = 𝜑𝑂 (𝑂𝐺) (𝑂)𝑓 (𝐺) = 𝜆𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
(𝑂)𝑓 (𝐴) + 𝜆′ 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗ ⃖⃖⃖⃖⃗ + 𝜆′ 𝜑𝑂 (𝑂𝐵).
(𝑂)𝑓 (𝐵) = 𝜆𝜑𝑂 (𝑂𝐴) ⃖⃖⃖⃗
)
On va montrer que cela caractérise les applications conservant les barycentres :
Proposition 6.1. Soit (, 𝐸) et ( , 𝐹 ) des espaces affines et 𝑓 ∶ → une application. Les conditions
suivantes sont équivalentes :
1. Il existe une application linéaire 𝜑 ∶ 𝐸 → 𝐹 telle que pour tout 𝐴, 𝑀 ∈ 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖
(𝐴)𝑓 (𝑀)⃗ = 𝜑(𝐴𝑀).
⃖⃖⃖⃖⃗
2. Il existe 𝐴 ∈ tel que l’application 𝜑𝐴 ∶ 𝐸 → 𝐹 est linéaire.
⃖⃖⃖⃖⃗ ↦ 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖
𝐴𝑀 (𝐴)𝑓 (𝑀)⃗
3. Pour tout 𝐴 ∈ l’application 𝜑𝐴 ∶ 𝐸 → 𝐹 est linéaire.
⃖⃖⃖⃖⃗ ⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖
𝐴𝑀 ↦ 𝑓 (𝐴)𝑓 (𝑀) ⃗
4. L’application 𝑓 conserve les barycentre.
5. L’application 𝑓 conserve les barycentres de tous les systèmes de 2 points pondérés.
Si ces conditions sont vérifiées l’application linéaire 𝜑 est unique : pour tout 𝐴 ∈ on a 𝜑 = 𝜑𝐴 .
Pour tout 𝐴 ∈ on utilise les notations 𝜃𝐴 et 𝜃𝑓 (𝐴) précédent la proposition pour désigner les bijections
entre et 𝐸 et respectivement et 𝐹 . Pour 𝐴 ∈ l’application 𝜑𝐴 des points 2. et 3. s’écrit 𝜑𝐴 = 𝜃𝑓 (𝐴) ◦𝑓 ◦𝜃𝐴−1 .
Preuve :
Il est évident que 3. implique 2.. Montrons que 2. implique 1.. Soit 𝑂 ∈ tel que 𝜑𝑂 ∶ 𝐸 → 𝐹 est linéaire.
Alors pour tout 𝐴, 𝑀 ∈ par linéarité et définition de 𝜑𝑂 on a
⃖⃖⃖⃖⃗ = 𝜑𝑂 (𝑂𝑀
𝜑𝑂 (𝐴𝑀) ⃖⃖⃖⃖⃗ − 𝑂𝐴)
⃖⃖⃖⃖⃗ = 𝜑𝑂 (𝑂𝑀) ⃖⃖⃖⃖⃗ = 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
⃖⃖⃖⃖⃗ − 𝜑𝑂 (𝑂𝐴) (𝑂)𝑓 (𝑀) − 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
(𝑂)𝑓 (𝐴) = 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖
(𝐴)𝑓 (𝑀).⃗
Montrons que 1. implique 3.. Soit 𝐴 ∈ . Par hypothèse il existe une application linéaire 𝜑 ∶ 𝐸 → 𝐹 telle
que pour tout 𝑀 ∈ 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖
(𝐴)𝑓 (𝑀)⃗ = 𝜑(𝐴𝑀).
⃖⃖⃖⃖⃗ Montrons que 𝜑 = 𝜑𝐴 par linéarité de 𝜑 on aura celle de 𝜑𝐴 .
⃖⃖⃖⃖⃗ = 𝑢⃖⃗ et donc 𝜑𝐴 (⃖𝑢)
Soit 𝑢⃖⃗ ∈ 𝐸. Alors pour 𝑀 = 𝐴 + 𝑢⃖⃗ on a 𝐴𝑀 ⃖⃖⃖⃖⃗ = 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖
⃗ = 𝜑𝐴 (𝐴𝑀) (𝐴)𝑓 (𝑀)⃗ = 𝜑(𝐴𝑀)⃖⃖⃖⃖⃗ = 𝜑(⃖𝑢).
⃗
D’où on a 1. ⇔ 2. ⇔ 3. ainsi que l’unicité souhaitée. Montrons maintenant que 1. implique 4..
Soit 𝐺 le barycentre d’un système (𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼 de points de . Alors ∑ 𝜆𝑖 𝐺𝐴 ⃖⃖⃖⃖⃗𝑖 = 0⃖⃖⃗𝐸 . Donc par linéarité de
𝑖∈𝐼
l’application 𝜑 de l’hypothèse on a
25
on commence par vérifier qu’elle est compatible au produit externe, puis à l’addition. Soit 𝜆 ∈ 𝕂 et 𝑢⃖⃗ ∈ 𝐸.
Pour 𝑀 = 𝐴 + 𝑢⃖⃗ on peut toujours considérer le barycentre 𝐺 du système ((𝐴, 1 − 𝜆), (𝑀, 𝜆)). Par hypothèse
⃖⃖⃖⃖⃗ 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
⃖⃖⃖⃗ = 𝜆𝐴𝑀,
𝑓 (𝐺) est le barycentre du système ((𝑓 (𝐴), 1 − 𝜆), (𝑓 (𝑀), 𝜆)). Ainsi 𝐴𝐺 (𝐴)𝑓 (𝐺) = 𝜆𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖
(𝐴)𝑓 (𝑀)⃗ et
par conséquent
⃗ = 𝜑𝐴 (𝜆𝐴𝑀)
𝜑𝐴 (𝜆⃖𝑢) ⃖⃖⃖⃗ = 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
⃖⃖⃖⃖⃗ = 𝜑𝐴 (𝐴𝐺) (𝐴)𝑓 (𝐺) = 𝜆𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖
(𝐴)𝑓 (𝑀)⃗ = 𝜆𝜑𝐴 (𝐴𝐺)
⃖⃖⃖⃗ = 𝜆𝜑𝐴 (⃖𝑢).
⃗
⃖⃗ 𝑣⃖⃗ ∈ 𝐸. Soit 𝜆 ∈ 𝕂 ⧵ {0, 1} (c’est possible car 𝕂 est ℝ ou ℂ). On considère les points 𝐵 = 𝐴 + 𝜆−1 𝑢⃖⃗ et
Soit 𝑢,
𝐶 = 𝐴 + (1 − 𝜆)−1 𝑢.⃖⃗ On peut considérer le barycentre 𝐺 de ((𝐵, 𝜆), (𝐶, 1 − 𝜆)). Alors par hypothèse 𝑓 (𝐺) est
le barycentre de ((𝑓 (𝐵), 𝜆), (𝑓 (𝐶), 1 − 𝜆)). On a
⃖⃖⃖⃗ = 𝜆𝐴𝐵
𝐴𝐺 ⃖⃖⃖⃗ + (1 − 𝜆)𝐴𝐶
⃖⃖⃖⃗ = 𝜆(𝜆−1 𝑢)
⃖⃗ + (1 − 𝜆)((1 − 𝜆)−1 𝑣)
⃖⃗ = 𝑢⃖⃗ + 𝑣,
⃖⃗
et 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
(𝐴)𝑓 (𝐺) = 𝜆𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖
(𝐴)𝑓 (𝐵)⃗ + (1 − 𝜆)𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗ ⃖⃖⃖⃗ + (1 − 𝜆)𝜑𝐴 (𝐴𝐶).
(𝐴)𝑓 (𝐶) = 𝜆𝜑𝐴 (𝐴𝐵) ⃖⃖⃖⃗ Donc
⃖⃗ = 𝜆𝜆−1 𝜑𝐴 (⃖𝑢)
𝜑𝐴 (⃖𝑢⃗ + 𝑣) ⃗ + (1 − 𝜆)(1 − 𝜆)−1 𝜑𝐴 (⃖⃗ ⃗ + 𝜑𝐴 (⃖⃗
𝑣) = 𝜑𝐴 (⃖𝑢) 𝑣).
■
Remarque :
1. Dans le cas où 𝕂 = ℤ/2ℤ la dernière équivalence est fausse car on ne peut pas choisir 𝜆 ∈ ℤ/2ℤ
tel que 𝜆 ≠ 0 et 𝜆 ≠ 1.
2. A toute application 𝑓 ∶ → et tout point 𝑂 ∈ on peut toujours associer l’application
𝜑𝑂 = 𝜃𝑓 (𝑂) ◦𝑓 ◦𝜃𝑂−1 . Mais cette fonction n’a aucune raison d’être linéaire et elle dépend à priori du
point choisi. Par exemple pour 𝑓 ∶ 𝔸2 → 𝔸 et 𝑂 = ( 00 ), 𝐴 = ( −11 ) pour tout ( 𝑦𝑥 ) ∈ ℝ2
𝑥 2 2
(𝑦) ↦ 𝑥 + 𝑦
on a
𝜑𝑂 ( 𝑦𝑥 ) = 𝑥 2 + 𝑦 2 , et 𝜑𝐴 ( 𝑦𝑥 ) = 𝑥 2 + 𝑦 2 + 2𝑥 − 2𝑦.
On peut alors définir une application affine par :
Définition 6.2. Soit (, 𝐸), ( , 𝐹 ) des espaces affines.
Une application 𝑓 ∶ → est une application affine si elle vérifie l’une des conditions de la proposi-
⃖⃖⃖⃗ = 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
tion 6.1. L’unique application linéaire 𝜑 ∶ 𝐸 → 𝐹 vérifiant pour tout 𝐴, 𝐵 ∈ 𝜑(𝐴𝐵) (𝑂)𝑓 (𝑀) est
appelé l’application linéaire associée à 𝑓 . On la notera parfois 𝑓⃖⃗.
En particulier pour prouver l’égalité de deux applications affines, il suffit d’établir l’égalité de leurs
parties linéaires et leur coïncidence en (au moins) un point.
26
Exemple :
Soit , des espaces affines.
1. Les applications constantes sont affines de partie linéaire nulle.
2. Soit 𝐸, 𝐹 des espaces vectoriels munis de leur structure canonique d’espace affine. Une application
𝑓 ∶ 𝐸 → 𝐹 est affine si et seulement si il existe une application linéaire 𝜑 ∶ 𝐸 → 𝐹 et 𝑤 ∈ 𝐹 tel
que pour tout 𝑢 ∈ 𝐸 on a 𝑓 (𝑢) = 𝜑(𝑢) + 𝑤.
D’après le point 4. de la caractérisation d’une application affine le sens direct est évident. Récipro-
quement si 𝑓 ∶ 𝐸 → 𝐹 est une telle application alors pour tout 𝑢, 𝑣 ∈ 𝐸 on a
𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗ ⃗
(𝑢)𝑓 (𝑣) = 𝑓 (𝑣) − 𝑓 (𝑢) = 𝜑(𝑣) − 𝜑(𝑢) = 𝜑(𝑣 − 𝑢) = 𝜑(⃖⃖⃖
𝑢𝑣).
3. Si 𝑓 est bijective alors 𝑓 −1 ∶ 2 → 1 est une application affine de partie linéaire 𝑓⃖⃗−1 .
Sous-espace affine
27
Corollaire 6.2. Soit 𝑓 ∶ 1 → 2 une application affine.
1. Si des points de 1 sont alignés alors leurs images par 𝑓 sont alignés dans 2 .
2. Si des points de 1 sont coplanaire alors leurs images par 𝑓 sont coplanaires dans 2 .
3. Si et ′ sont des s-e-a parallèles de 1 alors 𝑓 ( ) ∥ 𝑓 ( ′ ).
Convexité
Proposition 6.5. Soit 𝑓 ∶ 1 → 2 une application affine.
1. Si 1 est une partie convexe de 1 alors 𝑓 (1 ) est une partie convexe de 2 .
2. Si 2 est une partie convexe de 2 alors 𝑓 −1 (2 ) est une partie convexe de 1 .
3. Si 1 est une partie de 𝐸 alors 𝑓 (Conv(1 )) = Conv(𝑓 (1 )).
Preuve :
1. Soit 𝐻 le barycentre du système (𝑓 (𝐴𝑖 ), 𝜆𝑖 )𝑖∈𝐼 de points de 𝑓 (1 ) pondérés de poids positifs. Soit
𝐺 = Bar((𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼 ) alors par convexité de 1 on a 𝐺 ∈ 1 et comme 𝑓 conserve les barycentres
𝑓 (𝐺) = Bar(𝑓 (𝐴𝑖 ), 𝜆𝑖 )𝑖∈𝐼 = 𝐻 . Donc 𝐻 ∈ 𝑓 (1 ) et par conséquent 𝑓 (1 ) est convexe.
2. Soit 𝐻 le barycentre du système (𝐴𝑖 , 𝜆𝑖 )𝑖∈𝐼 de points de 𝑓 −1 (2 ) pondérés de poids positifs. Comme
𝑓 conserve les barycentres on a 𝑓 (𝐻 ) = Bar(𝑓 (𝐴𝑖 ), 𝜆𝑖 )𝑖∈𝐼 avec (𝑓 (𝐴𝑖 ), 𝜆𝑖 )𝑖∈𝐼 un système de points de
2 pondérés de poids positifs. Donc par convexité de 2 on a 𝑓 (𝐻 ) ∈ 2 c-à-d 𝐻 ∈ 𝑓 −1 (2 ) et par
conséquent 𝑓 −1 (2 ) est convexe.
3. Comme 𝑓 conserve les barycentres il évident que 𝑓 (Conv(1)) ⊂ Conv(𝑓 (1 )). Inversement tout
point 𝑁 ∈ Conv(𝑓 (1 )) est un barycentre d’un système de points de 𝑓 (1 ) pondérés de poids
positifs. De même que pour le point 1. on a 𝑁 = 𝑓 (𝑀) où 𝑀 est le barycentre d’un système de points
de 1 pondérés de poids positifs c-à-d un point de Conv(1 ). On en déduit que 𝑁 ∈ 𝑓 (Conv(1).■
Remarque : En particulier pour tout 𝐴, 𝐵 ∈ 1 l’image du segment [𝐴𝐵] par une fonction affine est le
segment [𝑓 (𝐴)𝑓 (𝐵)] et 𝑓 envoie le milieu de [𝐴𝐵] sur le milieu de [𝑓 (𝐴)𝑓 (𝐵)].
Repères
Proposition 6.6. Soit (, 𝐸), ( , 𝐹 ) des espaces affines avec de dimension finie. Une application affine
𝑓 ∶ → est entièrement déterminée par l’image d’un repère cartésien de ou d’une base affine de
.
De même que dans le cas linéaire où l’injectivité, la surjectivité et la bijectivité d’une application
linéaire peut s’interpréter sur l’image d’une base. En effet pour 𝑓 ∶ → une application affine et
⃖⃖⃖⃖⃖⃖
(𝐴0 , … , 𝐴𝑛 ) une base affine de on a (𝐴 ⃗ ⃖⃖⃖⃖⃖⃖⃗
0 𝐴1 , … , 𝐴0 𝐴𝑛 ) qui est une base de 𝐸 et
On a donc montré
28
Proposition 6.7. Soit (, 𝐸), ( , 𝐹 ) des espaces affines avec de dimension finie et (𝐴0 , … , 𝐴𝑛 ) une
base affine de . Soit
1. 𝑓 est injective si et seulement si {𝑓 (𝐴0 ), … , 𝑓 (𝐴𝑛 )} est affinement libre ;
2. 𝑓 est surjective si et seulement si {𝑓 (𝐴0 ), … , 𝑓 (𝐴𝑛 )} est génératrice de ;
3. 𝑓 est bijective si et seulement si {𝑓 (𝐴0 ), … , 𝑓 (𝐴𝑛 )} est une base affine de .
En particulier tout les espaces affines de dimensions 𝑛 sont affinement isomorphes à 𝕂𝑛 . On pourra
donc parler de l’espace affine de dimension 𝑛.
Ecriture matricielle d’une application affine
Soient (, 𝐸) et ( , 𝐹 ) des espaces affines, = (𝐴, ) et ′ = (𝐴′ , ′ ) des repères cartésiens de respecti-
vement et et 𝑓 ∶ → une application affine.
Pour tout 𝑀 ∈ on a 𝐴 ⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
′ ⃖⃖⃖⃖⃖⃖⃖⃖⃗
𝑓 (𝑀) = 𝐴 ′
𝑓 (𝐴) + 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖
(𝐴)𝑓 (𝑀)⃗ = 𝐴
⃖⃖⃖⃖⃖⃖⃖⃖⃗
′
𝑓 (𝐴) + 𝑓⃖⃗(𝐴𝑀).
⃖⃖⃖⃖⃗
Donc si 𝑃 la matrice de 𝑓⃖⃗ dans les bases et alors pour tout 𝑀 ∈ on a 𝑓 (𝑀)′ = 𝑓 (𝐴)′ + 𝑃𝑀 .
′
Définition 6.3. Soit (, 𝐸) un espace affine. Un endomorphisme affine de est une application affine
ayant pour espace de départ et d’arrivée . On note Aff() l’ensemble des endomorphismes affines de
.
Définition 6.4. Soit 𝑋 un ensemble. Pour toute application 𝑓 ∶ 𝑋 → 𝑋 on note Fix(𝑋 ) l’ensemble
⃖⃖⃖⃖⃖⃖⃖⃖⃗ = 𝑂𝑀
𝑀 ∈ Fix(ℎ) ⇔ ℎ(𝑀) = 𝑀 ⇔ 𝑂ℎ(𝑀) ⃖⃖⃖⃖⃗ ⇔ 𝜆𝑂𝑀
⃖⃖⃖⃖⃗ = 𝑂𝑀
⃖⃖⃖⃖⃗ ⇔ (𝜆 − 1)𝑂𝑀
⃖⃖⃖⃖⃗ = 0⃖⃖⃗𝐸 .
{
si 𝜆 = 1
Donc Fix(ℎ) = .
{𝑂} sinon
On a déjà vu que si on fixe l’image d’un point alors une application affine est entièrement déterminée
par sa partie linéaire. En particulier ce sera le cas pour une application affine possédant un point fixe.
Dans ce cas on peut même être plus précis. On va montrer que si 𝑓 est une application affine avec un
point fixe alors on peut la voir comme une application linéaire. Ainsi pour étudier ce type d’application
affine on se ramène à étudier des applications linéaires.
Contrairement au cas linéaire (toute application linéaire admet au moins 0⃗ comme point fixe ) une ap-
plication affine n’admet pas forcément de points fixes, par exemple les translations. Par contre on va
montrer que l’on peut toujours se ramener à une application affine avec au moins un point fixe. On
commence par donner des conditions d’existence de points fixes :
29
Théorème 6.1. Soit (, 𝐸) un espace affine, et 𝑓 ∈ Aff().
1. Soit Fix(𝑓 ) = ∅, soit Fix(𝑓 ) est un s-e-a de de direction ker(𝑓⃖⃗ − Id𝐸 ).
2. Si 𝑓⃖⃗ − Id𝐸 est surjective alors Fix(𝑓 ) ≠ ∅.
3. Si Fix(𝑓 ) est un singleton alors 𝑓⃖⃗ − Id𝐸 est injective
4. Si est de dimension finie on a l’équivalence :
Fix(𝑓 ) est un singleton si et seulement si 𝑓⃖⃗ − Id𝐸 est injective.
On peut toujours se ramener à étudier des endomorphismes affines admettant des points fixes et
l’étude de ces derniers se ramène à celle des endomorphismes d’espace vectoriels.
Proposition 6.8. Soit (, 𝐸) un espace affine et 𝑓 ∶ → un endomorphisme affine.
1. Pour tout 𝐴 ∈ il existe une unique translation 𝑡⃗𝑢 et un unique endomorphisme affine 𝑔 de
vérifiant 𝑔(𝐴) = 𝐴 et 𝑓 = 𝑡⃗𝑢 ◦𝑔.
2. Si 𝑓 admet au moins un point fixe 𝐴 alors 𝑓 est un endomorphisme de l’espace vectoriel 𝐴
vectorialisé de en𝐴.
Définition 6.5. Soit (, 𝐸) un espace affine. Un automorphisme affine de est un endomorphisme
affine bijective de . On note GA() l’ensemble des automorphismes affines de .
30
1. Tout élément de GA() s’écrit de manière unique comme la composée d’une translation et d’un
automorphisme affine admettant 𝑂 comme point fixe ;
2. dans cette décomposition la structure de groupe de GA() est donnée pour tout 𝑢, ⃖⃗ 𝑣⃖⃗ ∈ 𝐸 et
𝑔1 , 𝑔2 ∈ GA𝑂 () par :
(𝑡⃗𝑢 ◦𝑔1 )◦(𝑡⃗𝑣 ◦𝑔2 ) = (𝑡⃗𝑢 ◦𝑡𝑔⃖⃗1 (⃗𝑣 ) )◦(𝑔1 ◦𝑔2 );
3. l’application 𝜂 ∶ GA() → GL(𝐸) associant à toute application affine sa partie linéaire est un
morphisme de groupes surjectif de noyau 𝑇 (). Pour tout 𝑂 ∈ le groupe GA𝑂 () est isomorphe
à GL(𝐸).
4. 𝑇 () est un sous-groupe distingué de GA() et GA()/𝑇 () est un groupe isomorphe à GL(𝐸).
Exemple : Par la discussion précédente les translations et les homothéties sont des éléments de (𝐸).
En fait ce sont les seuls :
Théorème 6.3. Soit (, 𝐸) un espace affine.
1. Une homothétie-translation de rapport 1 est une translation. Une homothétie-translation de
rapport 𝜆 ≠ 1 est une homothétie de rapport 𝜆 et de centre uniquement déterminé.
2. L’ensemble (𝐸) des homothéties-translations de est un sous-groupe de GA().
31
Définition 7.1. Soient 𝐸 un 𝕂-espace vectoriel, 𝐹 un s-e-v de 𝐸 et 𝐻 un supplémentaire de 𝐹 . La
projection vectorielle de 𝐸 sur 𝐹 parallèlement à 𝐻 est l’application
Une projection vectorielle 𝑝 de 𝐸 sur 𝐹 parallèlement à 𝐻 est un endomorphisme linéaire de 𝐸 qui vérifie
Remarque :
1. Une symétrie vectorielle de 𝐸 est un automorphisme linéaire de 𝐸.
2. Soit 𝑠 un endomorphisme linéaire de 𝐸. Alors 𝑠 est la symétrie vectorielle par rapport à 𝐹 paral-
lèlement à 𝐻 si et seulement si 𝑠 = 2𝑝 − Id𝐸 avec 𝑝 la projection vectorielle sur 𝐹 parallèlement à
𝐻.
3. Soit 𝑠 un endomorphisme linéaire de 𝐸 Alors 𝑠 est une symétrie vectorielle si et seulement si 𝑠◦𝑠 = 𝑠.
Dans ce cas c’est la symétrie par rapport à ker(𝑠 − Id𝐸 ) et parallèlement à ker(𝑠 + Id).
Remarque : Soient 𝐸 un espace vectoriel de dimension fini 𝑛, 𝐹 un s-e-v de 𝐸 de dimension 𝑝 et 𝐻 un
supplémentaire de 𝐹 . Alors pour toute base 𝐹 de 𝐹 et 𝐻 de 𝐻 la famille = 𝐹 ∪ 𝐻 est une base de
𝐸 = 𝐹 ⊕ 𝐻.
1. Si 𝑝 est la projection vectorielle sur 𝐹 parallèlement à 𝐻 alors la matrice de 𝑝 dans est
𝐼 0
𝑀 (𝑝) = 𝑝 .
( 0 0)
2. Si 𝑠 est une symétrie vectorielle de 𝐸 par rapport à 𝐹 parallèlement à 𝐻 alors la matrice de 𝑠 dans
𝐼 0
est 𝑀 (𝑠) = 𝑝 et det(𝑠) = (−1)𝑛−𝑝 .
( 0 −𝐼𝑛−𝑝 )
En particulier la projection sur {0𝐸 } parallèlement à 𝐸 est l’application nulle, la projection sur 𝐸 parallè-
lement à {0𝐸 } est l’identité, la symétrie par rapport à {0𝐸 } parallèlement à 𝐸 est − Id𝐸 et la symétrie par
rapport à 𝐸 et parallèlement à {0𝐸 } est l’identité.
Proposition 7.1. Soient ( , 𝐹 ) un s-e-a d’un espace affine (, 𝐸) et 𝐻 un s-e-v supplémentaire de 𝐹
dans 𝐸.
1. Pour tout 𝑀 ∈ il existe un unique point 𝑀 ′ ∈ tel que 𝑀𝑀 ⃖⃖⃖⃖⃖⃖⃗′ ∈ 𝐻 . C’est l’intersection de
avec le s-e-a de passant par 𝑀 et de direction 𝐻 .
2. L’application 𝜋 ∶ → est affine de partie linéaire la projection vectorielle de 𝐸 sur
𝑀 ↦ 𝑀′
𝐹 parallèlement à 𝐻 . De plus Fix(𝜋) = .
32
𝑢⃖⃗ ⃗
𝐻 = Vect(⃖𝑢)
𝑀
𝑀
𝑀′
𝑀′
𝑣⃖⃗
⃗ 𝑣)
𝐻 = Vect(⃖𝑢, ⃖⃗ 𝑢⃖⃗
𝜋∶ → ⃖⃖⃖⃖⃖⃖⃗′ ∈ 𝐻 .
où 𝑀 ′ est l’unique point de tel que 𝑀𝑀
𝑀 ↦ 𝑀′
Remarque :
1. Une projection vectorielle n’étant pas une bijection on en déduit qu’un projection affine n’est pas
un élément de GA().
2. En utilisant les notations de la définition la projection affine 𝜋 sur parallèlement à 𝐻 est de
partie linéaire la projection vectorielle 𝑝 sur 𝐹 parallèlement à 𝐻 . De plus pour tout 𝑀 ∈ on a
𝜋(𝑀) = 𝑀.
D’après l’unicité du corollaire 6.1 pour tout 𝐴 ∈ si 𝑓 est une application affine de partie linéaire
la projection vectorielle sur 𝐹 parallèlement à 𝐻 et vérifiant 𝑓 (𝐴) = 𝐴 alors c’est la projection
affine sur parallèlement à 𝐻 .
3. Pour tout s-e-a (1 , 𝐻 ) de direction 𝐻 les s-e-a et 1 se coupent en 1 point. Soit 𝐻 ce point. Alors
par construction 𝜋(1 ) = {𝐻 }.
Dans le cas linéaire tout endomorphisme linéaire vérifiant 𝑝◦𝑝 = 𝑝 est une projection. C’est encore
vraie dans le cas affine.
Proposition 7.2. Soit (, 𝐸) un espace affine. Un endomorphisme affine 𝑓 ∶ → est une projection
affine si et seulement si 𝑓 ◦𝑓 = 𝑓 .
Dans ce cas c’est la projection affine sur Im(𝑓 ) parallèlement à ker(𝑓⃖⃗).
Preuve : Si 𝑓 est une application affine de partie linéaire 𝜑 ∶ 𝐸 → 𝐸 telle que 𝑓 ◦𝑓 = 𝑓 . Alors 𝜑◦𝜑 = 𝜑.
Donc 𝜑 est la projection vectorielle sur 𝐹 = Im(𝜑) parallèlement à 𝐻 = ker(𝜑).
Soit le sous-espace affine 𝑓 (). Il est dirigé par 𝜑(𝐸) = 𝐹 et pour 𝐴 ∈ il existe 𝐵 ∈ tel que 𝐴 = 𝑓 (𝐵)
donc 𝑓 (𝐴) = 𝑓 (𝑓 (𝐵)) = 𝑓 (𝐵) = 𝐴. Par conséquent pour 𝐴 ∈ l’application affine 𝑓 vérifie 𝑓 (𝐴) = 𝐴 et
à pour partie linéaire la projection vectorielle sur 𝐹 parallèlement à 𝐻 . D’après la remarque précédente
c’est la projection affine sur parallèlement à 𝐻 .
Inversement si 𝑓 est la projection affine sur parallèlement à 𝐻 alors pour tout 𝑀 ∈ on a 𝑓 (𝑀) ∈ et
par conséquent 𝑓 (𝑓 (𝑀)) = 𝑓 (𝑀) c-a-d 𝑓 ◦𝑓 = 𝑓 . ■
33
7.3 Symétries affines
Proposition 7.3. Soient ( , 𝐹 ) un s-e-a d’un espace affine (, 𝐸), 𝐻 un s-e-v supplémentaire de 𝐹 dans
𝐸, et 𝜋 la projection affine sur parallèlement à 𝐻 .
1. Pour tout 𝑀 ∈ il existe un unique point 𝑀 ′′ ∈ tel que 𝜋(𝑀) soit le milieu de [𝑀𝑀 ′′ ]. C’est
⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
le point défini par 𝜋(𝑀)𝑀 ′′ ⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
= 𝑀𝜋(𝑀).
2. L’application 𝜎 ∶ → est affine de partie linéaire la symétrie vectorielle par rap-
𝑀 ↦ 𝑀 ′′
port à 𝐹 parallèlement à 𝐻 . De plus Fix(𝜎) = .
𝑢⃖⃗ ⃗
𝐻 = Vect(⃖𝑢)
𝑀
𝑀 𝜋(𝑀)
𝜋(𝑀)
𝑀 ′′
𝑀 ′′
𝑣⃖⃗
𝑢⃖⃗
⃗ 𝑣)
𝐻 = Vect(⃖𝑢, ⃖⃗
𝜎∶ → ⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
où 𝑀 ′′ est l’unique point de tel que 𝜋(𝑀)𝑀 ′′ ⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
= 𝑀𝜋(𝑀).
𝑀 ↦ 𝑀 ′′
Remarque :
1. Une symétrie vectorielle étant une bijection on en déduit que les symétries affines sont des élé-
ments de GA().
2. De même que pour les projections affines l’unicité du corollaire 6.1 montre que pour tout 𝐴 ∈ si
𝑓 est une application affine de partie linéaire la symétrie vectorielle par rapport à 𝐹 parallèlement
à 𝐻 et vérifiant 𝑓 (𝐴) = 𝐴 alors c’est la symétrie affine par rapport à parallèlement à 𝐻 .
⃖⃖⃖⃖⃖⃖⃖′′⃗ ∈ 𝐻 et le milieu
3. La condition 𝑀 ′′ ∈ tel que 𝜋(𝑀) soit le milieu de [𝑀𝑀 ′′ ] est équivalente à 𝑀𝑀
′′
de [𝑀𝑀 ] appartient à .
Exemple : La symétrie affine par rapport à = {𝐴} parallèlement à 𝐸 est la symétrie centrale de
centre 𝐴.
De même que dans le cas vectorielle on peut donner les caractérisations suivantes des symétries
affines
34
Proposition 7.4. Soient ( , 𝐹 ) un s-e-a d’un espace affine (, 𝐸), 𝐻 un s-e-v supplémentaire de 𝐹 dans
𝐸 et 𝜋 la projection affine sur parallèlement à 𝐻 .
1. Un endomorphisme affine 𝜎 ∶ → est la symétrie par rapport à parallèlement à 𝐻 si et
seulement si
∀𝑀 ∈ , ⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
𝜎(𝑀) = 𝑀 + 2𝑀𝜋(𝑀).
2. Un endomorphisme affine 𝑓 ∶ → est une symétrie affine si et seulement si 𝑓 ◦𝑓 = Id .
Dans ce cas c’est la symétrie par rapport à Fix(𝑓 ) parallèlement à ker(𝑓⃖⃗ + Id𝐸 ). De plus Fix(𝑓 )
est un s-e-a dirigé par ker(𝑓⃖⃗ − Id𝐸 ).
Remarque : Pour tout s-e-a (1 , 𝐻 ) de direction 𝐻 on a 𝜎(1 ) = 1 . En effet les s-e-a et 1 se
coupent en un unique point. Notons le 𝐻 . On a déjà vu que 𝜋(1 ) = {𝐻 }. Donc pour tout 𝑀 ∈ 1 on a
⃖⃖⃖⃖⃖⃗. Ainsi 𝜎(𝑀) ∈ 1 c-à-d 𝜎(1 ) ⊂ 1 . On a alors 1 = 𝜎 2 (1 ) ⊂ 𝜎(1 ). D’où l’égalité.
𝜎(𝑀) = 𝑀 + 2𝑀𝐻
𝐴𝐵 𝜆1 ⃖⃖⃖⃗ = 𝜆1 𝑢, ⃖⃖⃖⃗ = 𝜆2 𝑢.
= , avec 𝐴𝐵 ⃖⃗ 𝐴𝐶 ⃖⃗
𝐴𝐶 𝜆2
Remarque :
1. Attention contrairement au quotient de mesures algébrique la mesure algébrique 𝐴𝐵 d’un vecteur
n’est pas bien définie. Sans donnée supplémentaire on ne peut pas parler de sens positif ou négatif
sur une droite.
⃖⃖⃖⃗ = 𝜆𝐴𝐶
2. En particulier si 𝐴𝐵 ⃖⃖⃖⃗ alors 𝐴𝐵 = 𝜆.
𝐴𝐶
35
8.2 Théorème de Thales
′
Théorème 8.1. Soient 1 , 2 , 3 des hyperplans 2 à 2
distincts et parallèles d’un espace affine (, 𝐸) de dimen-
sion 𝑛 ⩾ 2 et (, 𝐷), (′ , 𝐷 ′ ) des droites non faiblement 𝑃1 𝑄1
𝑃1 𝐵 𝑄1 𝑄3 2
=
𝑃1 𝑃2 𝑄1 𝑄2
alors 𝐵 ∈ 3 et 𝐵 = 𝑃3 .
𝑃3
𝑄3
3
Δ Δ′
En particulier dans le cas d’un plan affine on a 𝑑1
𝐴
𝐴′
Soient 𝑑1 , 𝑑2 , 𝑑3 trois droites parallèles distinctes de et Δ, Δ′ deux autres
droites sécantes chacune à 𝑑1 , 𝑑2 , 𝑑3 en respectivement 𝐴, 𝐵, 𝐶 et 𝐴′ , 𝐵′ , 𝐶 ′ . 𝑑2
𝐵
𝐵′
𝐴𝐶 𝐴′ 𝐶 ′
1. On a = .
𝐴𝐵 𝐴′ 𝐵′ 𝐶
𝑑3 𝐶′
𝐴𝑀 𝐴′ 𝐶 ′
2. Réciproquement si 𝑀 ∈ Δ vérifie = ′ ′ alors 𝑀 = 𝐶.
𝐴𝐵 𝐴𝐵
𝐶
Théorème 8.2. Soient Δ et Δ′ des droites distinctes d’un plan affine . Soient de 𝐴, 𝐵, 𝐶 trois points
de Δ, et 𝐴′ , 𝐵′ , 𝐶 ′ trois points de Δ′ . Si (𝐴𝐵′ ) ∥ (𝐵𝐴′ ) et (𝐵𝐶 ′ ) ∥ (𝐶𝐵′ ) alors (𝐴𝐶 ′ ) ∥ (𝐶𝐴′ ).
36
𝐵 𝐶
𝐴 𝐶 𝐵
Δ
𝐴
Δ′
𝑂
Δ
𝐶′
𝐴′ 𝐵′
𝐵′
𝐶′
Δ′ 𝐴′
Théorème 8.3. Soient 𝐴𝐵𝐶 et 𝐴′ 𝐵′ 𝐶 ′ deux triangles non plats sans sommets communs et à côtés
respectivement parallèles, c-a-d (𝐴𝐵) ∥ (𝐴′ 𝐵′ ), (𝐴𝐶) ∥ (𝐴′ 𝐶 ′ ), et (𝐵𝐶) ∥ (𝐵′ 𝐶 ′ ). Alors les droites
(𝐴𝐴′ ), (𝐵𝐵′ ), et (𝐶𝐶 ′ ) sont concourantes ou parallèles.
𝐴′
𝐴′ 𝐴 𝐶′
𝐴 𝐶′ 𝐶
𝐶
𝑂
𝐵 𝐵′
𝐵′ 𝐵
Définition 9.1. Un automorphisme d’un anneau 𝑅 est un morphisme d’anneaux 𝜌 ∶ 𝑅 → 𝑅 qui est
bijectif c-à-d
∀𝑥, 𝑦 ∈ 𝑅, 𝜌(𝑥 + 𝑦) = 𝜌(𝑥) + 𝜌(𝑦), 𝜌(𝑥𝑦) = 𝜌(𝑥)𝜌(𝑦).
L’ensemble des automorphismes de 𝑅 est noté Aut(𝑅).
Tout anneau 𝑅 admet au moins un automorphisme : l’application identité, appelé automorphisme trivial.
Dans certains cas particulier d’anneau il n’existe pas d’automorphisme non trivial :
Proposition 9.1. Soit 𝑅 le corps ℝ, ℚ, ou ℤ/𝑝ℤ avec 𝑝 premier. Tout automorphisme d’anneau de 𝑅
est l’identité.
37
𝜌(1) = 1.
Alors pour tout 𝑛 ∈ ℕ∗ on a
𝜌(𝑛) = 𝜌(1⏟⏞⏞⏞⏟⏞⏞⏞⏟
+ ⋯ + 1) = 𝜌(1) + ⋯ + 𝜌(1) = 𝑛𝜌(1) = 𝑛 et 𝑛 + 𝜌(−𝑛) = 𝜌(𝑛) + 𝜌(−𝑛) = 𝜌(𝑛 − 𝑛) = 𝜌(0) = 0.
⏟⏞⏞⏞⏞⏞⏞⏟⏞⏞⏞⏞⏞⏞⏟
𝑛× 𝑛×
Ainsi pour tout 𝑛 ∈ ℤ on a 𝜌(𝑛) = 𝑛. Donc si 𝑅 = ℤ/𝑝ℤ alors l’énoncé est prouvé.
Pour tout 𝑛 ∈ ℤ et 𝑚 ∈ ℤ∗ on a 𝜌 ( 𝑚𝑛 ) 𝑚 = 𝜌 ( 𝑚𝑛 ) 𝜌(𝑚) = 𝜌 ( 𝑚𝑛 𝑚) = 𝜌(𝑛) = 𝑛. Donc 𝜌 ( 𝑚𝑛 ) = 𝑚𝑛 et l’énoncé
est vrai pour 𝑅 = ℚ.
√ √
Supposons que 𝑅 = ℝ. Alors pour tout 𝑥 ∈ ℝ+ on a 𝜌(𝑥) = 𝜌 (( 𝑥)2 ) = 𝜌( 𝑥)2 ⩾ 0 et par conséquent pour
tout 𝑥, 𝑦 ∈ 𝑅
𝑥 ⩾ 𝑦 ⇔ 𝑥 − 𝑦 ⩾ 0 ⇒ 𝜌(𝑥 − 𝑦) ⩾ 0 ⇔ 𝜌(𝑥) ⩾ 𝜌(𝑦).
Donc 𝜌 est croissant. De plus par définition de ℝ pour tout 𝑥 ∈ ℝ il existe une suite croissante de rationnels
(𝑢𝑛 ) et une suite décroissante de rationnels (𝑣𝑛 ) admettant 𝑥 comme limite quand 𝑛 tend vers +∞. Comme
𝜌 est croissante pour tout 𝑛 ∈ ℕ on a
𝑢𝑛 ⩽ 𝑥 ⩽ 𝑣𝑛 ⇒ 𝜌(𝑢𝑛 ) ⩽ 𝜌(𝑥) ⩽ 𝜌(𝑣𝑛 ) ⇒ 𝑢𝑛 ⩽ 𝜌(𝑥) ⩽ 𝑣𝑛 .
Donc en passant à la limite on a 𝑥 ⩽ 𝜌(𝑥) ⩽ 𝑥 c-à-d 𝜌(𝑥) = 𝑥. ■
Remarque : Dans ℂ il existe des automorphismes d’anneaux différents de l’identité.
Par exemple 𝜌 ∶ ℂ → ℂ
𝑧 ↦ 𝑧
2. Soit (, 𝐸) et ( , 𝐹 ) des espaces affines sur 𝕂. Une application 𝑓 ∶ → est dite semi-affine
s’il existe une application semi-linéaire 𝑓⃖⃗ ∶ 𝐸 → 𝐹 telle que
Remarque :
1. De même que pour les applications affines l’application semi-linéaire liée est unique.
2. Sur des espaces vectorielles ou affines réels d’après la proposition 9.1 l’identité est l’unique au-
tomorphisme de ℝ. Donc sur des espaces vectorielles ou affines réels les notion d’applications
semi-linéaires, respectivement semi-affines coïncident avec celles d’applications linéaires, respec-
tivement affines.
De même que pour les applications vectorielles et affines on montre que
Proposition 9.2.
1. Soient 𝑉 et 𝑊 des 𝕂-espaces vectoriels et 𝑓⃖⃗ ∶ 𝑉 → 𝑊 une application semi-linéaire. Pour tout
s-e-v 𝐹 de 𝑉 𝑓⃖⃗(𝑉 ) est un s-e-v de 𝑊 .
2. Soient (1 , 𝐸1 ), (2 , 𝐸2 ) des 𝕂-espaces affines et 𝑓 ∶ 1 → 2 une application semi-affine. Pour
tout s-e-a ( , 𝐹 ) de 1 𝑓 ( ) est un s-e-a de 2 dirigé par 𝑓⃖⃗(𝐹 ).
38
9.3 Théorème fondamental
Afin de montrer le théorème fondamental on commence par donner un lemme concernant les appli-
cations bijectives conservant l’alignement :
Lemme 9.1. Soient (, 𝐸) un 𝕂-espace affine de dimension finie et 𝑓 ∶ → une application bijective
conservant l’alignement.
1. Pour toute famille {𝐴0 , … , 𝐴𝑝 } on a 𝑓 (< 𝐴0 , … , 𝐴𝑝 >) ⊂< 𝑓 (𝐴0 ), … , 𝑓 (𝐴𝑝 ) >.
2. Si une famille {𝐴0 , … , 𝐴𝑝 } est affinement libre alors {𝑓 (𝐴0 ), … , 𝑓 (𝐴𝑝 )} est affinement libre.
3. L’image d’une droite par 𝑓 est une droite.
4. Si et ′ sont des droites parallèles alors 𝑓 () et 𝑓 (′ ) sont des droites parallèles.
De plus si ∩ ′ = ∅ alors 𝑓 () ∩ 𝑓 (′ ) = ∅.
Preuve :
1. On fait une récurrence sur le nombre de points de la famille. Le cas 𝑝 = 1 est trivial. Le cas 𝑝 = 2 est
vrai car 𝑓 conserve l’alignement. On suppose le résultat vrai pour une famille de 𝑝 éléments. Soit
𝑀 ∈< 𝐴0 , … , 𝐴𝑝 , 𝐴𝑝+1 >. Alors 𝑀 est le barycentre d’un système ((𝐴0 , 𝜆0 ), … , (𝐴𝑝+1 , 𝜆𝑝1 )) de masse 1.
𝑝+1
Comme 𝕂 est de caractéristique non nulle il existe 𝛼 ∈ 𝕂 tel que 𝛾 = 𝜆0 +𝜆1 −𝛼 ≠ 0, 𝛿 = 𝛼 + ∑ 𝜆𝑖 ≠ 0.
𝑖=2
On peut alors considérer 𝑃 = Bar((𝐴0 , 𝜆0 − 𝛼), (𝐴1 , 𝜆1 )) et 𝑄 = Bar((𝐴0 , 𝛼), (𝐴2 , 𝜆1 ), … , (𝐴𝑝+1 , 𝜆𝑝1 )).
Par associativité du barycentre on a
𝑓 (𝑃) ∈< 𝑓 (𝐴0 ), 𝑓 (𝐴1 ) >, et 𝑓 (𝑄) ∈< 𝑓 (𝐴0 ), 𝑓 (𝐴2 ), … , 𝑓 (𝐴𝑝+1 ) > .
3. Soit la droite (𝐴𝐵). Par le point 1. 𝑓 () ⊂ (𝑓 (𝐴)𝑓 (𝐵)). Inversement par surjectivité de 𝑓 pour tout
𝑁 ∈ (𝑓 (𝐴)𝑓 (𝐵)) il existe 𝑀 ∈ tel que 𝑓 (𝑀) = 𝑁 . Supposons que 𝑀 ∉ . Alors la famille {𝐴, 𝐵, 𝑀}
est affinement libre et d’après le point 2. il en va de même de (𝑓 (𝐴), 𝑓 (𝐵), 𝑁 ). C’est impossible par
définition de 𝑁 . Donc 𝑀 ∈ et par conséquent 𝑓 () = (𝑓 (𝐴)𝑓 (𝐵)).
4. Si = (𝐴𝐵) et ′ = (𝐴′ 𝐵′ ) sont des droites égales alors il est clair que 𝑓 () = 𝑓 (′ ) sont des
droites parallèles. Si ∥ ′ avec ∩ ′ = ∅ alors par bijectivité de 𝑓 on a 𝑓 () ∩ 𝑓 (′ ) = ∅. Il est
évident que ⊂< 𝐴, 𝐵, 𝐴′ >. De plus comme Vect(𝐴𝐵)⃖⃖⃖⃗ = Vect(𝐴⃖⃖⃖⃖⃖⃗
′ ′
𝐵 ) on a
⃖⃖⃖⃖⃖⃗
𝑀 ∈ ′ =< 𝐴′ , 𝐵′ >⇔ ∃𝛼 ∈ 𝕂, 𝐴 ′ ⃖⃖⃖⃖⃖⃗
𝑀 = 𝛼𝐴 ′ ′ ⃖⃖⃖⃖⃖⃗
𝐵 ⇔ ∃𝛽 ∈ 𝕂 𝐴 ′ ⃖⃖⃖⃗ ⇒ 𝑀 ∈< 𝐴, 𝐵, 𝐴′ > .
𝑀 = 𝛽 𝐴𝐵
D’où ∪ ′ ⊂< 𝐴, 𝐵, 𝐴′ > et d’après le point 1. 𝑓 ( ∪ ′ ) ⊂< 𝑓 (𝐴), 𝑓 (𝐵), 𝑓 (𝐴′ ) >. Ainsi les droites
𝑓 (), 𝑓 (′ ) sont coplanaires et disjointes d’où d’après le corollaire 3.2 elles sont parallèles. ■
On peut maintenant énoncer et démontrer le théorème fondamental :
Théorème 9.1. Soit (, 𝐸) un espace affine sur 𝕂 de dimension supérieur ou égale à 2.
Une bijection de conserve l’alignement si et seulement si elle est semi-affine.
39
Remarque : Dans le cas dim() = 1 toute les bijections respectent l’alignement et elles ne sont pas
pour autant affine. Par exemple 𝑓 ∶ ℝ → ℝ n’est pas affine car les endomorphismes affines de ℝ
𝑥 ↦ 𝑥3
sont de la forme 𝑥 ↦ 𝑎𝑥 + 𝑏.
Avant de prouver le théorème, on énonce son corollaire obtenu par application à des ℝ-espaces affines :
Corollaire 9.1. Soit un ℝ-espace affine de dimension supérieur ou égale à 2.
Une bijection de conserve l’alignement si et seulement si elle est affine.
Preuve du théorème : Commençons par le cas indirect. Si 𝑓 est une application semi-affine bijective
alors d’après la proposition 9.2 l’image d’une droite affine (, 𝐷) est un s-e-a de direction 𝑓⃖⃗(𝐷) et donc
dim(𝑓 ()) ⩽ 1. Comme 𝑓 est bijective pour tout 𝐴, 𝐵 ∈ distincts on doit avoir 𝑓 (𝐴) ≠ 𝑓 (𝐵). Donc l’image
de n’est pas un point. Par conséquent c’est une droite affine et 𝑓 conserve l’alignement.
Montrons le sens direct. Soit 𝑓 une bijection de conservant l’alignement. Fixons 𝑂 ∈ . A tout 𝑢⃖⃗ ∈ 𝐸
on associe le point 𝑀 ∈ tel que 𝑂𝑀 ⃗ le vecteur 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
⃖⃖⃖⃖⃗ = 𝑢⃖⃗ et l’on note ⃗𝑙(⃖𝑢) (𝑂)𝑓 (𝑀) ∈ . Par construction
⃗𝑙(0⃖⃖⃗𝐸 ) = 0⃖⃖⃗𝐸 . Inversement si ⃗𝑙(⃖𝑢)
⃗ = 0⃖⃖⃗𝐸 alors 𝑓 (𝑂) = 𝑓 (𝑀) et par injectivité de 𝑓 𝑂 = 𝑀 c-à-d 𝑢⃖⃗ = 0⃖⃖⃗𝐸 . Donc
⃗𝑙(⃖𝑢)
⃗ = 0⃖⃖⃗𝐸 si et seulement si 𝑢⃖⃗ = 0⃖⃖⃗𝐸 .
Pour montrer que 𝑓 est semi-affine il suffit de montrer que ⃗𝑙 ∶ 𝐸 → 𝐸 est semi-linéaire. Cela revient à
montrer qu’il existe un automorphisme 𝜌 de 𝕂 tel que
⃗ 𝑣⃖⃗ ∈ 𝐸,
∀⃖𝑢, ∀𝛼 ∈ 𝕂 ⃗𝑙(𝛼 𝑢⃖⃗ + 𝑣)
⃖⃗ = 𝜌(𝛼)⃗𝑙(⃖𝑢)
⃗ + ⃗𝑙(⃖⃗
𝑣).
𝑀1′
𝑀1 𝑂1′
⃗𝑙
𝑂1
𝑀2′
𝑀2 𝑀′
𝑁 𝑁′
𝑀 𝑂′
𝑂
De même que dans le cas précédent on en déduit que pour 𝑂1′ = 𝑓 (𝑂1 ), 𝑀1′ = 𝑓 (𝑀1 ) et 𝑀2′ = 𝑓 (𝑀2 )
les quadrilatères 𝑂 ′ 𝑂1′ 𝑀1′ 𝑀 et 𝑂1′ 𝑀1′ 𝑀2′ 𝑁 ′ sont des parallélogrammes non aplatis.
⃖⃖⃖⃖⃖⃖⃗
Alors 𝑂 ′ ′
𝑀 =𝑂 ⃖⃖⃖⃖⃖⃖⃗
′ ′ ⃖⃖⃖⃖⃖⃖⃖
′ ⃗′ ⃖⃖⃖⃖⃖⃖⃗
′ ′ ⃖⃖⃖⃖⃖⃖⃗
′ ′ ⃖⃖⃖⃖⃖⃖⃖
′ ⃗′ ⃖⃖⃖⃖⃖⃖⃗
1 𝑀1 = 𝑁 𝑀2 et par conséquent 𝑂 𝑀2 = 𝑂 𝑁 + 𝑁 𝑀2 = 𝑂 𝑁 + 𝑂 𝑀 c-à-d
′ ′ ⃖⃖⃖⃖⃖⃖⃗
′ ′
⃗𝑙(⃖⃗ ⃖⃗ = ⃗𝑙(𝑂𝑀
𝑣 + 𝑢) ⃖⃖⃖⃖⃖⃗2 ) = ⃗𝑙(𝑂𝑁
⃖⃖⃖⃖⃗) + ⃗𝑙(𝑂𝑀)
⃖⃖⃖⃖⃗ = 𝑣⃖⃗ + 𝑢.
⃖⃗
Le cas où l’un des vecteurs est nul étant trivial pour tout 𝑢, ⃖⃗ 𝑣⃖⃗ ∈ 𝐸 on a bien ⃗𝑙(⃖𝑢⃗ + 𝑣)
⃖⃗ = ⃗𝑙(⃖𝑢)
⃗ + ⃗𝑙(⃖⃗
𝑣).
Montrons la compatibilité au produit externe. Soient 𝛼 ∈ 𝕂∗ , 𝑢⃖⃗ ∈ 𝐸 non nul et 𝑀, 𝑁 ∈ tels que
⃖⃖⃖⃖⃗ = 𝑢,
𝑂𝑀 ⃖⃖⃖⃖⃗ = 𝛼 𝑢.
⃖⃗ 𝑂𝑁 ⃖⃗ On pose 𝑀 ′ = 𝑓 (𝑀), 𝑁 ′ = 𝑓 (𝑁 ). D’après le point 4. du lemme 𝑓 transforme les droites
parallèles (𝑂𝑀), (𝑂𝑁 ) en des droites parallèles (𝑂 ′ 𝑀 ′ ), (𝑂 ′ 𝑁 ′ ). De plus par définition ⃗𝑙(⃖𝑢) ⃗ = 𝑂 ⃖⃖⃖⃖⃖⃖⃗
′ ′
𝑀 et
40
⃗𝑙(𝛼 𝑢) ⃖⃖⃖⃖⃖⃖⃗
⃖⃗ = 𝑂 ′ ′
⃖⃗ = 𝜌⃗𝑢 (𝛼)⃗𝑙(⃖𝑢).
𝑁 . Donc il existe un scalaire 𝜌⃗𝑢 (𝛼) ∈ 𝕂 tel que ⃗𝑙(𝛼 𝑢) ⃗
Montrons que 𝜌⃗𝑢 (𝛼) ne dépend pas de 𝑢. ⃖⃗ Pour cela on discute selon que {⃗𝑙(⃖𝑢), ⃗ ⃗𝑙(⃖⃗
𝑣)} est une famille libre,
ou liée sans vecteur nul.
1. Supposons que {⃗𝑙(⃖𝑢),
⃗ ⃗𝑙(⃖⃗
𝑣)} est une famille libre. On a
𝑣) = 𝜌⃗𝑢+⃗𝑣 (𝛼)⃗𝑙(⃖𝑢⃗ + 𝑣)
⃗ + 𝜌⃗𝑢+⃗𝑣 (𝛼)⃗𝑙(⃖⃗
𝜌⃗𝑢+⃗𝑣 (𝛼)⃗𝑙(⃖𝑢) ⃖⃗ = ⃗𝑙(𝛼(⃖𝑢⃗ + 𝑣))
⃖⃗
⃗
= 𝑙(𝛼 𝑢⃖⃗ + 𝛼 𝑣) ⃗
⃖⃗ = 𝑙(𝛼 𝑢) ⃗
⃖⃗ + 𝑙(𝛼 𝑣)⃖⃗
⃗ ⃗
⃗ + 𝜌⃗𝑣 (𝛼)𝑙(⃖⃗
= 𝜌⃗𝑢 (𝛼)𝑙(⃖𝑢) 𝑣).
c-à-d {𝑂 ⃖⃖⃖⃖⃖⃖⃗
′ ′ ⃖⃖⃖⃖⃖⃗
𝑀 , 𝑂 ′ 𝑃 ′ } libre. L’application 𝑓 étant bijective il existe 𝑃 ∈ tel que 𝑓 (𝑃) = 𝑃 ′ . On prend
⃖⃗ = 𝑂𝑃.
𝑤 ⃖⃖⃖⃗ Alors ⃗𝑙(𝑤)⃖⃗ = 𝑂 ⃖⃖⃖⃖⃖⃗
′ ′
𝑃.
De plus comme la famille {⃗𝑙(⃖𝑢), ⃗ ⃗𝑙(⃖⃗
𝑣)} est liée on a également {⃗𝑙(⃖⃗ 𝑣), ⃗𝑙(𝑤)}
⃖⃗ libre. En appliquant le
cas précédent à {⃗𝑙(⃖𝑢), ⃗ ⃗𝑙(𝑤)}
⃖⃗ et à {⃗𝑙(⃖⃗ 𝑣), ⃗𝑙(𝑤)}
⃖⃗ on trouve 𝜌⃗𝑢 (𝛼) = 𝜌𝑤⃖⃗ (𝛼) = 𝜌⃗𝑣 (𝛼).
Donc pour tout 𝑢, ⃖⃗ 𝑣⃖⃗ ∈ 𝐸 non nuls on a montré que 𝜌⃗𝑢 (𝛼) = 𝜌⃗𝑣 (𝛼). Notons ce nombre 𝜌(𝛼).
Si 𝑢⃖⃗ = 0⃖⃖⃗𝐸 alors l’égalité ⃗𝑙(𝛼 0⃖⃖⃗𝐸 ) = 𝜌0⃖⃗ (𝛼)⃗𝑙(0⃖⃖⃗𝐸 ) est vrai pour n’importe quel choix de 𝜌0⃖⃗ (𝛼). En particulier
𝐸 𝐸
pour 𝜌0⃖⃗ (𝛼) = 𝜌(𝛼).
𝐸
On a donc montré l’existence d’une application 𝜌 ∶ 𝕂∗ → 𝕂 telle que
∀⃖𝑢⃗ ∈ 𝐸, ∀𝛼 ∈ 𝕂∗ ⃗𝑙(𝛼 𝑢)
⃖⃗ = 𝜌(𝛼)⃗𝑙(⃖𝑢).
⃗
𝜌(𝛼𝛽)⃗𝑙(⃖𝑢)
⃗ = ⃗𝑙(𝛼𝛽 𝑢)
⃖⃗ = 𝜌(𝛼)⃗𝑙(𝛽 𝑢)
⃖⃗ = 𝜌(𝛼)𝜌(𝛽)⃗𝑙(⃖𝑢).
⃗
Donc pour 𝑀1 , 𝑀2 ∈ tel que 𝑂𝑀 ⃖⃖⃖⃖⃖⃗1 = 𝛼 𝑢, ⃖⃖⃖⃖⃖⃗2 = 𝛽 𝑢⃖⃗ et 𝑀1′ = 𝑓 (𝑀1 ), 𝑀2′ = 𝑓 (𝑀2 ) on a 𝑂
⃖⃗ 𝑂𝑀 ⃖⃖⃖⃖⃖⃖⃗
′ ′
𝑀1 = 𝑂 ⃖⃖⃖⃖⃖⃖⃗
′ ′
𝑀2 c-à-d
′ ′
𝑓 (𝑀1 ) = 𝑀1 = 𝑀2 = 𝑓 (𝑀2 ) et par injectivité de 𝑓 𝑀1 = 𝑀2 . Par conséquent 𝛼 𝑢⃖⃗ = 𝛽 𝑢⃖⃗ c-à-d 𝛼 = 𝛽.
Soit 𝛽 ∈ 𝕂. On considère 𝑀, 𝑀 ′ , 𝑁 ′ ∈ tels que 𝑂𝑀 ⃖⃖⃖⃖⃗ = 𝑢,
⃖⃗ 𝑓 (𝑀) = 𝑀 ′ et 𝑂 𝑁 = 𝛽⃗𝑙(⃖𝑢)
⃖⃖⃖⃖⃖⃖⃗
′ ′
⃗ = 𝛽𝑂 ⃖⃖⃖⃖⃖⃖⃗
′ ′
𝑀 . Comme
′
𝑓 est surjective il existe 𝑁 ∈ tel que 𝑓 (𝑁 ) = 𝑁 . Dans la preuve du lemme point 3. on a déjà vu que
𝑁 ′ ∈ (𝑂 ′ 𝑀 ′ ) implique que 𝑁 ∈ (𝑂𝑀). Par conséquent il existe 𝛼 ∈ 𝕂 tel que 𝑂𝑁 ⃖⃖⃖⃖⃗ = 𝛼 𝑂𝑀
⃖⃖⃖⃖⃗ = 𝛼 𝑢.⃖⃗ Ainsi
⃗
𝛽 𝑙(⃖𝑢) ⃖⃖⃖⃖⃖⃖⃗
′ ′ ⃗ ⃖⃖⃖⃖⃗ ⃗
⃗ = 𝑂 𝑁 = 𝑙(𝑂𝑁 ) = 𝑙(𝛼 𝑢) ⃗
⃖⃗ = 𝜌(𝛼)𝑙(⃖𝑢)⃗ c-à-d 𝜌 est surjective. ■
41
10.1 Produit scalaire
Définition 10.1. Soit 𝐸 un ℝ-espace vectoriel.
1. Un produit scalaire sur 𝐸 est une forme bilinéaire symétrique définie positive sur 𝐸, c-à-d une
application 𝐸 × 𝐸 → ℝ telle que :
(𝑥, 𝑦) ↦ ⟨𝑥|𝑦⟩
(a) (Bilinéarité) Pour tout 𝑥 ∈ 𝐸 l’application 𝐸 → ℝ est linéaire et pour tout 𝑦 ∈ 𝐸
𝑦 ↦ ⟨𝑥|𝑦⟩
l’application 𝐸 → ℝ est linéaire.
𝑥 ↦ ⟨𝑥|𝑦⟩
(b) (Symétrique) Pour tout (𝑥, 𝑦) ∈ 𝐸 × 𝐸 on a ⟨𝑥|𝑦⟩ = ⟨𝑦|𝑥⟩.
(c) (Défini positive) Pour tout 𝑥 ∈ 𝐸 𝑥 ≠ 0 on a ⟨𝑥|𝑥⟩ > 0
2. On dit que 𝐸 est un espace vectoriel préhilbertien s’il est muni d’un produit scalaire.
3. On dit que 𝐸 est un espace vectoriel euclidien s’il est de dimension finie et s’il est muni d’un
produit scalaire.
4. Si 𝐸 est un espace préhilbertien, l’application ‖.‖ ∶ 𝐸 → √
ℝ s’appelle la norme eucli-
𝑥 ↦ ⟨𝑥|𝑥⟩
dienne sur 𝐸 associée au produit scalaire.
Remarque : Le produit scalaire construit dépend du choix d’une base de 𝐸. La structure n’est donc pas
canonique.
Proposition 10.2. Soit 𝐸 un espace préhilbertien. Pour tout 𝑥, 𝑦 ∈ 𝐸 et 𝛼 ∈ ℝ on a :
1. ‖𝑥‖ ⩾ 0 ;
2. ‖𝑥‖ = 0 si et seulement si 𝑥 = 0𝐸 ;
3. ‖𝛼𝑥‖ = |𝛼| ‖𝑥‖ ;
4. ‖𝑥 + 𝑦‖2 = ‖𝑥‖2 + ‖𝑦‖2 + 2⟨𝑥|𝑦⟩ ;
5. ‖𝑥 + 𝑦‖2 − ‖𝑥 − 𝑦‖2 = 4⟨𝑥|𝑦⟩ ;
6. ‖𝑥 + 𝑦‖2 + ‖𝑥 − 𝑦‖2 = 2(‖𝑥‖2 + ‖𝑦‖2 ) (Identité du parallélogramme) ;
7. |⟨𝑥|𝑦⟩| ⩽ ‖𝑥‖ . ‖𝑦‖ (Inégalité de Cauchy-Schwartz) ;
L’égalité a lieu si et seulement si la famille {𝑥, 𝑦} est liée ;
8. ‖𝑥 + 𝑦‖ ⩽ ‖𝑥‖ + ‖𝑦‖ (Identité de Minkowski ou triangulaire) ;
L’égalité a lieu si et seulement si 𝑥 et 𝑦 sont positivement liés ( ∃𝜆 ∈ ℝ+ , 𝑥 = 𝜆𝑦 ou 𝑦 = 𝜆𝑥).
Remarque : Les points 2., 3., 8. sont les axiomes de la définition topologique d’une norme.
Isomorphisme avec le dual dans un espace euclidien.
42
Exemple :
1. Pour tout 𝑛 ∈ ℕ l’application ℝ𝑛 × ℝ𝑛 → ℝ est un produit scalaire sur ℝ𝑛 .
𝑥1 𝑦1 𝑛
(( 𝑥⋮𝑛 ) , ( 𝑦⋮𝑛 )) ↦ 𝑖=1 ∑ 𝑥𝑖 𝑦 𝑖
‖ 𝑥1 ‖ √
La norme associée est ‖‖( 𝑥⋮ )‖‖ = 𝑥12 + ⋯ + 𝑥𝑛2 .
‖ 𝑛 ‖
2. Soit 𝐸 l’espace vectoriel des fonctions continues de [0, 1] dans ℝ.
L’application 𝐸 × 𝐸 → ℝ est un produit scalaire sur 𝐸.
1
(𝑓 , 𝑔) ↦ ∫ 𝑓 (𝑥)𝑔(𝑥)d𝑥
√0
1
La norme associée est ‖𝑓 ‖ = ∫0 𝑓 2 (𝑥)d𝑥.
L’espace vectoriel 𝐸 étant de dimension infini ce n’est pas un espace euclidien.
10.2 Orthogonalité
𝑈 ⟂ = {𝑦 ∈ 𝐸 | ∀𝑥 ∈ 𝑈 ⟨𝑥|𝑦⟩ = 0} = {𝑦 ∈ 𝐸 | ∀𝑥 ∈ 𝑈 𝑥 ⟂ 𝑦} .
Remarque : La relation "être orthogonal" est symétrique. En effet le produit scalaire est symétrique et
𝑈 ⊂ 𝑉 ⟂ ⇔ ∀𝑥 ∈ 𝑈 , ∀𝑦 ∈ 𝑉 𝑦 ⟂ 𝑥 ⇔ ∀𝑦 ∈ 𝑉 , ∀𝑥 ∈ 𝑈 𝑥 ⟂ 𝑦 ⇔ 𝑉 ⊂ 𝑈 ⟂ .
Cette formule peut être notablement simplifiée en considérant des bases telle que ⟨𝑒𝑖 |𝑒𝑗 ⟩ est nul pour
presque tout les éléments c-à-d- avec les vecteurs 𝑒𝑖 , 𝑒𝑗 orthogonaux pour 𝑖 différent de 𝑗.
43
Définition 10.3. Soit 𝐸 un espace préhilbertien.
1. Une famille ou une base (𝑒1 , … , 𝑒𝑛 ) de vecteurs de 𝐸 est dite orthogonale si ⟨𝑒𝑖 |𝑒𝑗 ⟩ = 0 pour tout
𝑖, 𝑗 ∈ {1, … , 𝑛} 𝑖 ≠ 𝑗.
2. Une famille ou une base (𝑒1 , … , 𝑒𝑛 ) de vecteurs de 𝐸 est dite orthonormale (ou orthonormée) si
elle est orthogonale et constituée de vecteur de norme 1 c-à-d pour tout 𝑖, 𝑗 ∈ {1, … , 𝑛} on a
{
1 si = 𝑗
⟨𝑒𝑖 |𝑒𝑗 ⟩ = 𝛿𝑖𝑗 = .
0 si 𝑖 ≠ 𝑗
Exemple : Soient 𝐸 un espace vectoriel réel de dimension finie et = (𝑒1 , … , 𝑒𝑛 )une base de 𝐸. On
a vu que l’on peut munir 𝐸 d’un produit scalaire < .|. > . Dans ce cas est une base orthogonale de
l’espace euclidien 𝐸. On peut lui associer une base orthonormée en divisant chaque vecteur par sa norme :
𝑒1 𝑒𝑛
( ‖𝑒1 ‖ , … , ‖𝑒𝑛 ‖ ).
Proposition 10.5. Soit 𝐸 un espace préhilbertien. Toute famille orthogonale (𝑒1 , … , 𝑒𝑛 ) de vecteurs non
nuls de 𝐸 est libre.
On peut exprimer très simplement le produit scalaire dans une base orthonormée :
Proposition 10.6. Soit = (𝑒1 , … , 𝑒𝑛 ) une base orthonormée d’un espace euclidien 𝐸. Soit 𝑥, 𝑦 ∈ 𝐸 de
𝑥1 𝑦1
coordonnées ( 𝑥⋮ ) et ( 𝑦⋮ ) dans . Alors
𝑛 𝑛
𝑛 √
1. ⟨𝑥|𝑦⟩ = ∑ 𝑥𝑖 𝑦𝑖 , ‖𝑥‖ = 𝑥12 + ⋯ + 𝑥𝑛2 .
𝑖=1
2. Pour tout 𝑖 ∈ {1, … , 𝑛} on a 𝑥𝑖 = ⟨𝑥|𝑒𝑖 ⟩.
Preuve : On va construire une famille vérifiant la condition de l’énoncé. On construit par récurrence
sur 𝑛 ∈ ℕ∗ une famille orthogonale de vecteurs non nul {𝑒1′′ , … , 𝑒𝑛′′ } vérifiant la condition du théorème. ′′
La famille {𝑒1′ , … , 𝑒𝑛′ } en est déduit en normalisant chaque vecteur : pour tout 𝑖 ∈ {1, … , 𝑛} on a 𝑒𝑖′ = ‖𝑒𝑒𝑖′′ ‖ .
𝑖
Pour 𝑛 = 1 comme {𝑒1 } est libre on a 𝑒1 ≠ 0𝐸 . On pose 𝑒1′′ = 𝑒1 .
H.R. : On suppose que pour toute famille libre à 𝑛 − 1 éléments {𝑒1 , … , 𝑒𝑛−1 } il existe une famille ortho-
gonale de vecteurs non nuls {𝑒1′′ , … , 𝑒𝑛−1
′′
} vérifiant la condition du théorème.
Soit {𝑒1 , … , 𝑒𝑛 } une famille libre de 𝐸. Alors la sous-famille {𝑒1 , … , 𝑒𝑛−1 } est libre à 𝑛 − 1 éléments donc
on peut lui appliquer l’H.R.. On a alors une famille orthogonale de vecteurs non nuls {𝑒1′′ , … , 𝑒𝑛−1 ′′
} telle
′′ ′′
que pour tout 𝑝 ∈ {1, … , 𝑛 − 1} Vect(𝑒1 , … , 𝑒𝑝 ) = Vect(𝑒1 , … , 𝑒𝑝 ).
𝑛−1
On cherche un vecteur 𝑒𝑛′′ ∈ Vect(𝑒1 , … , 𝑒𝑛 ) = Vect(𝑒1′′ , … , 𝑒𝑛−1
′′
, 𝑒𝑛 ) donc de la forme 𝑒𝑛′′ = 𝜆𝑒𝑛 + ∑ 𝜆𝑖 𝑒𝑖′′ . La
𝑖=1
famille cherchée devant être orthogonale, on doit avoir pour tout 𝑙 ∈ {1, … , 𝑛 − 1} < 𝑒𝑛′′ , 𝑒𝑙′′ >= 0.
44
La famille {𝑒1′′ , … , 𝑒𝑝−1
′′
} étant orthogonale pour tout 𝑙 ∈ {1, … , 𝑝 − 1} on a :
𝑛−1
2
0 = ⟨𝑒𝑛′′ |𝑒𝑙′′ ⟩ = 𝜆⟨𝑒𝑛 |𝑒𝑙′′ ⟩ + ∑ 𝜆𝑖 ⟨𝑒𝑖′′ |𝑒𝑙′′ ⟩ = 𝜆⟨𝑒𝑛 |𝑒𝑙′ ⟩ + 𝜆𝑙 ‖‖𝑒𝑙′′ ‖‖ .
𝑖=1
⟨𝑒3 |𝑒 ′′ ⟩ 1 ⟨𝑒3 |𝑒 ′′ ⟩ 1 1
2
𝛼1 = − ′′ 12 = − et 𝛼2 = − ′′ 22 = − . D’où 𝑒3′′ = − 12 . Alors la famille (𝑒1′′ , 𝑒2′′ , 𝑒3′′ ) est orthogonale
‖𝑒1 ‖ 3 ‖𝑒2 ‖ 2 ( 0 )
et en divisant par les normes la famille (𝑒1′ , 𝑒2′ , 𝑒3′ ) est une base orthonormée de ℝ3 :
√1 √1 1
𝑒 ′′ 3 𝑒 ′′ 6 𝑒3′′ √
2
𝑒1′ = 1′′ = √13 , 𝑒2′ = 2′′ = √1
6 , 𝑒3
′
= = − √12 .
||𝑒1 || ( √1 ) ||𝑒2 || ( − √2 ) ||𝑒3 || ( 0 )
′′
3 6
Le procédé de Gram-Schmidt permet en particulier de donner un équivalent pour les familles ortho-
normées du théorème de la base incomplète des espaces vectoriels :
Corollaire 10.1. Soit 𝐸 un espace euclidien de dimension 𝑛. Si {𝑒1 , … , 𝑒𝑝 } est une famille orthonor-
mée de vecteur de 𝐸, alors il existe des vecteurs 𝑒𝑝+1 , … , 𝑒𝑛 tels que la famille (𝑒1 , … , 𝑒𝑛 ) est une base
orthonormée de 𝐸. En particulier 𝐸 possède des bases orthonormées.
45
Définition 10.4. Soit 𝐹 un s-e-v d’un espace euclidien 𝐸.
1. La projection orthogonale de 𝐸 sur 𝐹 est la projection vectorielle de 𝐸 sur 𝐹 parallèlement à 𝐹 ⟂ .
On la note 𝑝𝐹 .
2. La symétrie orthogonale par rapport à 𝐹 est la symétrie vectorielle de 𝐸 par rapport à 𝐹 paral-
lèlement à 𝐹 ⟂ . On la note 𝑠𝐹 .
′ ′ −1 ′ ′ ′ ′ ′
Donc 𝑃 = (⟨𝑒𝑗′ |𝑒𝑖 ⟩) et (𝑃 ) = 𝑃′ = (⟨𝑒𝑗 |𝑒𝑖′ ⟩) = 𝑡𝑃 . En particulier on a 𝑃 𝑡𝑃 = 𝑡𝑃 𝑃 = 𝐼𝑛 .
Définition 10.5.
On appelle matrice orthogonale de 𝑀𝑛 (ℝ) toute matrice 𝑀 ∈ 𝑀𝑛 (ℝ) vérifiant 𝑀 𝑡𝑀 = 𝐼𝑛 .
Définition 10.6. Le groupe orthogonal, noté 𝑂(𝑛), est l’ensemble des matrices orthogonales de 𝑀𝑛 (ℝ).
Le groupe spécial orthogonal, noté 𝑆𝑂(𝑛), est des matrices orthogonales de 𝑀𝑛 (ℝ) de déterminant valant
1.
On a vu que la matrice de passage entre deux bases orthonormées est orthogonale. La réciproque est
encore vraie :
Proposition 10.9. Une matrice est orthogonale si et seulement si l’une des deux conditions équivalentes
suivantes est vérifiée
1. ses vecteurs lignes forment une famille orthonormale de l’espace euclidien ℝ𝑛 ;
2. ses vecteurs colonnes forment une famille orthonormale de l’espace euclidien ℝ𝑛 .
Corollaire 10.2. Soit 𝐸 un espace vectoriel euclidien et une base orthonormée de 𝐸. Une base ′ de
𝐸 est orthonormée si et seulement si la matrice de passage de à ′ est orthogonale.
46
11 Similitudes et isométries vectorielles
Un espace vectoriel euclidien permet d’avoir des notions de longueur (norme), d’orthogonalité. Pour
un espace vectoriel euclidien 𝐸 on étudie les applications 𝑓 ∶ 𝐸 → 𝐸 laissant invariants ces notions, que
l’on appellera isométrie, c-à-d conservant
1. le produit scalaire : ∀𝑥, 𝑦 ∈ 𝐸 ⟨𝑥|𝑦⟩ = ⟨𝑓 (𝑥)|𝑓 (𝑦)⟩ ;
2. la norme : ∀𝑥 ∈ 𝐸 ‖𝑥‖ = ‖𝑓 (𝑥)‖ ;
3. l’orthogonalité : ∀𝑥, 𝑦 ∈ 𝐸 𝑥 ⟂ 𝑦 ⇒ 𝑓 (𝑥) ⟂ 𝑓 (𝑦).
Lemme 11.1. Soient 𝐸 un espace vectoriel euclidien, 𝜓 ∈ End() et 𝜆 ∈ ℝ∗+ . Les conditions suivantes sont
équivalentes :
1. 𝜓 multiplie le produit scalaire par 𝜆2 ;
2. 𝜓 multiplie la norme par 𝜆.
On définit alors
Définition 11.1. Soit 𝐸 un espace vectoriel euclidien.
1. Une similitude de 𝐸 de rapport 𝜆 ∈ ℝ∗+ est une application ensembliste 𝜓 ∶ 𝐸 → 𝐸 telle que
L’ensemble des similitudes de 𝐸 est noté GO(𝐸). L’ensemble des isométries de 𝐸 est noté 𝑂(𝐸).
Cette définition n’impose pas qu’une similitude soit une application linéaire car cette propriété est
automatiquement vérifiée :
Proposition 11.1. Soit 𝐸 un espace vectoriel euclidien. Une application 𝜓 ∶ 𝐸 → 𝐸 est une similitude
de rapport 𝜆 si et seulement si elle est linéaire et pour tout 𝑥 ∈ 𝐸 on a ‖𝜓 (𝑥)‖ = 𝜆 ‖𝑥‖.
En particulier on a
Corollaire 11.1. Soit 𝐸 un espace vectoriel euclidien. Une application 𝜓 ∶ 𝐸 → 𝐸 est une isométrie si
et seulement si elle est linéaire et elle conserve la norme c-à-d pour tout 𝑥 ∈ 𝐸 on a ‖𝜓 (𝑥)‖ = ‖𝑥‖.
Corollaire 11.2. Soit 𝐸 un espace vectoriel euclidien. Toute similitude de 𝐸 est un automorphisme
linéaire.
Preuve : Soit 𝜓 un similitude de 𝐸 de rapport 𝜆 ∈ ℝ∗+ . On a déjà vu que 𝜓 est linéaire de plus pour tout
𝑥 ∈ 𝐸 on a
47
Exemple :
1. Une homothétie vectorielle ℎ𝜆 ∶ 𝐸 → 𝐸 est une similitude de rapport |𝜆|.
2. Une homothétie vectrielle ℎ𝜆 ∶ 𝐸 → 𝐸 est une isométrie si et seulement si 𝜆2 = 1.
3. Si dim(𝐸) = 1 alors GO(𝐸) = {𝜆 Id𝐸 , 𝜆 ∈ ℝ∗ } et 𝑂(𝐸) = {− Id, Id}.
4. Les projections orthogonales sur un s-e-v 𝐹 différent de 𝐸 ne conservent pas la norme donc pas le
produit scalaire.
5. Les symétries orthogonales sont des isométries.
6. Soit 𝐹 un s-e-v différent de 𝐸 et de {0𝐸 } et 𝐻 un supplémentaire non orthogonale de 𝐹 . La symétrie
par rapport à 𝐹 et parallèlement à 𝐻 n’est pas une similitude et donc pas une isométrie.
Remarque : Une similitude multiplie la norme par un coefficient non nul. Mais l’inverse est faux. Une
application qui multiplie la norme par un coefficient non nul n’est pas forcément linéaire donc pas une
similitude. Par exemple pour 𝑒 ∈ 𝐸 de norme non nul l’application 𝜓 ∶ 𝐸 → 𝐸 multiplie la
𝑥 ↦ ‖𝑥‖ 𝑒
norme par ‖𝑒‖ et n’est pas linéaire (pour tout 𝑥 ∈ 𝐸 non nul 𝜓 (−𝑥) = ‖𝑥‖ 𝑒 ≠ − ‖𝑥‖ 𝑒 = −𝜓 (𝑥)).
On peut donner une autre caractérisation des similitudes :
Théorème 11.1. Soit 𝐸 un espace vectoriel euclidien. Alors toute similitude 𝜓 de rapport 𝜆 multiplie
la distance par 𝜆, c-à-d pour tout 𝑥, 𝑦 ∈ 𝐸 on a ‖𝜓 (𝑥) − 𝜓 (𝑦)‖ = 𝜆 ‖𝑥 − 𝑦‖.
Inversement si 𝜓 ∶ 𝐸 → 𝐸 est une application multipliant la distance par 𝜆 ∈ ℝ∗+ et conservant
l’origine 0𝐸 alors 𝜓 est une similitude de rapport 𝜆.
En particulier
Corollaire 11.3. Soient 𝐸 un espace vectoriel euclidien et 𝜓 ∶ 𝐸 → 𝐸 est une application. Alors 𝜓 est
une isométrie si et seulement si 𝜓 conserve les distances et l’origine, c-à-d
48
11.3 Matrice d’une isométrie dans une base orthonormée
Théorème 11.3. Soient 𝐸 un espace vectoriel euclidien de dimension 𝑛 et 𝜓 un endomorphisme de 𝐸.
Les assertions suivantes sont équivalentes :
1. 𝜓 est une isométrie ;
2. Pour tout base orthonormée = (𝑒1 , … , 𝑒𝑛 ) de 𝐸 la famille 𝜓 () = (𝜓 (𝑒1 ), … , 𝜓 (𝑒𝑛 )) est une
base orthonormée de 𝐸 ;
3. Il existe une base orthonormée = (𝑒1 , … , 𝑒𝑛 ) de 𝐸 telle que la famille 𝜓 () = (𝜓 (𝑒1 ), … , 𝜓 (𝑒𝑛 ))
est une base orthonormée de 𝐸.
Preuve : Si 𝜓 est une isométrie, alors c’est un automorphisme de 𝐸. Donc pour toute base orthonormée
de 𝐸 𝜓 () est une base 𝐸. Comme 𝜓 préserve l’orthogonalité et la norme la base 𝜓 () est également
orthonormée. Donc 1. implique 2.. Il est évident que 2. implique 3..
Supposons que 3. est vrai. On peut donc considérer une base orthonormée = (𝑒1 , … , 𝑒𝑛 ) de 𝐸 telle que
𝑥1
la famille 𝜓 () = (𝜓 (𝑒1 ), … , 𝜓 (𝑒𝑛 )) est une base orthonormée de 𝐸. Alors pour tout 𝑥 ∈ 𝐸 avec 𝑥 = ( 𝑥⋮ )
𝑛
on a
‖𝜓 (𝑥)‖2 = ‖𝜓 (𝑥1 𝑒1 + ⋯ + 𝑥𝑛 𝑒𝑛 )‖2 = ‖𝑥1 𝜓 (𝑒1 ) + ⋯ + 𝑥𝑛 𝜓 (𝑒𝑛 )‖2 = 𝑥12 + ⋯ + 𝑥𝑛2 = ‖𝑥‖2 .
Donc 3. implique 1.. ■
Corollaire 11.4. Soit 𝐸 un espace vectoriel euclidien de dimension 𝑛.
1. Soit 𝜓 un endomorphisme de 𝐸. L’application 𝜓 est une isométrie si et seulement si sa matrice
dans une base orthonormée de 𝐸 est orthogonale.
2. Si 𝜓 est une isométrie de 𝐸 alors det(𝜓 ) = ±1.
Preuve :
1. D’après le théorème précédent 𝜓 est une isométrie si et seulement si pour toute base orthonormée
= (𝑒1 , … , 𝑒𝑛 ) de 𝐸 la famille 𝜓 () = (𝜓 (𝑒1 ), … , 𝜓 (𝑒𝑛 )) est une base orthonormée de 𝐸. Donc d’après
le corollaire 10.2 𝜓 est une isométrie si et seulement si pour tout base orthonormée de 𝐸 la
matrice de passage de à 𝜓 () est orthogonale. La matrice de passage de à 𝜓 () étant 𝑀 (𝜓 )
on en déduit le résultat.
2. Soient 𝜓 une isométrie et une base orthonormée de 𝐸. D’après le point 1. 𝑀 (𝜓 ) est orthogonale
et donc d’après 10.8 on a det(𝜓 ) = det(𝑀 (𝜓 )) = ±1. ■
En particulier la preuve du point 1. montre le résultat suivant :
Proposition 11.2. Soient 𝐸 un espace vectoriel euclidien de dimension 𝑛 et une base orthonormée
de 𝐸.
Soit ′ une base de 𝐸, 𝑃 la matrice de passage de à ′ , et 𝜓 l’endomorphisme de 𝐸 de matrice 𝑃
dans la base . Les assertions suivantes sont équivalentes :
1. 𝜓 est une isométrie ;
2. 𝑃 ∈ 𝑂(𝑛) ;
3. ′ est une base orthonormée de 𝐸.
Théorème 11.4. Soit 𝐸 un espace vectoriel euclidien. L’ensemble GO(𝐸) est un sous-groupe de GL(𝐸)
et 𝑂(𝐸) est un sous-groupe, appelé groupe orthogonal de 𝐸, de GO(𝐸) donc de GL(𝐸).
49
Preuve : D’après le corollaire 11.2 on a GO(𝐸) ⊂ GL(𝐸). De plus GO(𝐸) est non vide car Id𝐸 ∈ GO(𝐸).
De plus si 𝜓1 , 𝜓2 ∈ GO(𝐸) de rapport respectif 𝜆1 , 𝜆1 alors 𝜓1 , 𝜓2 ∈ GL(𝐸) donc 𝜓1 ◦𝜓2 , 𝜓1−1 ∈ GL(𝐸). De
plus pour tout 𝑥 ∈ 𝐸 on a
‖𝜓1 ◦𝜓2 (𝑥)‖ = 𝜆1 ‖𝜓2 (𝑥)‖ = 𝜆1 𝜆2 ‖𝑥‖ , ‖𝜓1−1 (𝑥)‖ = 𝜆1−1 ‖𝜓1 (𝜓1−1 (𝑥))‖ = 𝜆1−1 ‖𝑥‖ .
‖ ‖ ‖ ‖
Donc 𝜓1 ◦𝜓2 est une similitude de rapport 𝜆1 𝜆2 et 𝜓1−1 est une similitude de rapport 𝜆1−1 .
La même preuve restreinte aux isométries, c-à-d aux similitudes de rapport 1, montre que 𝑂(𝐸) est un
sous-groupe de GL(𝐸) inclu dans GO(𝐸), donc un sous-groupe de GL(𝐸). ■
Lorsque on fixe une base orthonormée de 𝐸 le groupe de 𝑂(𝐸) est isomorphe à celui des matrices
orthogonale.
Corollaire 11.5. Pour toute base orthonormée de 𝐸, l’application Φ ∶ 𝑂(𝐸) → 𝑂(𝑛) est un
𝜓 ↦ 𝑀 (𝜓 )
isomorphisme de groupes.
Preuve : Soit une base orthonormée de 𝐸. Il est clair que Φ est un morphisme de groupes injectif.
Si 𝑀 ∈ 𝑂(𝑛) alors d’après le corollaire 11.4 l’endomorphisme 𝜓 ayant pour matrice 𝑀 dans la base est
une isométrie. Donc Φ est surjective. ■
La structure de groupe de GO(𝐸) peut se déduire de celle de 𝑂(𝐸) :
Théorème 11.5. Soit 𝐸 un espace vectoriel euclidien. Toute similitude de GO(𝐸) peut s’écrire de ma-
nière unique comme composée commutative d’une isométrie et d’une homothétie de rapport strictement
positif. Cette décomposition fournit un isomorphisme de groupes entre 𝑂(𝐸) × ℝ∗+ et GO(𝐸).
En particulier le groupe GO(𝐸) est engendré par les isométries et les homothétie de rapport strictement
positif.
50
2. la composé de deux similitudes (respectivement isométries) indirectes est une similitude (respec-
tivement isométrie) indirectes ;
3. la composé d’une similitude directe et d’une indirecte (respectivement isométries) est une simili-
tude (respectivement isométrie) indirecte.
Preuve :
1. L’ensemble ℝ∗+ est un sous-groupe de ℝ∗ et le déterminant det ∶ GO(𝐸) → ℝ∗ est un morphisme
de groupes. Donc GO+ (𝐸) = det−1 (ℝ∗+ ) est un sous-groupe de GO(𝐸). De plus pour tout 𝜓1 ∈ GO(𝐸)
et 𝜓 ∈ GO+ (𝐸) on a det(𝜓1 ◦𝜓 ◦𝜓1−1 ) = det(𝜓 ) > 0. Donc c’est un sous-groupe distingué.
2. On restreint l’application déterminant du point précédent à 𝑂(𝐸) alors det ∶ 𝑂(𝐸) → {−1, 1} est un
morphisme de groupes surjectif. On a 𝑆𝑂(𝐸) = ker(det) donc SO(𝐸) est un sous-groupe distingué
de 𝑂(𝐸) et d’après le premier théorème d’isomorphisme les groupes 𝑂(𝐸)/SO(𝐸) et {−1, 1} sont
isomorphes. Donc SO(𝐸) est d’indice 2. ■
On peut spécialiser les résultats décrivant les groupes GO(𝐸) et 𝑂(𝐸) au cas des isométries directes
Théorème 11.6. Soit 𝐸 un espace vectoriel euclidien de dimension 𝑛.
1. Soit 𝜓 un endomorphisme de 𝐸. L’application 𝜓 est une isométrie directe si et seulement si sa
matrice dans une base orthonormée de 𝐸 est orthogonale de déterminant valant 1.
2. Pour toute base orthonormée de 𝐸, l’application Φ ∶ SO(𝐸) → 𝑆𝑂(𝑛) est un isomor-
𝜓 ↦ 𝑀 (𝜓 )
phisme de groupes.
3. Toute similitude directe de GO+ (𝐸) peut s’écrire de manière unique comme composée commu-
tative d’une isométrie directe et d’une homothétie de rapport strictement positif. Cette décom-
position fournit un isomorphisme de groupes entre 𝑆𝑂(𝐸) × ℝ∗+ et GO+ (𝐸).
4. Le groupe GO+ (𝐸) est engendré par les isométries directes et les homothétie de rapport stricte-
ment positif.
Soit (, 𝐸) est un espace affine réel de dimension finie. On a vu dans la proposition 10.1 que pour tout
choix d’une base de 𝐸 on peut munir 𝐸 d’une structure euclidienne. Par conséquent
Proposition 12.1. Soit un espace affine réel de dimension finie. On peut toujours munir d’une
structure euclidienne.
Remarque : Le produit scalaire construit dépend du choix d’une base de 𝐸. La structure n’est donc pas
canonique.
51
La structure euclidienne d’un espace affine permet d’introduire la notion de distance :
Définition 12.2. Soit un espace affine euclidien. La distance sur définie pour tout 𝐴, 𝐵 ∈ par
𝑑(𝐴, 𝐵) = ‖𝐴𝐵
⃖⃖⃖⃗‖ est appelé distance sur associée à la norme euclidienne ou plus simplement distance
euclidienne. On la notera également par 𝐴𝐵 = 𝑑(𝐴, 𝐵).
Preuve : Les points 1., 2., 3. découlent immédiatement des propriétés de la norme de la proposition
10.2. Le dernier point est une conséquence de la relation de Chasles des vecteurs et de l’identité triangu-
laire de la norme. ■
Exemple : Pour un espace vectoriel euclidien 𝐸 muni de sa structure d’espace affine canonique pour
⃖⃗ 𝑣⃖⃗ ∈ 𝐸 on a 𝑑(⃖𝑢,
tout 𝑢, ⃖⃗ = ‖𝑣⃖⃗ − 𝑢⃖⃗‖.
⃗ 𝑣)
La notion de distance permet par exemple de définir celles de triangle équilatéral, isocèle ainsi que
de rectangles, losange, et carrée :
Définition 12.3. Soit un espace affine euclidien.
1. Un triangle 𝐴𝐵𝐶 de est dit
(a) isocèle en 𝐴 si 𝐴𝐵 = 𝐴𝐶 ;
(b) équilatéral si 𝐴𝐵 = 𝐴𝐶 = 𝐵𝐶.
2. un parallélogramme 𝐴𝐵𝐶𝐷 est dit
(a) rectangle si les diagonales ont la même longueur, c-à-d 𝐴𝐶 = 𝐵𝐷 ;
(b) losange si les côtés consécutifs [𝐴𝐵] et [𝐵𝐶] ont la même longueur, c-à-d 𝐴𝐵 = 𝐵𝐶 ;
(c) carrée si il est à la fois rectangle et losange.
52
Définition 12.4. Soit (, 𝐸) un espace affine euclidien. Un repère cartésien (𝑂, ) est dit orthogonal,
respectivement orthonormé, si est une base orthogonal, respectivement orthonormée de 𝐸. On dira
que (𝑂, ) est un repère orthonormé de .
D’après le corollaire 10.1 un espace vectoriel euclidien possède toujours un repère orthonormé, on
en déduit que
Théorème 12.1. Tout espace affine euclidien admet un repère orthonormée.
⃖⃖⃖⃖⃖⃗ = 𝑀𝑂
Preuve : Pour = (⃗𝑒1 , … , 𝑒⃗𝑛 ) on a 𝑀𝑁 ⃖⃖⃖⃖⃗ + 𝑂𝑁
⃖⃖⃖⃖⃗ = ∑𝑛𝑖=1 (𝑦𝑖 − 𝑥𝑖 )⃗𝑒𝑖 . Donc d’après la proposition 10.6
on a le résultat. ■
La notion de distance permet de définir celle de sphère :
Définition 12.5. Soient un espace affine euclidien, et 𝐴 ∈ , 𝑟 ∈ ℝ+ . La sphère de centre 𝐴 et de
rayon 𝑟, notée 𝐴,𝑟 est l’ensemble des points à une distance 𝑟 de 𝐴 c-à-d 𝐴,𝑟 = {𝑀 ∈ ; 𝐴𝑀 = 𝑟}.
Dans un espace affine de dimension 2 on parle de cercle plutôt que de sphère.
𝑛
𝑀 ∈ 𝐴,𝑅 ⇔ ∑(𝑥𝑖 − 𝑎𝑖 )2 = 𝑟 2 .
𝑖=1
𝑛
(a) si ∑ 𝑎𝑖2 − 𝑏 < 0 alors = ∅ ;
𝑖=1
√
𝑛 𝑎1 𝑛
(b) si ∑ 𝑎𝑖2 − 𝑏 ⩾ 0 alors = 𝐴,𝑟 avec 𝐴 ∈ de coordonnées dans ( 𝑎⋮𝑛 ) et 𝑟 = ∑ 𝑎𝑖2 − 𝑏.
𝑖=1 𝑖=1
53
12.3 Orthogonalité des sous-espaces
Définition 12.6. Soient (1 , 𝐹1 ) et (2 , 𝐹2 ) des s-e-a d’un espace euclidien (, 𝐸).
1. On dit que 1 et 2 sont orthogonaux si 𝐹1 et 𝐹2 le sont. On note alors 1 ⟂ 2 ou de façon
équivalente 2 ⟂ 1 .
2. On dit que 1 et 2 sont supplémentaires orthogonaux si 𝐹1 et 𝐹2 le sont.
En particulier
1. 1 et 2 sont orthogonaux si et seulement si 𝐹1 ⊂ 𝐹2⟂ ou encore si et seulement si 𝐹2 ⊂ 𝐹1⟂ .
2. 1 et 2 sont supplémentaires orthogonaux si et seulement si 𝐹1 = 𝐹2⟂ ou encore si et seulement si
𝐹2 = 𝐹1⟂ .
3. Si 1 et 2 sont orthogonaux alors 𝐹1 ∩ 𝐹2 = {0⃖⃖⃗𝐸 }.
4. Si 1 et 2 sont des s-e-a orthogonaux alors pour tout s-e-a parallèle à 1 on a ⟂ 2 .
La notion d’orthogonalité permet de définir celles de triangle rectangle et donner des nouvelles caracté-
risations des rectangles, losanges et carrées :
Définition 12.7. Soit un espace euclidien. Un triangle 𝐴𝐵𝐶 est dit rectangle en 𝐴 si (𝐴𝐵) ⟂ (𝐴𝐶).
Preuve :
1. On a déjà vu que dans ce cas 𝐹1 ∩ 𝐹2 = {0⃖⃖⃗𝐸 }. Donc soit 1 ∩ 2 = ∅, soit 1 ∩ 2 est un s-e-a de
direction 𝐹1 ∩ 𝐹2 = {0⃖⃖⃗𝐸 } donc un singleton.
2. C’est une conséquence de la supplémentarité (voir la proposition 3.7). ■
Exemple :
1. Dans un plan affine euclidien deux droites orthogonales sont toujours sécantes en 1 point car
elles sont supplémentaires. En particulier dans un espace affine de dimension 2 deux hyperplans
peuvent être orthogonaux.
54
On a vu que dans le cas vectoriel tout s-e-v 𝐹 admet un unique supplémentaire orthogonal. C’est vraie
dans le cas affine lorsque on impose un point particulier du s-e-a :
Proposition 12.7. Soit ( , 𝐹 ) un s-e-a d’un espace euclidien (, 𝐸). Pour tout 𝐴 ∈ il existe un unique
supplémentaire orthogonal à passant par 𝐴. C’est le s-e-a passant par 𝐴 et dirigé par 𝐹 ⟂ .
Preuve : Soit 1 le s-e-a passant par 𝐴 et dirigé par 𝐹 ⟂ . Comme 𝐹 ⊕ 𝐹 ⟂ = 𝐸 les s-e-a et 1 sont
supplémentaire orthogonaux. L’unicité découle de l’unicité d’un s-e-a passant par un point et de direction
fixée. ■
En particulier
1. un s-e-a (non réduit à un point) admet une infinité de supplémentaire orthogonaux ;
2. dans un espace affine euclidien de dimension 3 il existe
Exemple : Hauteurs d’un triangle : Dans un triangle 𝐴𝐵𝐶 (𝐴,𝐵,𝐶 non confondus) d’un plan affine la
hauteur issue de 𝐴 est la droite affine passant par 𝐴 et orthogonal à (𝐵𝐶). On définit de même les hauteurs
issues de 𝐵 et de 𝐶.
𝐴
Hyperplan médiateur
En appliquant la proposition 12.7 à une droite (𝐴𝐵) et au milieu 𝐼 de [𝐴𝐵] on obtient l’existence d’un
unique hyperplan orthogonal à (𝐴𝐵) et passant par 𝐼 .
𝐵
Définition 12.8. Soient 𝐴, 𝐵 des points distincts d’un espace affine euclidien
et 𝐼 le milieu de [𝐴𝐵]. L’unique hyperplan orthogonal à (𝐴𝐵) passant par
𝐼 est appelé hyperplan médiateur de [𝐴𝐵]. Si est dimension 2 on parlera 𝐼
plutôt de médiatrice de [𝐴𝐵].
𝐴
55
Proposition 12.9. Soient 𝐴, 𝐵 des points distincts d’un espace affine euclidien , 𝐼 le milieu de [𝐴𝐵]
et (, 𝐻 ) l’hyperplan médiateur de [𝐴𝐵]. Alors
{ }
⃖⃖⃖⃗ ⃖⃖⃖⃗
= 𝑀 ∈ , 𝐼 𝑀 ⟂ 𝐴𝐵 = {𝑀 ∈ , 𝑀𝐴 = 𝑀𝐵} .
Définition 12.9. Soit (, 𝐻 ) un hyperplan d’un espace affine euclidien (, 𝐸). Un vecteur normal 𝑛⃖⃗ ∈ 𝐸
à est un vecteur non nul de 𝐻 ⟂ .
Proposition 12.11. Soit = (𝑂, ) un repère orthonormée d’un espace affine euclidien (, 𝐸) de
𝑎1
dimension 𝑛. Soient (, 𝐻 ) un hyperplan de et 𝑛⃖⃗ ∈ 𝐸 un vecteur non nul avec 𝑛⃖⃗ = ( 𝑎⋮ ).
𝑛
Le vecteur 𝑛⃖⃗ est normal à si et seulement si il existe 𝑏 ∈ ℝ tel que soit d’équation cartésienne
𝑛
∑ 𝑎𝑖 𝑥𝑖 + 𝑏 = 0 dans .
𝑖=1
56
12.4 Perpendicularité des sous-espaces
Proposition 12.12. Soient (1 , 𝐹1 ) et (2 , 𝐹2 ) des s-e-a d’un espace affine euclidien (, 𝐸). Les propriétés
suivantes sont équivalentes :
Preuve : D’après 10.7 on a 1. implique 2.. De plus 𝐹1⟂ ⟂ 𝐹2⟂ ⇔ 𝐹 1⟂ ⊂ (𝐹2⟂ )⟂ ⇔ 𝐹1⟂ ⊂ 𝐹2 . ■
Définition 12.10. Soient (1 , 𝐹1 ) et (2 , 𝐹2 ) des s-e-a d’un espace affine euclidien (, 𝐸). On dit que 1
et 2 sont perpendiculaires si l’une des conditions équivalentes est vérifiées :
Proposition 12.13. Soient (1 , 𝐹1 ) et (2 , 𝐹2 ) des s-e-a d’un espace affine euclidien (, 𝐸).
1. Si 1 et 2 sont perpendiculaires alors 1 ∩ 2 ≠ ∅.
2. Si 1 et 2 sont des hyperplans perpendiculaires alors dim(1 ∩ 2 ) = dim() − 2.
Par exemple pour (1 , 𝑃1) et (2 , 𝑃2 ) des plans d’un espace affine euclidien de dimension 3. Si 1 et
2 sont perpendiculaire alors 1 ∩ 2 est une droite.
Dans certains cas on peut caractériser la perpendicularité :
Proposition 12.14. Soient (1 , 𝐻1 ), (2 , 𝐻2 ) des hyperplans et (, 𝐷) une droite d’un espace affine
euclidien.
1.
1 ⟂ ⇔ 1 et perpendiculaire ⇔ 1 et supplémentaire orthogonaux.
2. L’hyperplan 1 est perpendiculaire à 2 si et seulement si il contient une droite (1 , 𝐷1 ) or-
thogonale à 2 .
Exemple :
1. Pour (1 , 𝐷1) et (2 , 𝐷2 ) des droites d’un plan affine euclidien on a
2. Pour (1 , 𝐷1) une droite et (2 , 𝑃2 ) un plan d’un espace affine euclidien de dimension 3 on a
3. Pour (1 , 𝑃1) et (2 , 𝑃2 ) des plans d’un espace affine euclidien de dimension 3 le plan 1 est per-
pendiculaire à 2 si et seulement si il contient une droite orthognale à 2 .
57
12.5 Projection et symétrie orthogonale affine
Remarque :
1. Toute symétrie orthogonale 𝑠 est une involution (𝑠◦𝑠 = Id) et un élément de GA(). Donc elle
transforme les s-e-a en s-e-a de même dimension (points en points, droites en droites, segment en
segment, plan en plan...). Comme c’est une involution on dira qu’elle les échange.
2. La partie linéaire de la projection orthogonale affine sur ( , 𝐹 ) est la projection orthogonale vec-
toriel sur 𝐹 .
3. La partie linéaire de la symétrie orthogonale affine d’axe ( , 𝐹 ) est la symétrie orthogonale vecto-
riel par rapport à 𝐹 .
4. Une symétrie orthogonale d’axe un s-e-a = {𝐴} de dimension 0 est la symétrie affine par rapport
à {𝐴} parallèlement à 𝐸 c-à-d la symétrie centrale de centre 𝐴.
5. Notons 𝑑 = dim( ), et 𝑛 = dim(). Si est une base orthonormée de 𝐸 provenant de la décom-
𝐼 0
position 𝐸 = 𝐹 ⊕ 𝐹 ⟂ alors la matrice de 𝑝𝐹 dans est 𝑑 et la matrice de 𝑠𝐹 dans est
( 0 0)
𝐼𝑑 0
avec 𝐼𝑙 la matrice identité d’ordre 𝑙.
( 0 −𝐼𝑛−𝑑 )
Dans le cas de projection orthogonale sur une droite ou un hyperplan on peut donner une description
utilisant le produit scalaire :
Proposition 12.15. Soient (, 𝐸) un espace affine euclidien, (, 𝐷) une droite affine, et (, 𝐻 ) un
hyperplan affine.
⃖⃖⃖⃖⃗ 𝑢⟩
⟨𝐴𝑀|⃖ ⃗
1. Soit 𝐴 ∈ et 𝑢⃖⃗ ∈ 𝐷 non nul. Pour tout 𝑀 ∈ on a 𝑝 (𝑀) = 𝐴 + ⃖⃗
2 𝑢.
‖𝑢⃖⃗‖
⃖⃖⃖⃖⃗ 𝑛⟩
⟨𝑀𝐴|⃖ ⃗
2. Soient 𝐴 ∈ et 𝑛⃖⃗ ∈ 𝐸 un vecteur normal à . Pour tout 𝑀 ∈ on a 𝑝 (𝑀) = 𝑀 + ⃖⃗
2 𝑛.
‖𝑛⃖⃗‖
Preuve :
1. Le s-e-a est de dimension 1 et 𝑢⃖⃗ est un vecteur non nul de 𝐸 donc 𝐷 = Vect(⃖𝑢). ⃗
2
⃖⃗ ∈ 𝐸 de décomposition 𝑤
Soit 𝑤 ⟂
⃖⃗ = 𝜆⃖𝑢⃗ + 𝑣⃖⃗ dans 𝐷 ⊕ 𝐷 . On a ⟨𝑤|⃖
⃖⃗ 𝑢⟩ ‖ ‖
⃗ = 𝜆 𝑢⃖⃗ . Par conséquent
⃖⃗ 𝑢⟩
⟨𝑤|⃖ ⃗ ⃖⃗ 𝑢⟩
⟨𝑤|⃖ ⃗
⃖⃗ =
𝑤 ⃖⃗ + 𝑣⃖⃗ et donc 𝑝⃖⃖⃗
2 𝑢 ⃖⃗ =
(𝑤) ⃖⃗ D’où pour 𝐴 ∈ on a
𝑢.
‖𝑢⃖⃗‖ ‖𝑢⃖⃗‖2
⃖⃖⃖⃖⃗ 𝑢⟩
⟨𝐴𝑀|⃖ ⃗
∀𝑀 ∈ , 𝑝 (𝑀) = 𝑝 (𝐴) + 𝑃⃖⃖⃖⃗(𝐴𝑀)
⃖⃖⃖⃖⃗ = 𝐴 + ⃖⃗
𝑢.
‖𝑢⃖⃗‖2
58
D’où pour 𝐴 ∈ on a pour tout 𝑀 ∈ :
⃖⃖⃖⃖⃗ 𝑛⟩
⟨𝐴𝑀|⃖ ⃗ ⃖⃖⃖⃖⃗ 𝑛⟩
⟨𝑀𝐴|⃖ ⃗
⃖⃖⃖⃖⃗ = 𝐴 + 𝐴𝑀
𝑝 (𝑀) = 𝑝 (𝐴) + 𝑝⃖⃖⃖⃗(𝐴𝑀) ⃖⃖⃖⃖⃗ − 𝑝⃖⃖⃖⃖
𝐻⃗
⃖⃖⃖⃖⃗ = 𝐴 + 𝐴𝑀
⟂ (𝐴𝑀) ⃖⃖⃖⃖⃗ − 𝑛⃖⃗ = 𝑀 + ⃖⃗
𝑛.
2
‖𝑛⃖⃗‖ ‖𝑛⃖⃗‖2
■
Proposition 12.16. Soient 𝐴, 𝐵 des points distincts d’un espace affine euclidien (, 𝐸). Il existe une
unique réflexion échangeant 𝐴 et 𝐵 : celle d’axe l’hyperplan médiateur de [𝐴𝐵].
′
𝐴 𝑢⃖⃗ 𝐴′
Définition 12.12. Soit un s-e-a d’ un espace affine euclidien . Pour tout 𝐴 ∈ on appelle distance
de 𝐴 à le réel 𝑑(𝐴, ) = inf 𝑀∈ (𝐴𝑀).
59
𝐴
Théorème 12.3. Soit ( , 𝐹 ) un s-e-a d’ un espace affine euclidien . Pour
𝑝 (𝐴)
tout 𝐴 ∈ la distance 𝑑(𝐴, ) est atteinte en un unique point de qui est
le projeté orthogonal de 𝐴 sur .
En d’autre terme le projeté orthogonal de 𝐴 sur est le point le plus proche de et cette propriété le
caractérise.
Preuve : Soit 𝐴′ = 𝑝 (𝐴). Alors 𝐴′ ∈ et 𝐴𝐴 ⃖⃖⃖⃖⃗′ ∈ 𝐹 ⟂ . Donc pour tout 𝑀 ∈ on a 𝐴
⃖⃖⃖⃖⃖⃗
′
𝑀 ∈ 𝐹 et par
⃖⃖⃖⃖⃗ ⃖⃖⃖⃖⃖⃗
conséquent 𝐴𝐴 ⟂ 𝐴 𝑀. Ainsi d’après l’égalité de Pythagore on a 𝐴𝑀 = 𝐴𝐴 + 𝐴 𝑀 ⩾ 𝐴𝐴′2 et
′ ′ 2 ′2 ′ 2
𝐴𝑀 = 𝐴𝐴′ ⇔ 𝐴′ 𝑀 = 0 ⇔ 𝑀 = 𝐴′ . ■
Dans le cas de la distance à un hyperplan on peut donner des formules explicites pour le calcul :
Proposition 12.18. Soit (, 𝐻 ) un hyperplan d’un espace affine euclidien (, 𝐸).
1. Soient 𝐴 ∈ de projeté orthogonal 𝐴′ sur et 𝑛⃖⃗ ∈ 𝐸 un vecteur normal à .
| ⃖⃖⃖⃖⃗′ |
|⟨𝐴𝐴 |⃖𝑛⟩ ⃗ |
On a 𝑑(𝐴, ) = | |.
‖𝑛⃖⃗‖
𝑎1
2. Soient = (𝑂, ) un repère orthonormée de , 𝐴 ∈ de coordonnées ( 𝑎⋮ ) dans et
𝑛
𝑏1 𝑥1 + ⋯ + 𝑏𝑛 𝑥𝑛 + 𝑏 = 0 une équation cartésienne de dans . Alors
|𝑏1 𝑎1 + ⋯ + 𝑏𝑛 𝑎𝑛 + 𝑏|
𝑑(𝐴, ) = √ .
𝑏12 + ⋯ + 𝑏𝑛2
Preuve :
1. D’après le théorème précédent on a 𝑑(𝐴, ) = 𝐴′ . De plus d’après la proposition 12.15 pour tout
⃖⃖⃖⃗′ |⃗𝑛⟩ 𝑛.
𝑀 ∈ on a 𝑝 (𝑀) = 𝑀 + ⟨𝑀𝐴 ⃖⃖⃖⃗′ |⃗𝑛⟩ 𝑛⃖⃗ et par conséquent
⃖⃖⃖⃖⃗′ ⟨𝐴𝐴
2 ⃖⃗ En particulier pour 𝑀 = 𝐴 on a 𝐴𝐴 = 2
‖⃗𝑛‖ ‖⃗𝑛‖
| |
| ⃖⃖⃖⃗|⃗
|⟨𝐴𝐴 ′ 𝑛 ⟩|
|
𝑑(𝐴, ) = | |.
‖⃗𝑛‖
𝑏1 𝑎1′
2. D’après la proposition 12.11 le vecteur 𝑛⃖⃗ avec 𝑛⃖⃗ = ( ⋮ ) est un vecteur normal à . Soit ( ⋮′ )
𝑏𝑛 𝑎𝑛
les coordonnées de 𝐴′ dans . Comme 𝐴′ ∈ on a
𝑛 𝑛 𝑛 𝑛
⃖⃖⃖⃖⃗′ |⃖𝑛⟩
⟨𝐴𝐴 ⃗ = ∑(𝑎𝑖′ − 𝑎𝑖 )𝑏𝑖 = ∑ 𝑏𝑖 𝑎𝑖′ − ∑ 𝑏𝑖 𝑎𝑖 = − 𝑏 + ∑ 𝑏𝑖 𝑎𝑖 .
𝑖=1 𝑖=1 𝑖=1 ( 𝑖=1 )
60
Pythagore 𝑀𝐴2 = 𝑀𝐴′2 + 𝐴′ 𝐴2 . Donc pour tout 𝑀 ∈ on a
{ ⎧
⎪ 𝑀 ∈ {
𝑀 ∈ ⎪ 2 2 𝑀 ∈
𝑀 ∈ ∩ 𝐴,𝑟 ⇔ ⇔ ⎨ 𝐴𝑀 = 𝑟 ⇔
𝐴𝑀 2 = 𝑟 2 ⎪
⎪ 2 ′2 ′ 2 𝐴′ 𝑀 2 = 𝑟 2 − 𝐴′ 𝐴2
⎩ 𝑀𝐴 = 𝑀𝐴 + 𝐴 𝐴
{
∅ si 𝑟 2 − 𝐴′ 𝐴2 < 0
Donc ∩ 𝐴,𝑟 = . ■
𝑆𝐴′ ,√𝑟 2 −𝐴′ 𝐴2 ⊂ si 𝑟 2 − 𝐴′ 𝐴2 ⩾ 0
Lorsque l’intersection est une sphère de rayon 𝑟 ′ = 0, c-à-d 𝑑(𝐴, ) = 𝑟, alors ∩ 𝐴,𝑟 = {𝑝 (𝐴)}.
Définition 12.13. Soient ( , 𝐹 ) un s-e-a d’un espace affine euclidien et 𝐴,𝑟 une sphère de rayon non
nul. On dit que et 𝐴,𝑟 sont tangents lorsque ∩ 𝐴,𝑟 = {𝑝 (𝐴)}.
Lemme 13.1. Soient (, 𝐸) un espace affine euclidien, 𝑓 ∈ Aff() et 𝜆 ∈ ℝ∗+ . Les conditions suivantes sont
équivalentes :
1. 𝑓 multiplie la distance par 𝜆 ;
2. 𝑓⃖⃗ multiplie la norme par 𝜆 ;
3. 𝑓 multiplie le produit scalaire par 𝜆2 ;
4. 𝑓⃖⃗ multiplie le produit scalaire par 𝜆2 .
Donc 1. ⇔ 2.. De même on montre que 3. ⇔ 4.. L’équivalence 2. ⇔ 4. a déjà été démontrée dans le
lemme 11.1. ■
61
Définition 13.1. Soit (, 𝐸) un espace affine euclidien.
1. Une application ensembliste de dans multipliant la distance par un réel 𝜆 strictement positif
est appelé une similitude de rapport 𝜆. L’ensemble des similitudes de est noté Sim().
2. Une application ensembliste de dans conservant les distances, c-à-d une similitude de rap-
port 1, est appelé une isométrie. L’ensemble des isométries de est noté Is().
De même que pour le cas linéaire cette définition n’impose pas que l’application soit affine car cette
condition est automatiquement vérifiée.
Proposition 13.1. Soit (, 𝐸) un espace affine euclidien. Une application 𝑓 ∶ → est une similitude
de rapport 𝜆 si et seulement si 𝑓 est affine et 𝑓⃖⃗ est une similitude vectorielle de 𝐸 de rapport 𝜆. En
particulier une similitude de est un élément de GA().
En particulier
1. les similitudes de rapport 𝜆 d’un espace affine euclidien multiplie la norme par 𝜆 et le produit
scalaire par 𝜆2 .
2. pour un espace affine (, 𝐸) une application 𝑓 ∶ → est une isométrie si et seulement si elle
est affine avec 𝑓⃖⃗ une isométrie vectorielle de 𝐸.
Exemple : Soit (, 𝐸) un espace affine euclidien.
1. Les translations et les symétries orthogonales sont des isométries.
2. Une symétrie non orthogonale par rapport à un s-e-a qui n’est pas un point et différent de n’est
pas une similitude et donc pas une isométrie.
3. Les homothéties de rapport 𝜆 ∈ ℝ∗ sont des similitudes de rapport |𝜆|.
En particulier dans un espace affine euclidien (, 𝐸) les similitudes envoient une sphère sur une sphère.
Plus précisément :
1. si 𝑓 est une translation ou une symétrie orthogonale, ou plus généralement une isométrie, de
alors 𝑓 (𝐴,𝑟 ) = 𝑓 (𝐴),𝑟 .
2. si 𝑓 est une homothétie de rapport 𝜆 ∈ ℝ∗ , ou plus généralement une similitude de rapport |𝜆|, de
alors 𝑓 (𝐴,𝑟 ) = 𝑓 (𝐴),|𝜆|𝑟 .
⃖⃖⃖⃖⃗ ⇒ 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖
⃖⃖⃖⃗ ⟂ 𝐶𝐷
𝐴𝐵 (𝐴)𝑓 (𝐵)⃗ ⟂ 𝑓⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃖⃗
(𝐶)𝑓 (𝐷);
D’après le théorème 11.2 les similitudes vectorielles conservent l’orthogonalité. Donc comme la partie
linéaire d’une similitude est une similitude vectorielle les similitudes et les isométries d’un espace affine
euclidien conservent l’orthogonalité.
62
Etudions le cas de la perpendicularité :
Proposition 13.2. Soient (, 𝐸) un espace affine euclidien et 𝑓 ∈ GA(). Si 𝑓 conserve l’orthogonalité
alors
1. pour tout s-e-a ( , 𝐹 ) on a 𝑓⃖⃗(𝐹 ⟂ ) = (𝑓⃖⃗(𝐹 ))⟂ ;
2. 𝑓 conserve la perpendicularité.
Preuve :
1. Par hypothèse 𝐹 ⟂ 𝐹 ⟂ implique 𝑓⃖⃗(𝐹 ) ⟂ 𝑓⃖⃗(𝐹 ⟂ ). Donc 𝑓⃖⃗(𝐹 ⟂ ) ⊂ (𝑓⃖⃗(𝐹 ))⟂ . De plus comme 𝑓⃖⃗ est bijective
on a l’égalité car
2. Soit (1 , 𝐹1 ) et (2 , 𝐹2 ) des s-e-a perpendiculaires. Alors 𝐹1⟂ ⟂ 𝐹2⟂ et par hypothèse sur 𝑓 on a
alors 𝑓⃖⃗(𝐹1⟂ ) ⟂ 𝑓⃖⃗(𝐹2⟂ ). D’où d’après le point précédent (𝑓⃖⃗(𝐹1 ))⟂ ⟂ (𝑓⃖⃗(𝐹2 ))⟂ c-à-d 𝑓 (1 ) et 𝑓 (2 ) sont
perpendiculaires. ■
Par conséquent on a démontré la proposition suivant :
Proposition 13.3. Dans un espace affine euclidien les isométries et les similitudes affines conservent
l’orthogonalité et la perpendicularité.
Dans le cas vectoriel, théorème 11.2, les endomorphismes injectifs sont des similitudes si et seulement
si ils conservent l’orthogonalité. Donc si 𝑓 est un endomorphisme affine et injective d’un espace affine
euclidien (, 𝐸) alors 𝑓⃖⃗ est un endomorphisme injective et par conséquent
Remarque : L’ensemble des translations de est un sous-groupe de Sim() et de Is(). De plus pour
tout 𝑂 ∈
1. l’ensemble des Sim𝑂 () des similitudes de laissant fixe 𝑂 est un sous-groupe de Sim().
63
2. l’ensemble Is𝑂 () des isométries de laissant fixe 𝑂 est un sous-groupe de Is().
D’après la proposition 6.8 toute similitude s’écrit comme la composé d’une translation est d’un automor-
phisme affine avec un point fixe. La partie linéaire de cette composition étant celle de l’automorphisme
on en déduit qu’elle doit être une similitude vectorielle. Donc l’automorphisme affine est une similitude
affine. De même cette proposition montre que toute isométrie de s’écrit comme la composé d’une trans-
lation et d’une isométrie avec un point fixe. Ainsi on a l’équivalent du théorème 6.2, pour les similitudes
et les isométries :
Théorème 13.2. Soit (, 𝐸) un espace affine euclidien. Pour tout 𝑂 ∈
1. le groupe Sim() est le produit semi-direct de 𝑇 () par Sim𝑂 () ;
2. le groupe Is() est le produit semi-direct de 𝑇 () par Is𝑂 () ;
Remarque : De même que pour le groupe affine en considérant les restrictions 𝜂𝑆 et 𝜂𝐼 à Sim() et
respectivement à Is() de 𝜂 ∶ GA() → GL(𝐸) on a
𝑓 ↦ 𝑓⃖⃗
1. L’application 𝜂𝑆 ∶ Sim() → GO(𝐸) est un morphisme de groupes surjectif de noyau 𝑇 (). Pour
tout 𝑂 ∈ le groupe Sim𝑂 () est isomorphe à GO(𝐸) ;
2. L’application 𝜂𝐼 ∶ Is() → 𝑂(𝐸) est un morphisme de groupes surjectif de noyau 𝑇 (). Pour tout
𝑂 ∈ le groupe Is𝑂 () est isomorphe à 𝑂(𝐸) ;
3. 𝑇 () est un sous-groupe distingué de Sim() et Sim()/𝑇 () est un groupe isomorphe à GO(𝐸) ;
4. 𝑇 () est un sous-groupe distingué de Is() et Is()/𝑇 () est un groupe isomorphe à 𝑂(𝐸) ;
De même que dans le cas vectoriel, théorème 11.5, on peut entièrement décrire le groupe Sim() avec le
groupe Is(). On commence par étudier les points fixes des similitudes.
Proposition 13.5. Soit (, 𝐸) un espace affine euclidien. Une similitude de qui n’est pas une isométrie
admet un unique points fixe, appelé centre de la similitude.
⃖⃗ ∈ 𝐸 non
Preuve : Soit 𝑓 une similitude de rapport 𝜆 qui n’est pas isométrie. Alors 𝜆 ≠ 1 et pour tout 𝑢
nul on a ‖𝑓⃖⃗(⃖𝑢)
⃗ ‖ = 𝜆‖𝑢⃖⃗‖ ≠ ‖𝑢⃖⃗‖. Par conséquent ker(𝑓⃖⃗ − Id𝐸 ) = {0𝐸 } et d’après la proposition 6.1 l’application
affine 𝑓 admet un unique point fixe. ■
Définition 13.2. Soit (, 𝐸) un espace affine euclidien. Les similitudes à centre de sont les similitudes
admettant un unique point fixe.
64
On a donc démontré que
Corollaire 13.1. Soit (, 𝐸) un espace affine euclidien. Le groupe Sim() est engendré par les isométries
et les homothéties de rapport positif.
Preuve : Il est clair que le sous-groupe engendré pas les isométries et les homothéties de rapport
positif est inclu dans Sim().
Inversement si 𝑓 est une similitude on a vu que soit c’est une isométrie, soit c’est une similitude à centre
et donc la composé d’une isométrie et d’une homothétie de rapport positif. ■
Exemple : Soit (, 𝐸) un espace affine euclidien de dimension 𝑛. De l’étude des similitudes (in)directes
vectorielle on en déduit que
1. les translations sont des isométries directes ;
2. les homothéties de rapport 𝜆 avec 𝜆 > 0 sont des similitudes directes ;
3. les homothéties de rapport 𝜆 avec 𝜆 < 0 sont des similitudes directes si dim(𝐸) est paire, indirecte
si dim(𝐸) est impaire ;
4. les symétries orthogonales 𝑠 d’axe avec dim( ) = 𝑝 de même parité que 𝑛 sont des isométries
directes. Celle d’axe avec dim( ) de parité opposée sont des isométries indirectes.
En particulier les réflexions sont des isométries indirectes.
Les ensembles des similitudes et des isométries directes ont une structure de groupes.
Proposition 13.6. Soit 𝐸 un espace affine euclidien
1. L’ensemble Sim+ () est un sous-groupe distingué de Sim().
2. L’ensemble Is+ () est un sous-groupe distingué d’indice 2 de Is(), appelé le groupe des dépla-
cement de .
65
Théorème 13.4. Soit (, 𝐸) un espace affine euclidien. Pour tout 𝑂 ∈
1. le groupe Sim+ () est le produit semi-direct de 𝑇 () par Sim+𝑂 () (sous-groupe des similitudes
directes laissant 𝑂 fixe) ;
2. le groupe Is+ () est le produit semi-direct de 𝑇 () par Is+𝑂 () (sous-groupe des isométries directes
laissant 𝑂 fixe).
Remarque : En considérant les restrictions 𝜂+𝑆 et 𝜂+𝐼 à Sim+ () et respectivement à Is+ () de
𝜂 ∶ GA() → GL(𝐸) on a
𝑓 ↦ 𝑓⃖⃗
1. l’application 𝜂+𝑆 ∶ Sim+ () → GO+ (𝐸) est un morphisme de groupes surjectif de noyau 𝑇 (). Pour
tout 𝑂 ∈ le groupe Sim+𝑂 () est isomorphe à GO+ (𝐸) ;
2. l’application 𝜂+𝐼 ∶ Is+ () → SO(𝐸) est un morphisme de groupes surjectif de noyau 𝑇 (). Pour
tout 𝑂 ∈ le groupe Is+𝑂 () est isomorphe à SO(𝐸) ;
3. 𝑇 () est un sous-groupe distingué de Sim+ () et Sim+ ()/𝑇 () est un groupe isomorphe à GO+ (𝐸) ;
4. 𝑇 () est un sous-groupe distingué de Is+ () et Is+ ()/𝑇 () est un groupe isomorphe à SO(𝐸) ;
On peut spécialiser les résultat du théorème 13.3 et du corollaire 13.1 au cas des isométries directes
Théorème 13.5. Soit (, 𝐸) un espace affine euclidien.
1. Si 𝑓 est une similitude directe à centre de rapport 𝜆 et de centre 𝑂, alors il existe une unique
isométrie directe 𝑔 ∈ Is+𝑂 (), c-à-d laissant fixe 𝑂, telle que 𝑓 = ℎ𝑂,𝜆 ◦𝑔 = 𝑔◦ℎ𝑂,𝜆 où ℎ𝑂,𝜆 est
l’homothétie de centre 𝑂 et de rapport 𝜆.
2. Le groupe Sim+ () est engendré par les isométries directes et les homothéties de rapport positif.
14 Orientation
On a vu que la description du groupe des déplacements d’un espace affine euclidien (, 𝐸) est liée
à celle du groupe des isométries directes de sa direction 𝐸, qui elle même est liée à la description du
groupe spéciale orthogonale. Malheureusement ce dernier isomorphisme dépend du choix d’une base
orthonormée. Afin d’avoir un isomorphisme canonique, c-à-d ne dépendent pas du choix de la base, on
introduit la notion d’orientation. On commence par illustrer le problème d’isomorphisme non canonique
pour les isométries directes d’un plan.
66
𝛼 𝛽
2. Si det(𝑃) = −1 alors de même que dans le preuve de la proposition on a 𝑃 = avec
( 𝛽 −𝛼)
𝑎 −𝑏
𝛼 2 + 𝛽 2 = 1. Soit 𝜓 ∈ SO(𝐸). On a 𝑀 (𝜓 ) = , avec 𝑎2 + 𝑏 2 = 1. On vérifie facilement
(𝑏 𝑎 )
𝑎 𝑏
qu’alors 𝑀′ (𝜓 ) = 𝑡 𝑃𝑀 𝑃 = .
(−𝑏 𝑎)
Donc pour la base , respectivement ′ , l’isomorphisme de la proposition associe à 𝜓 l’élément
𝑎 + 𝑖𝑏, respectivement 𝑎 − 𝑖𝑏.
Pour que l’isomorphisme de la proposition soit canonique, c-à-d ne dépendent pas du choix de la base, on
doit introduire une notion permettant de classer les bases orthonormées en deux familles : une où l’iso-
morphisme ne change pas et l’autre où l’isomorphisme sera différent. Ainsi pour les bases de la première
famille l’isomorphisme sera canonique. Cette notion est celle d’orientation d’un espace vectoriel.
Lemme 14.1. La relation "être dans le même sens que" est une relation d’équivalence sur l’ensemble des bases
de 𝐸.
′
Preuve : Il est immédiat que la relation est réflexive. La symétrie découle de 𝑃′ = (𝑃 )−1 . De plus si
′′ ′ ′′
′′ est également une base de 𝐸 la transitivité découle de 𝑃 = 𝑃 𝑃 ′ . ■
Remarque : La relation "être dans le même sens que" étant symétrique on dira que et ′ sont dans le
même sens au lieu de est dans le même sens que ′ . De même la relation "être dans le sens contraire
que" est aussi symétrique, mais pas réflexive et transitive, on dira que et ′ sont dans le sens contraire.
Exemple :
1. Si 𝐸 est de dimension 1, alors = (⃗𝑒1 ) et ′ = (⃗𝑒2 ) ont le même sens si et seulement si les vecteurs
𝑒⃗1 et 𝑒⃗2 sont positivement liés, c-à-d 𝑒⃗1 = 𝜆⃗𝑒2 avec 𝜆 ∈ ℝ∗+ .
2. Soit et ′ sont deux bases orthonormées. Les bases et ′ sont de même sens si et seulement
′
si det(𝑃 ) = 1.
Echange des vecteurs d’une base
Soit = (𝑒1 , … , 𝑒𝑛 ) une base de 𝐸. Pour toute permutation 𝜎 ∈ S𝑛 on définit une nouvelle base 𝜎
obtenue en permutant les vecteurs de par 𝜎 : ′ = (𝑒𝜎 (1) , … , 𝑒𝜎(𝑛) ).
Preuve :
1. C’est une conséquence du fait que le déterminant change de signe lorsqu’on échange 2 colonnes.
67
2. C’est une conséquence du résultat classique du groupe symétrique : Toute permutation s’écrit
comme un produit de transpositions. De plus la permutation est dans 𝐴𝑛 si et seulement si elle
s’écrit comme un produit d’un nombre pair de permutations.
3. C’est une conséquence du fait que det (′ ) = 𝜆 det () = 𝜆. ■
En particulier la base ′ obtenue à partir de en échangeant 2 vecteurs est de sens contraire à .
Orientation d’un espace vectoriel
Proposition 14.3. La relation d’équivalence "être dans le même sens que" possède exactement 2 classes
d’équivalence.
Preuve : Soit une base de 𝐸. Alors la base ′ obtenue à partir de en multipliant un vecteur par
(−1) est de sens contraire à . Donc les classes d’équivalence de et de ′ sont distinctes. De plus pour
toute autre base ′′ de 𝐸 il n’y a que deux possibilités :
1. soit ′′ est de même sens que . Elle est alors dans la classe d’équivalence de .
2. soit ′′ est de sens contraire à . Elle est alors de même sens que ′ et donc dans la classe d’équi-
valence de ′ . ■
Définition 14.2. Les deux classes d’équivalence de la relation "être dans le même sens que" sont appelés
orientations de 𝐸. On dit que l’espace vectoriel 𝐸 est orienté lorsqu’on choisit l’une des 2 orientations
possibles. Alors toute base appartenant à l’orientation fixée est dite directe, sinon elle est dite indirecte.
L’orientation canonique de ℝ𝑛 est le choix de l’orientation contenant la base canonique.
En pratique choisir une orientation c’est choisir la classe d’une base de 𝐸 dont on souhaite qu’elle soit
directe.
Remarque : Attention une orientation d’un espace vectoriel 𝐸 n’induit pas automatiquement une orien-
tation sur tout sous-espace-vectoriel. Par exemple dans ℝ2 l’orientation canonique n’induit pas une orien-
tation sur la droite de vecteur directeur ( −11 ).
Par contre si 𝐸 est un espace vectoriel orienté et si 𝐹1 est un s-e-v orienté également alors tout supplé-
mentaire 𝐹2 de 𝐹1 dans 𝐸 hérite d’une orientation induite.
Automorphisme (in)directs et orientation
On peut caractériser les automorphismes direct, respectivement indirecte, c-à-d de déterminant stricte-
ment positif, respectivement négatif, en fonction de l’image d’une base :
Proposition 14.4. Un automorphisme 𝑓 de 𝐸 est direct (respectivement indirect) si et seulement si il
transforme toute base de 𝐸 en une base de 𝐸 de même sens (respectivement de sens contraire).
En d’autre terme si 𝐸 est orienté un automorphisme est direct si et seulement si il préserve l’orientation.
′
Preuve : Soit = (𝑒1 , … , 𝑒𝑛 ) une base de 𝐸. Alors ′ = (𝑓 (𝑒1 ), … , 𝑓 (𝑒𝑛 )) est une base de 𝐸 et 𝑃 est la
matrice de 𝑓 dans la base . D’où le résultat. ■
En particulier dans le cas des bases orthonormées on a d’après la proposition 11.2 :
Proposition 14.5. Soient 𝐸 un espace vectoriel euclidien de dimension 𝑛 et une base orthonormée
de 𝐸.
Soit ′ une base de 𝐸, 𝑃 la matrice de passage de à ′ , et 𝜓 l’endomorphisme de 𝐸 de matrice 𝑃
dans la base . Les assertions suivantes sont équivalentes :
1. 𝜓 est une isométrie directe ;
2. 𝑃 ∈ SO(𝑛) ;
3. ′ est une base orthonormée de 𝐸 de même sens que .
68
Corollaire 14.1. Soient 𝐸 un espace vectoriel euclidien de dimension 𝑛 ⩾ 2.
⃖⃗ 𝑣⃖⃗ ∈ 𝐸 tels que ‖𝑢⃖⃗‖ = ‖𝑣⃖⃗‖ ≠ 0. Il existe une isométrie directe (respectivement indirecte) de
1. Soit 𝑢,
𝐸 𝜓 telle que 𝜓 (⃖𝑢)⃗ = 𝑣.
⃖⃗
⃖⃗ 𝑣⃖⃗ des vecteurs non nuls de 𝐸. Il existe une similitude directe (respectivement indirecte)
2. Soit 𝑢,
⃗ = 𝑣.
de 𝐸 𝜓 telle que 𝜓 (⃖𝑢) ⃖⃗
Les résultats concernant l’orientation des espaces vectoriels s’étendent à l’identique dans le cas affine.
Il y a uniquement pour l’échange de deux point d’une base affine qu’il faut modifier la preuve :
Proposition 14.6. Soient (𝐴1 , 𝐴2 , … , 𝐴𝑛+1 ) une base affine de et 𝜏 ∈ S𝑛+1 une transposition. Alors
la base affine (𝐴𝜏 (1) , 𝐴𝜏 (2) , … , 𝐴𝜏 (𝑛+1) ) est de sens contraire à (𝐴1 , 𝐴2 , … , 𝐴𝑛+1 ).
14.4 Produit mixte et produit vectoriel dans un espace affine euclidien orienté
Dans tout ce paragraphe (, 𝐸) désigne un espace affine euclidien orienté de dimension 𝑛.
Proposition 14.7. Le déterminant d’une famille de 𝑛 = dim() vecteurs de 𝐸 a la même valeur dans
toute base orthonormée directe de 𝐸.
Exemple : Si (⃖𝑢⃗1 , … , 𝑢 ⃖⃗𝑛 ) est une base orthonormée directe (respectivement indirecte) de 𝐸 alors
[⃖𝑢⃗1 , … , 𝑢⃖⃗𝑛 ] = 1 (respectivement −1).
En appliquant les propriétés du déterminant d’une famille de vecteurs on a immédiatement :
Proposition 14.8.
1. Le produit mixte de 𝑛 vecteurs est non nul si et seulement si ces vecteurs sont linéairement
indépendants c-à-d si et seulement si ils forment une base de 𝐸.
2. L’application 𝐸 𝑛 ⟶ ℝ est 𝑛-linéaire alternée.
(⃖𝑢⃗1 , … , 𝑢⃖⃗𝑛 ) ⟼ [⃖𝑢⃗1 , … , 𝑢⃖⃗𝑛 ]
En particulier pour 𝑢⃖⃗1 , … 𝑢⃖⃗𝑛−1 ∈ 𝐸 l’application 𝐸 ⟶ ℝ est une forme linéaire donc
𝑢⃖⃗ ⟼ [⃖𝑢⃗1 , … , 𝑢⃖⃗𝑛−1 , 𝑢]
⃖⃗
un élément de 𝐸 ∗ . Donc via l’isomorphisme canonique 10.3 entre 𝐸 et 𝐸 ∗ (provenant de la structure eucli-
dienne) on peut définir le produit vectoriel par :
69
Définition 14.5. Soit (, 𝐸) un espace affine euclidien orienté de dimension 𝑛. On appelle produit
vectoriel de 𝑛 − 1-vecteurs (⃖𝑢⃗1 , … , 𝑢⃖⃗𝑛−1 ) de 𝐸 l’unique vecteur 𝑣⃖⃗ de 𝐸 tel que pour tout 𝑢⃖⃗ ∈ 𝐸 on a
⟨⃖⃗ ⃗ = [⃖𝑢⃗1 , … , 𝑢⃖⃗𝑛−1 , 𝑢].
𝑣|⃖𝑢⟩ ⃖⃗ On note 𝑣⃖⃗ = 𝑢⃖⃗1 ∧ ⋯ ∧ 𝑢⃖⃗𝑛−1 .
⃖⃗ 𝑣⃖⃗ ∈ 𝐸
Dans le cas particulier d’un espace affine euclidien orienté (, 𝐸) de dimension 3 pour tout 𝑢,
on a
𝑣 ∧ 𝑢⃖⃗ et 𝑢⃖⃗ ∧ 𝑢⃖⃗ = 0⃖⃖⃗𝐸 .
1. 𝑢⃖⃗ ∧ 𝑣⃖⃗ = −⃖⃗
2. 𝑢⃖⃗ ∧ 𝑣⃖⃗ = 0⃖⃖⃗𝐸 si et seulement si 𝑢⃖⃗ et 𝑣⃖⃗ sont dépendants.
3. Si 𝑢⃖⃗ et 𝑣⃖⃗ sont indépendants alors (⃖𝑢,
⃗ 𝑣,
⃖⃗ 𝑢⃖⃗ ∧ 𝑣)
⃖⃗ est une base directe de 𝐸.
4. 𝑢⃖⃗ ∧ 𝑣⃖⃗ est orthogonal à 𝑢⃖⃗ et à 𝑣.
⃖⃗
De plus dans le cas de la dimension 3 on a également :
Proposition 14.10. Soit (, 𝐸) un espace affine euclidien orienté de dimension 3.
1. Si (⃗𝑒1 , 𝑒⃗2 , 𝑒⃗3 ) est une base orthonormée directe de 𝐸 alors 𝑒⃗3 = 𝑒⃗1 ∧ 𝑒⃗2 , 𝑒⃗1 = 𝑒⃗2 ∧ 𝑒⃗3 et 𝑒⃗2 = 𝑒⃗3 ∧ 𝑒⃗1 .
𝑢1
2. Soient = (⃗𝑒1 , 𝑒⃗2 , 𝑒⃗3 ) une base orthonormée directe de 𝐸 et 𝑢,
⃖⃗ 𝑣⃖⃗ ∈ 𝐸 de coordonnées 𝑢⃖⃗ = ( 𝑢𝑢2 ),
3
𝑣1
𝑣⃖⃗ = ( 𝑣𝑣2 ). Alors
3
⎛𝑢2 𝑣3 − 𝑢3 𝑣2 ⎞
⃖⃗ = ⎜𝑢3 𝑣1 − 𝑢1 𝑣3 ⎟ .
(⃖𝑢⃗ ∧ 𝑣)
⎜ ⎟
⎝𝑢1 𝑣2 − 𝑢2 𝑣1 ⎠
⃖⃗ 𝑣,
3. Pour tout 𝑢, ⃖⃗ 𝑤
⃖⃗ ∈ 𝐸 on a 𝑢⃖⃗ ∧ (⃖⃗ ⃖⃗ = ⟨⃖𝑢|
𝑣 ∧ 𝑤) ⃗ 𝑤⟩⃖⃗
⃖⃗ 𝑣 − ⟨⃖𝑢|⃖⃗
⃗ 𝑣⟩𝑤.
⃖⃗
2 2 2
⃖⃗ 𝑣⃖⃗ ∈ 𝐸 on a : ‖𝑢⃖⃗ ∧ 𝑣⃖⃗‖ = ‖𝑢⃖⃗‖ ‖𝑣⃖⃗‖ − ⟨⃖𝑢|⃖⃗
4. Pour tout 𝑢, ⃗ 𝑣⟩2 Identité de Lagrange.
5. Si (⃗𝑒1 , 𝑒⃗2 ) est une famille orthonormée de 𝐸 alors (⃗𝑒1 , 𝑒⃗2 , 𝑒⃗1 ∧ 𝑒⃗2 ) est une base orthonormée directe
de 𝐸.
Remarque : En particulier l’égalité du point 3. montre que le produit vectoriel n’est pas associatif. Par
⃖⃗ 𝑣,
contre en appliquant sur chaque terme cette égalité on montre que pour tout 𝑢, ⃖⃗ 𝑤
⃖⃗ ∈ 𝐸 on a
Dans le cas d’un espace de dimension 3 les formules de calculs de distances entre un point et un s-e-a se
simplifient grâce à l’utilisation du produit vectoriel :
70
Proposition 14.11. Soient (, 𝐸) un espace affine euclidien orienté de dimension 3 et 𝑀 ∈ .
1. Si (𝐴, 𝐵, 𝐶) est une base affine d’un plan (, 𝑃) de alors
| |
| ⃖⃖⃖⃖⃗ ⃖⃖⃖⃗ ⃖⃖⃖⃗ | | 𝐴𝐵,
⃖⃖⃖⃗ 𝐴𝐶, ⃖⃖⃖⃖⃗ |
⃖⃖⃖⃗ 𝑀𝐴
|⟨𝑀𝐴|𝐴𝐵 ∧ 𝐴𝐶⟩| |[ ] |
𝑑(𝑀, ) = | |=| |.
‖𝐴𝐵 ⃖⃖⃖⃗‖
⃖⃖⃖⃗ ∧ 𝐴𝐶 ‖𝐴𝐵 ⃖⃖⃖⃗‖
⃖⃖⃖⃗ ∧ 𝐴𝐶
‖𝑀𝐴 ⃖⃖⃖⃗‖
⃖⃖⃖⃖⃗ ∧ 𝐴𝐵
2. Si (𝐴, 𝐵) est une base affine d’une droite de alors 𝑑(𝑀, ) = .
‖𝐴𝐵
⃖⃖⃖⃗‖
Preuve :
1. Soit 𝐻 le projeté orthogonal de 𝑀 sur . Le vecteur 𝐴𝐵 ⃖⃖⃖⃗ ∧ 𝐴𝐶
⃖⃖⃖⃗ est orthogonal à Vect(𝐴𝐵,
⃖⃖⃖⃗ 𝐴𝐶)
⃖⃖⃖⃗ = 𝑃.
En particulier il est orthogonal à 𝐴𝐻 ⃖⃖⃖⃖⃗. Alors en appliquant la proposition 12.18 on a :
| ⃖⃖⃖⃖⃖⃗ ⃖⃖⃖⃗ ⃖⃖⃖⃗ | | ⃖⃖⃖⃖⃗ ⃖⃖⃖⃖⃗ ⃖⃖⃖⃗ ⃖⃖⃖⃗ | | ⃖⃖⃖⃖⃗ ⃖⃖⃖⃗ ⃖⃖⃖⃗ |
|⟨𝑀𝐻 |𝐴𝐵 ∧ 𝐴𝐶⟩| |⟨𝑀𝐴 + 𝐴𝐻 |𝐴𝐵 ∧ 𝐴𝐶⟩| |⟨𝑀𝐴|𝐴𝐵 ∧ 𝐴𝐶⟩|
𝑑(𝑀, ) = | |=| |=| |.
‖𝐴𝐵 ⃖⃖⃖⃗‖
⃖⃖⃖⃗ ∧ 𝐴𝐶 ‖𝐴𝐵 ⃖⃖⃖⃗‖
⃖⃖⃖⃗ ∧ 𝐴𝐶 ‖𝐴𝐵 ⃖⃖⃖⃗‖
⃖⃖⃖⃗ ∧ 𝐴𝐶
2. Soit 𝐻 le projeté orthogonal de 𝑀 sur . Alors 𝑑(𝑀, ) = 𝑀𝐻 et d’après la proposition 12.15
| |
| ⃖⃖⃗ 𝐴𝐵⟩
⃖⃖⃗ ||
|⟨𝐴𝑀|
on a 𝐻 = 𝐴 + ⃖⃖⃗
⟨𝐴𝑀| ⃖⃖
⃗
𝐴𝐵⟩ ⃖⃖⃖⃗ ‖ ‖=
⃖⃖⃖⃖⃗ | | . D’où d’après les identités de Pythagore et de
2 𝐴𝐵 et donc 𝐴𝐻
‖𝐴𝐵
⃖⃖⃗‖ ‖ ⃖⃖⃗
𝐴𝐵 ‖
Lagrange :
2 2 2
𝑑(𝑀, )2 = ‖𝑀𝐻
⃖⃖⃖⃖⃖⃗‖ = ‖𝑀𝐴
⃖⃖⃖⃖⃗‖ − ‖𝐴𝐻 ⃖⃖⃖⃖⃗‖
2 2 2
‖𝑀𝐴
⃖⃖⃖⃖⃗‖ ‖𝐴𝐵
⃖⃖⃖⃗‖ − ⟨𝐴𝑀| ⃖⃖⃖⃗ 2 ‖𝑀𝐴
⃖⃖⃖⃖⃗ 𝐴𝐵⟩ ⃖⃖⃖⃗‖
⃖⃖⃖⃖⃗ ∧ 𝐴𝐵
= 2 = 2 . ■
‖𝐴𝐵
⃖⃖⃖⃗‖ ‖𝐴𝐵
⃖⃖⃖⃗‖
Remarque :
1. Avec les notations de la définition on a 𝐶𝐻 = 𝑑(𝐶, (𝐴𝐵)).
2. En d’autre terme on a la formule bien connue (𝐴𝐵𝐶) = 𝑏𝑎𝑠𝑒.ℎ𝑎𝑢𝑡𝑒𝑢𝑟
2
.
3. Il n’est pas évident dans cette définition que l’aire ne dépend pas du choix du point projeté. Il y
a 2 autres choix possibles : projection de 𝐴 sur (𝐵𝐶) ou projection de 𝐵 sur (𝐴𝐶). La proposition
suivante répond à ce problème. Pour cela on donne une formule pour l’aire avec le produit mixte.
On doit donc choisir une orientation du plan.
Proposition 14.12. Soit (, 𝐸) un plan affine euclidien orienté. L’aire (géométrique) d’un triangle 𝐴𝐵𝐶
(𝐴, 𝐵, 𝐶 non alignés) est donnée par
1 || ⃖⃖⃖⃗ ⃖⃖⃖⃗ || 1 || ⃖⃖⃖⃗ ⃖⃖⃖⃗ || 1 || ⃖⃖⃖⃗ ⃖⃖⃖⃗ ||
(𝐴𝐵𝐶) = 𝐴𝐵, 𝐴𝐶 ]| = |[𝐵𝐶, 𝐵𝐴]| = |[𝐶𝐴, 𝐶𝐵]| .
2 ||[ | 2| | 2| |
Ainsi l’aire géométrique ne dépend pas du choix du point projeté c-à-d (𝐴𝐵𝐶) = (𝐵𝐶𝐴) = (𝐶𝐴𝐵).
En d’autre terme la formule de l’aire est invariante par permutation circulaire des sommets.
71
Preuve : La preuve repose sur un choix judicieux d’un repère cartésien orthonormée de . On prend
⃖⃖⃗ puis on le complète en une base orthonormée directe = (⃗𝑒 , 𝑒⃗ ) de 𝐸. Dans le repère cartésien
𝐴𝐵
𝑒⃗1 = 𝐴𝐵 1 2
= (𝐴, ) le point 𝐵 a pour coordonnées ( 0 ). Les coordonnées de 𝐶 sont ( 𝜀𝜀21 𝐶𝐻
𝐴𝐵 𝐴𝐻
) avec 𝜀1 , 𝜀2 ∈ {−1, 1}
(les signes sont liées au choix de la base orthonormée directe). On a
| |
⃖⃖⃖⃗ 𝐴𝐶
𝐴𝐵, ⃖⃖⃖⃗ = det (𝐴𝐵, ⃖⃖⃖⃗ = |𝐴𝐵 𝜀1 𝐴𝐻 | = 𝜀2 𝐴𝐵.𝐶𝐻 .
⃖⃖⃖⃗ 𝐴𝐶)
[ ] | |
| 0 𝜀2 𝐶𝐻 |
On a ainsi la première égalité. Les égalités suivantes s’obtiennent par Chasles et propriétés du produit
mixte. ■
Remarque : Ces formules sont encore trivialement vraies pour un triangle 𝐴𝐵𝐶 avec 𝐴, 𝐵, 𝐶 alignés.
Définition 14.7. Soit (, 𝐸) un plan affine euclidien. L’aire (géométrique) d’un parallélogramme
𝐴𝐵𝐶𝐷 (𝐴, 𝐵, 𝐶, 𝐷 non alignés et 2 à 2 distincts) est le nombre : (𝐴𝐵𝐶𝐷) = 2(𝐴𝐵𝐷) = 𝐴𝐵.𝐷𝐻
avec 𝐻 le projeté orthogonal de 𝐷 sur la droite (𝐴𝐵).
Remarque :
1. Avec les notations de la définition on a 𝐷𝐻 = 𝑑(𝐷, (𝐴𝐵)).
2. Il n’est pas évident dans cette définition que l’aire ne dépend pas du choix du triangle 𝐴𝐵𝐷 dans
la définition. Il y a 3 autres choix de triangles possibles 𝐴𝐵𝐶, 𝐵𝐶𝐷, 𝐴𝐶𝐷. La proposition suivante
répond à ce problème. Pour cela on donne une formule pour l’aire avec le produit mixte. On doit
donc choisir une orientation du plan.
Proposition 14.13. Soit (, 𝐸) un plan affine euclidien orienté. L’aire (géométrique) d’un parallélo-
gramme 𝐴𝐵𝐶𝐷 (𝐴, 𝐵, 𝐶, 𝐷 non alignés et 2 à 2 distincts) est donnée par
| | | |
(𝐴𝐵𝐶𝐷) = ||[𝐴𝐵, ⃖⃖⃖⃗ | = | 𝐴𝐵,
⃖⃖⃖⃗ 𝐴𝐶
]| |[
⃖⃖⃖⃖⃗ | .
⃖⃖⃖⃗ 𝐴𝐷
] |
| | | |
De plus cette quantité est aussi égale à ce que l’on obtient pour une permutation circulation des som-
mets : (𝐵𝐶𝐷𝐴) = (𝐶𝐷𝐴𝐵) = (𝐷𝐴𝐵𝐶).
⃖⃖⃖⃗ = 𝐷𝐶
Preuve : Par hypothèse 𝐴𝐵𝐶𝐷 est un parallélogramme donc 𝐴𝐵 ⃖⃖⃖⃖⃗ et d’après l’étude du cas de
l’aire du triangle on a
| | | | | |
(𝐴𝐵𝐶𝐷) = 2(𝐴𝐵𝐷) = ||[𝐴𝐵, ⃖⃖⃖⃗ 𝐴𝐷⃖⃖⃖⃖⃗ | = | 𝐴𝐵,
]|| ||[
⃖⃖⃖⃗ 𝐴𝐶
⃖⃖⃖⃗ + 𝐶𝐷⃖⃖⃖⃖⃗ | = | 𝐴𝐵,
]|| ||[
⃖⃖⃖⃗ 𝐴𝐶⃖⃖⃖⃗ | .
]||
|
De même en utilisant Chasles, les propriétés du produit mixte et les égalités 𝐴𝐵 ⃖⃖⃖⃗ = 𝐷𝐶, ⃖⃖⃖⃖⃗ 𝐵𝐶
⃖⃖⃖⃗ = 𝐴𝐷
⃖⃖⃖⃖⃗ on
montre l’invariance par permutation circulaire. Par exemple
| | | | | |
(𝐵𝐶𝐷𝐴) = ||[𝐵𝐶, ⃖⃖⃖⃗ | = | 𝐵𝐶,
⃖⃖⃖⃗ 𝐵𝐷
|
]| |[|
⃖⃖⃖⃗ | = | 𝐵𝐴
⃖⃖⃖⃗ 𝐵𝐴
|
] | |[ |
⃖⃖⃖⃗ + 𝐴𝐶, ⃖⃖⃖⃗ | = (𝐴𝐵𝐶𝐷).
⃖⃖⃖⃗ 𝐵𝐴
]|| ■
|
Lorsque on considère un triangle ou un parallélogramme situé dans un plan d’un espace affine euclidien
de dimension 3 son aire peut s’exprimer à l’aide d’un produit vectoriel.
Proposition 14.14. Soit (, 𝐸) un espace affine euclidien orienté de dimension 3. L’aire (géométrique)
d’un parallélogramme 𝐴𝐵𝐶𝐷 (𝐴, 𝐵, 𝐶, 𝐷 non alignés et 2 à 2 distincts) situé dans un plan de est
donnée par (𝐴𝐵𝐶𝐷) = ‖𝐴𝐵 ⃖⃖⃖⃗‖ = ‖𝐴𝐵
⃖⃖⃖⃗ ∧ 𝐴𝐶 ⃖⃖⃖⃖⃗‖. En particulier on a également (𝐴𝐵𝐶) = 1 ‖𝐴𝐵
⃖⃖⃖⃗ ∧ 𝐴𝐷
2
⃖⃖⃖⃗‖.
⃖⃖⃖⃗ ∧ 𝐴𝐶
Preuve : Par définition d’après la proposition 14.11 pour 𝐻 le projeté orthogonal de 𝐷 sur la droite
(𝐴𝐵) on a
‖𝐷𝐴 ⃖⃖⃖⃗‖
⃖⃖⃖⃗ ∧ 𝐴𝐵
(𝐴𝐵𝐶𝐷) = 𝐴𝐵.𝐷𝐻 = 𝐴𝐵.𝑑(𝐷, (𝐴𝐵)) = 𝐴𝐵. = ‖𝐷𝐴 ⃖⃖⃖⃗‖ = ‖𝐴𝐵
⃖⃖⃖⃗ ∧ 𝐴𝐵 ⃖⃖⃖⃖⃗‖.
⃖⃖⃖⃗ ∧ 𝐴𝐷
‖𝐴𝐵‖
⃖⃖⃖⃗
72
De plus
⃖⃖⃖⃗ ∧ 𝐴𝐷
𝐴𝐵 ⃖⃖⃖⃖⃗ = 𝐴𝐵
⃖⃖⃖⃗ ∧ (𝐴𝐶
⃖⃖⃖⃗ + 𝐶𝐷)
⃖⃖⃖⃖⃗ = 𝐴𝐵
⃖⃖⃖⃗ ∧ 𝐴𝐶
⃖⃖⃖⃗ + 𝐴𝐵
⃖⃖⃖⃗ ∧ 𝐶𝐷
⃖⃖⃖⃖⃗ = 𝐴𝐵
⃖⃖⃖⃗ ∧ 𝐴𝐶
⃖⃖⃖⃗ − 𝐴𝐵
⃖⃖⃖⃗ ∧ 𝐴𝐵
⃖⃖⃖⃗ = 𝐴𝐵
⃖⃖⃖⃗ ∧ 𝐴𝐶.
⃖⃖⃖⃗ ■
Dans l’espace on peut définir le volume (géométrique) d’un tétraèdre 𝐴𝐵𝐶𝐷 par :
Définition 14.8. Soit (, 𝐸) un espace affine euclidien de dimension 3. Le volume (géométrique) d’un
1
tétraèdre 𝐴𝐵𝐶𝐷 (𝐴, 𝐵, 𝐶, 𝐷 non coplanaires) est le nombre (𝐴𝐵𝐶𝐷) = (𝐴𝐵𝐶).𝐷𝐻 , avec 𝐻 le
3
projeté orthogonal de 𝐻 sur le plan (𝐴𝐵𝐶) c-à-d 𝐷𝐻 = 𝑑(𝐷, (𝐴𝐵𝐶)).
De nouveau cette définition pourrait laisser penser qu’elle dépend du choix du couple sommet-plan de
projection. Mais il n’en ai rien :
Proposition 14.15. Soit (, 𝐸) un espace affine euclidien orienté de dimension 3. Le volume (géomé-
1 | ⃖⃖⃖⃗ ⃖⃖⃖⃗ ⃖⃖⃖⃖⃗ ||
trique) d’un tétraèdre 𝐴𝐵𝐶𝐷 (𝐴, 𝐵, 𝐶, 𝐷 non coplanaires) est donné par (𝐴𝐵𝐶𝐷) = ||[𝐴𝐵, 𝐴𝐶, 𝐴𝐷 ]|.
6| |
⃖⃖⃖⃗ ⃖⃖⃖⃗ ⃖⃖⃖⃖⃗ ⃖⃖⃖⃗ ⃖⃖⃖⃗ ⃖⃖⃖⃖⃗ ⃖⃖⃖⃗ ⃖⃖⃖⃗ ⃖⃖⃖⃖⃗ ⃖⃖⃖⃗ ⃖⃖⃖⃗ ⃖⃖⃖⃖⃗
[𝐴𝐵, 𝐴𝐶, 𝐴𝐷 ] = ⟨𝐴𝐵 ∧ 𝐴𝐶|𝐴𝐷⟩ = ⟨𝐴𝐵 ∧ 𝐴𝐶|𝐴𝐻 ⟩ + ⟨𝐴𝐵 ∧ 𝐴𝐶|𝐻 𝐷⟩.
73
Demi-droites vectorielles et affines
Définition 15.1. Soit (, 𝐸) un espace affine réel.
1. Une demi-droite vectorielle de 𝐸 est une partie 𝐷+ de 𝐸 de la forme
+
⃗ 𝜆 ∈ ℝ+ } avec 𝑢⃖⃗ un vecteur non nul de 𝐸. Tout vecteur non
𝐷+ = {𝜆⃖𝑢, 𝑢⃖⃗
𝐴
nul de 𝐷+ est appelé une direction de 𝐷+ .
2. Une demi-droite affine de est une partie + de de la forme + = 𝐴 + 𝐷+
avec 𝐴 un point de , appelé origine, et 𝐷+ une demi-droite de 𝐸 appelé di- 𝑣⃖⃗
rection de + . Tout vecteur non nul de 𝐷+ est également appelé une direction − 𝑢⃖⃗
de + . 𝐴
+
3. Deux demi-droites vectorielles 𝐷+ et 𝐷+′ , respectivement affines (+ , 𝐷+ ),
(, 𝐷+′ ) de même origine, sont dites opposées si 𝐷+ = −𝐷+′ .
′
notée 𝑆(𝐷+ , 𝐷+ ), définie par 𝑆(𝐷+ , 𝐷+′ ) = {𝛼 𝑢⃖⃗ + 𝛽 𝑣,
⃖⃗ 𝛼, 𝛽 ∈ ℝ+ }.
2. Soit + , ′+ des demi-droites de même origine 𝐴, non opposées et de direc-
𝑣⃖⃗
⃖⃗ Le secteur délimité par + et ′+ est la partie de , no-
tion respective 𝑢⃖⃗ et 𝑣. 𝑢⃖⃗
⃖⃖⃖⃖⃗ = 𝛼 𝑢+𝛽
tée 𝑆(+ , ′+ ), définie par 𝑆(+ , ′+ ) = {𝑀 ∈ |∃𝛼, 𝛽 ∈ ℝ+ , 𝐴𝑀 ⃖⃗ 𝑣}.
⃖⃗ 𝐴
De même que pour les droites, l’image d’une demi-droite par un automorphisme est une demi-droite.
Dans le cas vectoriel il est évident que l’image d’une demi-droite de direction 𝑢⃖⃗ par un automorphisme
⃗ Dans le cas affine il est également simple de vérifier
linéaire 𝜓 est une demi-droite de direction 𝜓 (⃖𝑢).
que :
Proposition 15.1. Soient (, 𝐸) un espace affine euclidien et (+ , 𝐷+ ) une demi-droite affine d’origine
𝐴. Pour tout 𝑓 ∈ GA(𝐸) l’image de + par 𝑓 est la demi-droite d’origine 𝑓 (𝐴) et de direction 𝑓 (𝐷+ ). De
plus si (′+ , 𝐷+′ ) est une autre demi-droite d’origine 𝐴, non opposée à + alors
𝑓 (𝑆(+ , ′+ )) = 𝑆(𝑓 (+ ), 𝑓 (′+ )).
74
15.1 Angles non orientés de vecteurs
Un angle est un secteur délimité par deux demi-droites ou plus sim-
plement par la donnée d’un vecteur directeur, que l’on peut supposer
unitaire, pour chaque demi-droites. De plus avec la notion intuitive des
angles on dit que deux angles sont égaux si on peut les superposer en
les déplaçant ou en les retournant c-à-d si on peut passer de l’un à l’autre
par une isométrie du plan. Mathématiquement l’ensemble associer à cette
notion est un quotient de l’ensemble des couples de vecteurs unitaires.
Soit 𝐸 un espace euclidien. On considère l’ensemble 𝕌(𝐸) des vecteurs unitaires de 𝐸. Un secteur est
alors entièrement déterminé par la donnée d’un couple d’éléments de 𝕌(𝐸) et deux angles sont égaux si
et seulement si on peut passer de l’un à l’autre par une isométrie de 𝑂(𝐸). On définit donc une relation
sur 𝕌(𝐸)2 par :
Remarque :
⋀ ⋀
1. Le terme non orienté employé est justifié par le fait que 𝑢, ⃖⃗ 𝑣⃖⃗ = 𝑣,
⃖⃗ 𝑢⃖⃗. Cette égalité est une consé-
quence de la proposition suivante.
{ ⋀ }
⃖⃗ 𝑣⃖⃗ = (𝜓 (⃖𝑢⃗′ ), 𝜓 (⃖⃗
⃖⃗ ∈ 𝕌(𝐸)2 on a 𝑢,
⃗ 𝑣)
2. Pour tout (⃖𝑢, 𝑣 ′ ) ∈ 𝕌(𝐸)2 , 𝜓 ∈ 𝑂(𝐸) .
3. L’angle non orienté associé à deux vecteurs 𝑢, ⃖⃗ 𝑣⃖⃗ non nuls de 𝐸 est la classe du couple de vecteurs
⋀
normalisés : ⃗𝑢 , ⃗𝑣 .
‖⃗𝑢‖ ‖⃗𝑣 ‖
Il n’est aisé de travailler avec cette définition des angles. Nous allons en donner une autre caractérisation
par le produit scalaire :
Proposition 15.2. Soit 𝐸 un espace euclidien.
⃖⃗ (⃖𝑢⃗′ , 𝑣⃖⃗′ ) ∈ 𝕌(𝐸)2 . Il existe une isométrie 𝜓 de 𝑂(𝐸) telle que 𝜓 (⃖𝑢)
⃗ 𝑣),
1. Soit (⃖𝑢, ⃗ = 𝑢⃖⃗′ et 𝜓 (⃖⃗
𝑣) = 𝑣⃖⃗′
′ ′
si et seulement si ⟨⃖𝑢|⃖⃗ ⃗ 𝑣⟩ = ⟨⃖𝑢⃗ |⃖⃗
𝑣 ⟩. Si de plus dim(𝐸) ⩾ 3 alors on peut considérer que 𝜓 est une
isométrie directe.
2. L’ensemble 𝔸 ̂ est en bijection avec [−1, 1].
Remarque :
⃗ 𝑣⃖⃗ ∈ 𝕌(𝐸)2 ) on a ⟨⃖𝑢|⃖⃗
1. En particulier pour tout couple (⃖𝑢, ⃗ 𝑣⟩ = ⟨⃖⃗ ⃗ Donc d’après la proposition
𝑣|⃖𝑢⟩.
⋀ ⋀
⃖⃗ 𝑣⃖⃗ = 𝑣,
𝑢, ⃖⃗ 𝑢⃖⃗.
Cette caractérisation des angles non orientés ne respecte pas la propriété d’ad- 𝑢⃖⃗ ⃖⃗
𝑤
2. ditivité intuitive des angles non orienté : si 𝑤 ⃖⃗ est dans le secteur délimité par
⃖𝑢⃗ et 𝑣,
⃖⃗ c-à-d 𝑤
⃖⃗ = 𝜆1 𝑢⃖⃗ + 𝜆2 𝑣⃖⃗ avec 𝜆1 , 𝜆2 ∈ ℝ+ , alors ⟨⃖𝑢|
⃗ 𝑤⟩
⃖⃗ + ⟨𝑤|⃖⃗
⃖⃗ 𝑣⟩ ≠ ⟨⃖𝑢|⃖⃗
⃗ 𝑣⟩. 𝑣⃖⃗
75
⃖⃗ 𝑣⃖⃗ ∈ 𝐸
Proposition 15.3. Soit 𝐸 un espace euclidien. L’angle non orienté de deux vecteurs unitaires 𝑢,
est le réel : ⋀
Notation : De façon rigoureuse l’angle non orienté est l’objet géométrique (classe d’équivalence d’un
secteur délimité par des vecteurs) et la valeur dans [0, 𝜋] associée est sa mesure. Ces deux notions étant
en bijection on choisit, pour alléger les notations, de les identifier.
Remarque :
1. L’angle non orienté de deux vecteurs non nuls 𝑢, ⃖⃗ 𝑣⃖⃗ est par définition l’angle non orienté des vec-
⋀
⃗ 𝑣⟩
⟨⃖𝑢|⃖⃗ 𝑢⃖⃗ 𝑣⃖⃗ ⋀
2. Par définition pour tous vecteurs non nuls 𝑢, ⃖⃗ 𝑣⃖⃗ de 𝐸 on a ⟨⃖𝑢|⃖⃗⃗ 𝑣⟩ = ‖𝑢⃖⃗‖ ‖‖𝑣⃖⃗‖‖ cos 𝑢,
⃖⃗ 𝑣⃖⃗.
En dimension 3 on peut relier le produit vectoriel et les angles non orientés :
Proposition 15.4. Soient (, 𝐸) un espace affine euclidien orienté de dimension 3. Pour tous vecteurs
⃖⃗ 𝑣⃖⃗ de 𝐸, on a
non nuls 𝑢, ⋀
𝜋
⃖⃗ 𝑣⃖⃗ =
1. 𝑢, 2
si et seulement si 𝑢⃖⃗ ⟂ 𝑣⃖⃗ ;
⋀
⋀
⃖⃗ 𝑣⃖⃗
𝑢, si 𝛼𝛽 > 0
4. Pour tout 𝛼, 𝛽 ∈ ℝ∗ 𝛼 𝑢,⃖⃗ 𝛽 𝑣⃖⃗ = ⋀ .
𝜋 − 𝑢, ⃖⃗ 𝑣⃖⃗ si 𝛼𝛽 > 0
Notation : Dans le cas d’un espace affine euclidien (, 𝐸) pour 𝐴, 𝐵, 𝐶 trois points de avec 𝐴 distinct
⋀
⋀ ⋀ ⋀
76
15.3 Angles non orientés de demi-droites, et de droites
Si 𝐷+ est 𝐷+′ sont des demi-droites vectorielles de 𝐸 alors d’après la proposition 15.5 pour tout
⋀ ⋀
1. L’angle non orienté 𝐷+ , 𝐷+′ de deux demi-droites vectorielles 𝐷+ , 𝐷+′ est l’angle non orienté 𝑢,
⃖⃗ 𝑣⃖⃗
′
où 𝑢⃖⃗ est une direction de 𝐷+ et 𝑣⃖⃗ est une direction de 𝐷+ .
⋀
2. L’angle non orienté + , ′+ de deux demi-droites affines (+ , 𝐷+ ), (′+ , 𝐷+′ ) est l’angle non
orienté de leurs directions.
Remarque : On ne demande pas nécessairement dans la définition des angles non orientés de demi-
droites affines qu’elles soient de même origine.
Il découle immédiatement des propriétés des angles non orientés de vecteurs la proposition suivante :
Proposition 15.7. Soient (, 𝐸) un espace affine euclidien, et (+ , 𝐷+ ), (′+ , 𝐷+′ ) des demi-droites de
de même origine.
⋀
1. Soit 𝐷, 𝐷 ′ des droites vectorielles de 𝐸. L’angle non orienté 𝐷, 𝐷 ′ des deux droites vectorielles
|⟨⃖𝑢|⃖⃗
⃗ 𝑣⟩|| 𝜋
𝐷, 𝐷 ′ est le réel : 𝐷, 𝐷 ′ = arccos |
⋀
⃗ et 𝐷 ′ = Vect(⃖⃗
∈ 0, , où 𝐷 = Vect(⃖𝑢) 𝑣).
( ‖𝑢⃖⃗‖‖𝑣⃖⃗‖ ) [ 2 ]
⋀
2. L’angle non orienté , ′ de deux droites affines (, 𝐷), (′ , 𝐷 ′ ) est l’angle non orienté de leurs
directions.
Les angles non orientés de droites sont nettement moins intéressants que les notions d’angles de
demi-droites ou de vecteurs. On peut uniquement donner la proposition suivante découlant des proprié-
tés du produit scalaire :
Proposition 15.8. Soient (, 𝐸) un espace affine euclidien, et , ′ des droites de .
⋀
1. , ′ = 0 si et seulement si ∥ ′ ;
⋀
𝜋
2. , ′ = 2
si et seulement si ⟂ ′ ;
77
Les angles que l’on a considéré dans la section précédente sont non orientés car il existe toujours
une isométrie envoyant un couple de vecteurs (⃖𝑢, ⃗ 𝑣)
⃖⃗ unitaire sur le couple (⃖⃗ ⃖⃗ A priori pour un es-
𝑣, 𝑢).
pace euclidien de dimension quelconque on ne sait pas s’il s’agit d’une isométrie directe ou indirecte.
En fait on peut toujours considérer qu’il s’agit d’une isométrie indirecte. Si
𝑢⃖⃗ − 𝑣⃖⃗
𝑢⃖⃗ = 𝑣⃖⃗ toute réflexion par rapport à un hyperplan contenant 𝑢⃖⃗ convient. Sinon 𝑢⃖⃗ 𝑢⃖⃗ + 𝑣⃖⃗
⟂
la réflexion par rapport à 𝐻 = 𝐷 avec 𝐷 = Vect(⃖𝑢⃗ − 𝑣) ⃖⃗ échange 𝑢⃖⃗ et 𝑣⃖⃗ car
𝑢⃖⃗ = ⃗𝑢+2⃗𝑣 + ⃗𝑢−2⃗𝑣 ∈ 𝐻 ⊕ 𝐷 et par conséquent 𝑠𝐻 (⃖𝑢)
⃗ = 2𝑝𝐻 (⃖𝑢)
⃗ − 𝑢⃖⃗ = 𝑣.
⃖⃗ 𝑣⃖⃗
Ainsi si on veut parler d’égalités d’angles orientés, on doit se restreindre à des isométries directes. Mal-
heureusement cela n’est pas encore suffisant car d’après la proposition 15.2 si la dimension de l’espace
euclidien est supérieure ou égale à 3 il existe toujours une isométrie de SO(𝐸) échangeant les vecteurs. Par
conséquent pour parler d’angles orientés nous sommes obligés de nous placer dans un espace euclidien
de dimension 2.
Soit 𝐸 un plan euclidien. De même que pour les angles non orientés on considère une relation 𝑂
sur 𝕌(𝐸)2 définie par :
Remarque :
{ ⋀ }
⃗ 𝑣⃖⃗) = (𝜓 (⃖𝑢⃗′ ), 𝜓 (⃖⃗
⃖⃗ ∈ 𝕌(𝐸)2 on a (⃖𝑢,
⃗ 𝑣)
1. Pour tout (⃖𝑢, 𝑣 ′ ) ∈ 𝕌(𝐸)2 , 𝜓 ∈ SO(𝐸) .
2. L’angle orienté associé à deux vecteurs 𝑢, ⃖⃗ 𝑣⃖⃗ non nuls de 𝐸 est la classe du couple de vecteurs
⋀
⋀
On a vu que SO(𝐸) est un groupe abélien. Comme l’ensemble 𝐴̂ 𝑂 est en bijection par Φ avec SO(𝐸)
̂ 𝑂 , c-à-d munir 𝐴̂ 𝑂 d’une structure de
on peut transporter la structure de groupe abélien de SO(𝐸) sur 𝔸
groupe abélien telle que Φ soit un morphisme de groupes.
⋀ ⋀ ⋀
(⃖𝑢⃗′ , 𝑣⃖⃗′ ) = (⃖𝑢⃗′′ , 𝑣⃖⃗′′ ) où 𝑢⃖⃗′′ ∈ 𝕌(𝐸) est un vecteur arbitraire et 𝑣⃖⃗′′ = 𝜓 ′ ◦𝜓 (⃖𝑢⃗′′ ) avec 𝜓 , 𝜓 ′ ∈ SO(𝐸) tels
que 𝜓 (⃖𝑢) ⃗ = 𝑣⃖⃗ et 𝜓 ′ (⃖𝑢⃗′ ) = 𝑣⃖⃗′ .
𝑢⃖⃗ 𝑣⃖⃗′′
𝑣⃖⃗′
𝜓′
𝜓 𝜓
𝜓′ 𝜓 (⃖𝑢⃗′′ )
𝑢⃖⃗′′
𝑢⃖⃗′
𝑣⃖⃗
78
⋀
⃗ 𝑣⃖⃗) avec 𝑢,
â pour tout angle orienté (⃖𝑢, ⃖⃗ 𝑣⃖⃗ ∈ 𝕌(𝐸) son symétrique pour la loi interne est (⃖⃗
𝑣, 𝑢⃖⃗). En
effet par définition le symétrique est Φ−1 (𝜓 −1 ) où 𝜓 ∈ SO(𝐸) tel que 𝜓 (⃖𝑢)
⋀
⃖⃗ Donc 𝜓 −1 (⃖⃗
⃗ = 𝑣. 𝑣) = 𝑢⃖⃗ et
par conséquent Φ−1 (𝜓 −1 ) = (⃖⃗
𝑣, 𝑢⃖⃗).
En particulier on a la relation de Chasles pour les angles orientés :
⋀ ⋀ ⋀
⃗ 𝑣⃖⃗), (⃖⃗
Proposition 15.10. Soit 𝐸 un plan euclidien. Pour tous angles orientés (⃖𝑢, ⃖⃗), et (⃖𝑢⃗′ , 𝑣⃖⃗′ ) on a
𝑣, 𝑤
⋀ ⋀ ⋀
⃗ 𝑣⃖⃗) + (⃖⃗
1. (⃖𝑢, ⃖⃗) = (⃖𝑢,
𝑣, 𝑤 ⃗𝑤 ⃖⃗), (Relation de Chasles) ;
⋀ ⋀
𝑣, 𝑢⃖⃗) = −(⃖𝑢,
2. (⃖⃗ ⃗ 𝑣⃖⃗) ;
⋀ ⋀ ⋀ ⋀
𝑣⃖⃗ 𝑣⃖⃗
𝑢⃖⃗′ 𝑢⃖⃗′
Preuve : Le point 2. est une conséquence du calcul du symétrique d’un angle orienté pour la loi de
groupe. Le point 3. est une conséquence de la relation de Chasles. On peut toujours considérer que les
vecteurs définissant les angles du point 1. sont unitaires. D’après la discussion précédente pour 𝜓 , 𝜓 ′ ∈
⋀ ⋀ ⋀
⃗ = 𝑣⃖⃗ et 𝜓 ′ (⃖⃗
SO(𝐸) tels que 𝜓 (⃖𝑢) ⃖⃗ on a 𝜓 ′ ◦𝜓 (⃖𝑢)
𝑣) = 𝑤 ⃗ =𝑤
⃖⃗ c-à-d (⃖𝑢,
⃗ 𝑣⃖⃗) + (⃖⃗ ⃖⃗) = (⃖𝑢,
𝑣, 𝑤 ⃗𝑤 ⃖⃗). ■
⃗ 𝑣⃖⃗) ⟼ ⟨⃖𝑢|⃖⃗
(⃖𝑢, ⃗ 𝑣⟩ + 𝑖[⃖𝑢,
⃗ 𝑣]
⃖⃗
⃗ 𝑣⟩2 + [⃖𝑢,
⃖⃗ 𝑣⃖⃗ ∈ 𝕌(𝐸) on a ⟨⃖𝑢|⃖⃗
Remarque : En particulier pour tout 𝑢, ⃖⃗ 2 = 1. On en déduit que pour tout
⃗ 𝑣]
2 2
⃗ 𝑣⟩2 + [⃖𝑢,
⃖⃗ 𝑣⃖⃗ ∈ 𝐸 non nuls on a : ⟨⃖𝑢|⃖⃗
𝑢, ⃖⃗ 2 = ‖𝑢⃖⃗‖ ‖𝑣⃖⃗‖ .
⃗ 𝑣]
A tout élément de 𝕌 on peut associer une quantité, qui est une classe d’équivalence modulo 2𝜋,
caractérisant l’angle.
Lemme
{ 15.1. Soient 𝑎, 𝑏 ∈ ℝ tels que 𝑎2 + 𝑏 2 = 1. Alors l’ensemble des solutions du système d’inconnu 𝜃 ∈ ℝ
cos(𝜃) = 𝑎
est une classe de congruence modulo 2𝜋, c-à-d un élément du groupe quotient ℝ/2𝜋ℤ.
𝑠𝑖𝑛(𝜃) = 𝑏
79
{
𝛼 si 𝑏 ⩾ 0
par 𝜃 = on a 𝑎 = cos(𝜃) et 𝑏 = sin(𝜃). Donc l’ensemble des solutions est non vide
−𝛼 si 𝑏 ⩽ 0
et d’après les propriétés des fonctions sinus et cosinus tout élément de la classe de 𝜃 est une solution.
Inversement si 𝜃 ′ est une autre solution alors ces même propriétés montre que 𝜃 − 𝜃 ′ ∈ 2𝜋ℤ. ■
En particulier on obtient une bijection ensembliste entre 𝕌 et ℝ/2𝜋ℤ, c-à-d entre les groupes abéliens
𝐴̂ 𝑂 et ℝ/2𝜋ℤ. Cette bijection respecte les structures des 2 groupes :
Proposition 15.11. Soit 𝐸 un plan euclidien orienté. Les groupes 𝐴̂ 𝑂 et ℝ/2𝜋ℤ sont isomorphes.
On peut donc identifier l’angle orienté avec sa classe de congruence modulo 2𝜋 et par extension aux
vecteurs non nuls on a montré que :
⃗ 𝑣⟩
⟨⃖𝑢|⃖⃗ ⃗ 𝑣]
[⃖𝑢|⃖⃗
cos(𝜃) = , et sin(𝜃) = .
‖𝑢⃖⃗‖‖𝑣⃖⃗‖ ‖𝑢⃖⃗‖‖𝑣⃖⃗‖
éléments de la classe congruence (⃖𝑢, ⃗ 𝑣⃖⃗) sont appelés les mesures de l’angle (⃖𝑢,
⃗ 𝑣⃖⃗) et l’unique mesure de
⋀ ⋀
Remarque : Si l’on change l’orientation de 𝐸 alors les angles orientés sont changés en leurs opposés
c-à-d multipliés par −1. En effet changer l’orientation revient à changer la classe des bases directes en
la classe des bases indirectes. Par conséquent dans la définition des mesures de l’angles orientés, celle-ci
ont le même cosinus mais le sinus est multiplié par −1. Elles sont donc changées en leurs opposées.
La notion d’angle orienté est liée à celle des angles non orientés :
Proposition 15.13. Soient 𝐸 un plan euclidien orienté et 𝑢, ⃖⃗ 𝑣⃖⃗ des vecteurs non nuls de 𝐸.
⋀ ⋀
⋀
⃖⃗ 𝑣⃖⃗
𝑢, ⃗ 𝑣]
si [⃖𝑢, ⃖⃗ ⩾ 0
⃗ 𝑣⃖⃗) on a 𝜃 =
(⃖𝑢, ⋀ .
⃗ 𝑣⃖⃗
−⃖𝑢, ⃗ 𝑣]
si [⃖𝑢, ⃖⃗ ⩽ 0
{ ⋀
⃖⃗ 𝑣⃖⃗
𝑢, ⃗ 𝑣)
si (⃖𝑢, ⃖⃗ est une base directe,
Dans le cas où 𝑢⃖⃗ et 𝑣⃖⃗ sont indépendants on a 𝜃 = ⋀ .
⃗ 𝑣⃖⃗
−⃖𝑢, ⃗ 𝑣)
si (⃖𝑢, ⃖⃗ est une base indirecte
En utilisant ce lien entre angles orientés et non orientés on en déduit les propriétés suivantes :
80
⃖⃗ 𝑣⃖⃗ des vecteurs non nuls de 𝐸 et 𝛼, 𝛽 des réels
Proposition 15.14. Soient 𝐸 un plan euclidien orienté, 𝑢,
non nuls.
⋀
𝜋
⃗ 𝑣⃖⃗) =
3. (⃖𝑢, 2
⃗ 𝑣)
[2𝜋] si et seulement si (⃖𝑢, ⃖⃗ est une base orthonormée directe ;
⋀
⋀
⃗ 𝑣⃖⃗)
(⃖𝑢, si 𝜆1 𝜆2 > 0
⃖⃗ 𝜆2 𝑣⃖⃗) =
5. (𝜆1 𝑢, ⋀ .
⃗ 𝑣⃖⃗) + 𝜋
(⃖𝑢, si 𝜆1 𝜆2 < 0
Preuve : La méthode est la même pour chacun des 5 points. On se ramène aux propriétés des angles
non orientés de la proposition 15.5. Par exemple pour le point 1. notons 𝜃 ∈] − 𝜋, 𝜋] la mesure principale
⋀ ⋀
⃗ 𝑣⃖⃗) et 𝛼 = 𝑢,
de (⃖𝑢, ⃖⃗ 𝑣⃖⃗ ∈ [0, 𝜋]. On a
⋀
1. L’angle orienté (𝐷+ , 𝐷+′ ) de deux demi-droites vectorielles 𝐷+ , 𝐷+′ de 𝐸 est l’angle orienté (⃖𝑢,
⃗ 𝑣⃖⃗)
′
où 𝑢⃖⃗ est une direction de 𝐷+ et 𝑣⃖⃗ est une direction de 𝐷+ .
⋀
2. L’angle orienté (+ , ′+ ) de deux demi-droites affines (+ , 𝐷+ ), (′+ , 𝐷+′ ) est l’angle orienté de
leurs directions.
Un angle orienté de demi-droites est donc une classe du groupe ℝ/2𝜋ℤ. De même que pour les angles
orientés de vecteurs, les éléments de cette classe sont appelés ces mesures et l’unique mesure dans ]−𝜋, 𝜋]
est appelé la mesure principale.
Il découle immédiatement des propriétés des angles orientés de vecteurs la proposition suivante :
81
Proposition 15.15. Soient (, 𝐸) un plan affine euclidien orienté, et 1+ , 2+ , 3+ , 4+ , des demi-droites
de de même origine.
⋀ ⋀
4. (1+ , 2+ ) = 𝜋2 [2𝜋] si et seulement si 1+ ⟂ 2+ et pour tout vecteurs directeurs 𝑢⃖⃗1 de 1+ et 𝑢⃖⃗2 de
2+ la base (⃖𝑢⃗1 , 𝑢⃖⃗2 ) est directe ;
⋀
5. (1+ , 2+ ) = − 𝜋2 [2𝜋] si et seulement si 1+ ⟂ 2+ et pour tout vecteurs directeurs 𝑢⃖⃗1 de 1+ et 𝑢⃖⃗2
de 2+ la base (⃖𝑢⃗1 , 𝑢⃖⃗2 ) est indirecte.
2+
⋀ ⋀
1+
6. Si 1− est la demi-droite opposée à 1+ alors (1− , 2+ ) = (1+ , 2+ ) + 𝜋 [2𝜋] ; 𝐴
1−
⋀ ⋀ ⋀
1. L’angle orienté (𝐷, 𝐷 ′ ) de deux droites vectorielles 𝐷, 𝐷 ′ de 𝐸 est l’ensemble des mesures de tous
⋀
2. L’angle orienté (, ′ ) de deux droites affines (, 𝐷), (′ , ′ ) est l’angle orienté de leurs direc-
tions.
Contrairement aux angles orientés de demi-droites, les angles orientés de droites ne sont pas une
classe du groupe ℝ/2𝜋ℤ. Plus précisément d’après les propriétés des angles orientés de vecteurs on a :
Proposition 15.16. Soient (, 𝐸) un plan affine euclidien orienté, (, 𝐷), (′ , 𝐷 ′ ) des droites affines et
𝜃 ∈ ℝ. Les assertions suivantes sont équivalentes :
⋀
⃗ 𝑣⃖⃗) = 𝜃 + 𝜋 [2𝜋].
(⃖𝑢,
⋀
5. (, ′ ) = 𝜃 [𝜋].
⋀
En particulier l’angle orienté (, ′ ) est une classe de congruence modulo 𝜋 donc un élément du groupe
abélien ℝ/𝜋ℤ.
Par conséquent on peut définir la mesure principale d’un angle orienté de droites par :
82
Définition 15.10. Soient (, 𝐸) un plan affine euclidien orienté, et (, 𝐷), (′ , 𝐷 ′ ) des droites affines.
⋀ ⋀
Il découle immédiatement des propriétés des angles orientés de vecteurs la proposition suivante :
Proposition 15.17. Soient (, 𝐸) un plan affine euclidien orienté, et 1 , 2 , 3 , 4 , des droites de .
⋀ ⋀
𝜋
3. (1 , 2 ) = 2
[𝜋] si et seulement si 1 ⟂ 2 ;
⋀ ⋀ ⋀
5. (1 , 2 ) = −(2 , 1 ) ;
⋀ ⋀ ⋀ ⋀
Inversement une application conservant les angles orientés ou les changeant en leur opposés conserve
en particulier l’orthogonalité. Donc un endomorphismes vectoriel ou affine injectif conservant les angles
83
orientés ou les changeant en leur opposés est une similitude vectoriel respectivement affine. On peut être
plus précis :
Proposition 15.20. Soient (, 𝐸) un plan affine euclidien orienté et 𝜓 (respectivement 𝑓 ) un endomor-
phisme vectoriel de 𝐸 (respectivement affine de ) injectif. Les assertions suivantes sont équivalentes :
1. 𝜓 est une similitude directe (respectivement indirecte) ;
2. 𝜓 conserve les notions d’angles orientés (respectivement change les notion d’angles orientés en
leur opposés).
Preuve : Par définition des notions d’angles orientés dans le cas affine, le cas des endomorphismes
affine est une conséquence du cas vectoriel. Pour ce cas on a déjà vu que 1. implique 2.. Inversement on
suppose dans un premier temps que 𝜓 est un endomorphisme injectif de 𝐸 conservant les angles orientés
de vecteurs (le même preuve fonctionne pour des angles de demi-droites ou de droites en considérant
⃖⃗ 𝑣⃖⃗ ∈ 𝐸 non nuls les demi-droites ou des droites de directions 𝑢⃖⃗ et 𝑣).
pour 𝑢, ⃖⃗ Alors pour 𝑢,
⃖⃗ 𝑣⃖⃗ des vecteurs
⋀ ⋀
⃗ 𝜓 (⃖⃗
non nuls de 𝐸 on a (𝜓 (⃖𝑢), ⃗ 𝑣⃖⃗). Fixons 𝑢⃖⃗ ∈ 𝐸 non nul.
𝑣)) = (⃖𝑢,
⋀ ⋀
84
16 Plan affine euclidien orienté
On a vu que la notion d’angle orienté n’est définie que dans un plan affine euclidien orienté. Cette
particularité nécessite une étude particulière de ces espaces. Lors de cette étude certains résultats sont
uniquement vrais dans le plan d’autre le sont en dimensions plus grande.
Sans précisions on se placera toujours dans cette partie dans un plan (, 𝐸) affine euclidien orienté.
16.1 Rotations
Soit 𝜃 ∈ ℝ. Alors par la construction des mesures d’angles orientés il existe une unique isométrie
directe 𝜓 de SO(𝐸) correspondant l’angle orienté 𝜃 [2𝜋]. On peut donc définir une rotation par :
Définition 16.1. Soient (, 𝐸) un plan affine euclidien orienté, 𝐴 ∈ et 𝜃 ∈ ℝ. La rotation de centre 𝐴
et d’angle 𝜃, noté 𝑟𝐴,𝜃 , est l’application affine de dans définie par 𝑟𝐴,𝜃 (𝐴) = 𝐴 et de partie linéaire
l’isométrie directe correspondant à l’angle orienté 𝜃 [2𝜋].
Remarque :
1. Le terme d’angle utilisé dans la définition est un abus de vocabulaire. En effet 𝜃 n’est un angle
mais une mesure d’angle.
2. Par définition on a 𝑟𝐴,𝜃 = 𝑟𝐴,𝜃 ′ si et seulement si 𝜃 = 𝜃 ′ [2𝜋].
3. En particulier une rotation est une isométrie directe. Donc elle conserve les distances, l’orthogo-
nalité, les angles non orientés et orientés.
On peut donner une autre caractérisation des rotations :
Proposition 16.1. Soient (, 𝐸) un plan affine euclidien orienté, 𝑓 ∶ → une
𝑀′
application ensembliste, 𝐴 ∈ et 𝜃 ∈ ℝ. L’application 𝑓 est la rotation de centre
𝐴 et d’angle 𝜃 si et seulement 𝑓 (𝐴) = 𝐴 et pour tout 𝑀 ∈ différent de 𝐴 l’image 𝜃 𝑀
𝐴𝑀 ′ = 𝐴𝑀, ⃖⃖⃖⃖⃗ 𝐴𝑀
et (𝐴𝑀, ⃖⃖⃖⃖⃖⃗′ ) = 𝜃 [2𝜋].
85
16.2 Bissectrices
La notion de bissectrices découle du fait suivant :
Proposition 16.3. Soient (, 𝐸) un plan affine euclidien orienté, et 1+ , 2+ des 2+ Δ
demi-droites de même origine 𝐴. Il existe une unique droite Δ telle que la réflexion 𝑃2
𝑠Δ échange 1+ et 2+ . Plus précisément
1. Si 1+ ≠ 2+ alors Δ est la médiatrice de tout segment [𝑃1 𝑃2 ] avec 𝑃1 ∈ 1+ 𝑃1 1+
et 𝑃2 ∈ 2+ tels que 𝐴𝑃1 = 𝐴𝑃2 ≠ 0 ;
2. si 1+ = 2+ alors Δ est la droite passant par 𝐴 et de direction Vect(⃖𝑢)
⃗ avec 𝐴
𝑢⃖⃗ un vecteur non nul de 𝐷+1 = 𝐷+2 .
Remarque : En d’autre terme la figure géométrique formée par deux demi-droites de même origine 𝐴
possède un unique axe de symétrie. De plus cet axe passe par 𝐴.
On peut donc définir une bissectrice par :
Définition 16.2. Soient (, 𝐸) un plan affine euclidien orienté, et 1+ , 2+ des demi-droites de même
origine 𝐴. L’unique axe de symétrie de la figure formée par 1+ et 2+ s’appelle la bissectrice intérieur
du couple (1+ , 2+ ).
Preuve :
⋀ ⋀
1. Soit + une demi-droite d’origine 𝐴 supportée par Δ. Par hypothèse (3+ , 1+ ) = (2+ , 4+ ) = 𝜋 [2𝜋].
Alors d’après la proposition précédente on a
⋀ ⋀ ⋀ ⋀ ⋀ ⋀
(3+ , + ) = (3+ , 1+ ) + (1+ , + ) = (2+ , 4+ ) + (+ , 2+ ) = (+ , 4+ ).
86
Définition 16.3. Soient (, 𝐸) un plan affine euclidien orienté, et 1+ , 2+ des demi-droites de même
origine 𝐴. La perpendiculaire en 𝐴 à la bissectrice intérieure (1+ , 2+ ) est appelé la bissectrice extérieur
du couple (1+ , 2+ ).
Δ′ 𝐻1 1
Proposition 16.7. Soient (, 𝐸) un plan affine euclidien orienté,1 , 2 des
droites sécantes en 𝐴 de . La réunion des bissectrices intérieures et extérieures 𝑀
Δ
des demi-droites portés par 1 et 2 est l’ensemble des points équidistants des
deux droites. 𝐴 2
𝐻2
Théorème 16.1. Soient (, 𝐸) un plan affine euclidien et 𝐴𝐵𝐶 un triangle de (𝐴, 𝐵, 𝐶 des points non
alignés). On note 𝑎 = 𝐵𝐶, 𝑏 = 𝐴𝐶, 𝑐 = 𝐴𝐵, l’aire de 𝐴𝐵𝐶, 𝑝 = 𝑎+𝑏+𝑐 ̂ 𝐵,
et 𝐴, ̂ 𝐶̂ les angles non
2
orientés associés au trois sommets.
1. 𝐴̂ + 𝐵̂ + 𝐶̂ = 𝜋 ;
̂ 𝑏 2 = 𝑎2 + 𝑐 2 − 2𝑎𝑐 cos 𝐵,
2. 𝑎2 = 𝑏 2 + 𝑐 2 − 2𝑏𝑐 cos 𝐴, ̂ 𝑐 2 = 𝑎2 + 𝑏 2 − 2𝑎𝑏 cos 𝐶̂ (Formule d’Al-Kashi) ;
3. 𝐴𝐵𝐶 est isocèle en 𝐴 (c-a-d 𝑏 = 𝑐) si et seulement si 𝐵̂ = 𝐶̂ ;
4. 𝐴𝐵𝐶 est équilatéral (c-a-d 𝑎 = 𝑏 = 𝑐) si et seulement si 𝐴̂ = 𝐵̂ = 𝐶̂ ;
5. Si 𝐴𝐵𝐶 est rectangle en 𝐴 alors cos 𝐵̂ = 𝑎𝑐 , sin 𝐵̂ = 𝑎𝑏 , tan 𝐵̂ = 𝑏𝑐 ;
√
6. = 𝑝(𝑝 − 𝑎)(𝑝 − 𝑏)(𝑝 − 𝑐) (Formule de Héron).
Proposition 16.8. Soient (, 𝐸) un plan affine euclidien orienté et 𝐴𝐵𝐶 un tri- 𝐵
angle de (𝐴, 𝐵, 𝐶 des points non alignés). On note 𝑎 = 𝐵𝐶, 𝑏 = 𝐴𝐶, 𝑐 = 𝐴𝐵
1. Les bissectrices intérieurs aux côtés du triangles sont concourantes
en un point 𝐼 qui est le barycentre du système de points pondérés
((𝐴, 𝑎), (𝐵, 𝑏), (𝐶, 𝑐)).
2. Le point 𝐼 est équidistant, d’une distance 𝑑, des 3 côtés du triangles. Le 𝐼
cercle de centre 𝐼 et de rayon 𝑑 est inscrit dans le triangle, c-à-d les côtés
𝐴
[𝐴𝐵], [𝐵𝐶], [𝐴𝐶] sont tangents au cercle. 𝐶
16.4 Cocyclicité
Définition 16.4. Soit (, 𝐸) un plan affine euclidien. Des points de sont dits cocycliques s’ils sont
situés sur un même cercle.
Exemple :
1. 2 points distincts 𝐴, 𝐵 sont toujours cocycliques. Il suffit de prendre le cercle de centre le milieu 𝐼
de [𝐴𝐵] et de rayon 𝐼 𝐴 = 𝐼 𝐵.
87
2. 3 points non alignés 𝐴, 𝐵, 𝐶 sont toujours cocycliques. On a déjà vu dans la proposition 12.10 que
les médiatrices sont concourantes en un point 𝐼 . Il suffit alors de prendre le cercle de centre 𝐼 et
de rayon 𝐼 𝐴 = 𝐼 𝐵 = 𝐼 𝐶. Ce cercle est appelé cercle circonscrit à 𝐴𝐵𝐶.
Afin d’étudier le cas de 4 points, on commence par donner quelques résultats préliminaires :
Lemme 16.1. Soient (, 𝐸) un plan affine euclidien orienté, et (1 , 𝐷1 ), (2 , 𝐷2 ), (3 , 𝐷3 ), (4 , 𝐷4 ) des droites
de . Soit 𝑢1 , 𝑢2 , 𝑢3 , 𝑢4 ∈ 𝐸 tels que 𝐷1 = Vect(𝑢1 ), 𝐷2 = Vect(𝑢2 ), 𝐷3 = Vect(𝑢3 ), 𝐷4 = Vect(𝑢4 ). Alors les
assertions suivantes sont équivalentes :
⋀ ⋀
1. (1 , 2 ) = (3 , 4 ) ;
⋀ ⋀
𝑀 𝐴
Théorème 16.2. Soient (, 𝐸) un plan affine euclidien
orienté, et 𝐴, 𝐵, 𝐶 des points distincts d’un cercle de 𝐴
de centre 𝑂. Soit 𝑀 un point, distinct de 𝐴, de la tangente
𝐴 à en 𝐴. On a 𝐵
⋀ ⋀
⃖⃖⃖⃖⃗ 𝑂𝐵
1. (𝑂𝐴, ⃖⃖⃖⃗) = 2(𝐶𝐴,
⃖⃖⃖⃗ 𝐶𝐵
⃖⃖⃖⃗) ;
⋀ ⋀ 𝑂
⃖⃖⃖⃖⃗ 𝑂𝐵
2. (𝑂𝐴, ⃖⃖⃖⃖⃗ 𝐴𝐵
⃖⃖⃖⃗) = 2(𝐴𝑀, ⃖⃖⃖⃗) ;
⋀ ⋀
Preuve : ⋀ ⋀
Il est évident que les points 𝐴, 𝐵, 𝐶, 𝐷 sont alignés si et seulement si ((𝐶𝐴), (𝐶𝐵)) = ((𝐷𝐴), (𝐷𝐵)) = 0 [𝜋].
Supposons que 𝐴, 𝐵, 𝐶, 𝐷 sont cocycliques. Soit 𝑂 le centre du cercle contenant ces points. Alors d’après
⋀ ⋀ ⋀
⃖⃖⃖⃗ 𝐶𝐵
le théorème de l’angle inscrit 2(𝐶𝐴, ⃖⃖⃖⃗) = (𝑂𝐴,
⃖⃖⃖⃖⃗ 𝑂𝐵
⃖⃖⃖⃗) = 2(𝐷𝐴,
⃖⃖⃖⃗ 𝐷𝐵
⃖⃖⃖⃗).
⋀ ⋀
D’où par le lemme 16.1 ((𝐶𝐴), (𝐶𝐵)) = ((𝐷𝐴), (𝐷𝐵)) [𝜋]. De plus par hypothèse 𝐴, 𝐵, 𝐶 sont cocycliques
⋀
donc ils ne sont pas alignés et par conséquent ((𝐶𝐴), (𝐶𝐵)) ≠ 0 [𝜋].
⋀ ⋀
Inversement supposons que ((𝐶𝐴), (𝐶𝐵)) = ((𝐷𝐴), (𝐷𝐵)) [𝑝𝑖] de valeur différente de 0 [𝜋]. Alors 𝐴, 𝐵, 𝐶
(respectivement 𝐴, 𝐵, 𝐷) ne sont pas alignés. Donc il existe deux cercles et ′ circonscrits respective-
ment à 𝐴𝐵𝐶 et 𝐴𝐵𝐷. On va montrer en utilisant le lemme précédent que = ′ . Soient 𝐴 la tangente
en 𝐴 à et 𝐴′ la tangente en 𝐴 à ′ . D’après le théorème de l’angle inscrit on a
⋀ ⋀ ⋀ ⋀
88
⋀ ⋀
Ainsi en utilisant la proposition 15.17 on a (𝐴 , 𝐴′ )) = ((𝐴𝐵), (𝐴𝐵)) = 0 [𝜋]. Par conséquent , ′ sont
cercles passant les points 𝐴, 𝐵 et admettant 𝐴 = 𝐴′ comme tangente en 𝐴. D’après le lemme précédent
on a forcément = ′ . ■
Références
[Aud06] Michèle Audin. Géométrie. EDP Sciences, 2006.
[Ber90] Marcel Berger. Géométrie 1. Nathan, 1990.
[Car85] Henri Cartan. Théorie élémentaire des fonctions analytiques d’une ou plusieurs variables com-
plexes. Hermann, 1985.
[DHP09] Marie-Claude David, Frédéric Haglund, and Daniel Perrin. Géométrie affine euclidienne. https:
//www.math.u-psud.fr/~perrin/CAPES.html, 2009.
[Lad02] Yves Ladegaillerie. Géométrie pour le CAPES de mathématiques. Ellipses, 2002.
[Ped15] Emmanuel Pedon. Cours de géométrie affine et euclidienne pour la licence de mathématiques.
http://pedon.perso.math.cnrs.fr/enseignement.html, 2015.
[Tau05] Patrice Tauvel. Géométrie. Dunod, 2005.
[VL12] Marc Van Leeuwen. Géométrie. http://wwwmathlabo.univ-poitiers.fr/~maavl/enseignement/,
2012.
89