Notes de Cours Analyse 4 Chap 2

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 23

Chapitre 2

Calcul différentiel dans Rn

Nous allons donner d’abord les principales notions de "dérivation" d’une fonction
de Rn −→ R. La norme utilisée désormais sera la norme euclidienne sauf mention
contraire.

2.1 Notions de différentiabilité


Définition 2.1.1 Soit U un ouvert de Rn . Une fonction f : U −→ R est dite diffé-
rentiable en un point a ∈ U s’il existe une application linéaire de Rn dans R, notée
dfa , telle que
f (a + h) − f (a) − dfa (h)
lim =0 (2.1)
�h�→0 �h�
L’application linéaire dfa s’appelle différentielle de f au point a, ou bien application
linéaire tangente en a. La différentiabilité de f sur U signifie sa différentiabilité en tout
point de U . En notant la fraction précédente par ε(h), on peut réécrire (2.1) comme
suit :
f (a + h) = f (a) + dfa (h)+�h�ε(h) (2.2)
où lim ε(h) = 0. Rappelons que la linéarité de dfa s’écrit ainsi
h→0

dfa (h) = dfa (h1 , h2 , . . . , hn ) = λ1 h1 + λ2 h2 + · · · + λn hn = �λ, h�

où les λi sont des constantes qui dépendent de a et �., .� est le produit scalaire usuel
de Rn .
Exemple 2.1.2 Examinons un exemple simple. Déterminons la différentielle de
f (x, y) = xy , définie sur R2 , en un point (a, b). Il est facile de voir que

f (a + h1 , b + h2 ) = (a + h1 )(b + h2 ) = ab + bh1 + ah2 + h1 h2

Deux candidats à la formule (2.2) s’offrent aisément : df(a,b) (h1 , h2 ) = bh1 + ah2 et
h1 h2
ε(h1 , h2 ) = � 2 si on choisit de travailler avec la norme euclidienne. Comme
h1 + h22
|h1 h2 | 1 1 �
≤ , alors |ε(h ,
1 2h )| ≤ √ |h1 h2 | qui assure que lim ε(h) = 0.
h21 + h22 2 2 h→0

11
12 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN

Définition 2.1.3 (Dérivation dans le sens d’un vecteur)


Soit f : U −→ R et a ∈ U . Fixons un vecteur v dans Rn . On appelle dérivée de f au
point a dans le sens du vecteur v la limite suivante, si elle existe,
f (a + tv) − f (a)
lim = (Dv f )(a) (2.3)
t→0 t
(remarquez que t est un réel).
Exemple 2.1.4 Examinons le cas de f (x, y) = x2 −y 2 avec a = (1, −1) et v = (1, 1).
On a
f (1 + t, −1 + t) = (1 + t)2 − (−1 + t)2 = 4t et f (a) = 0
d’où (Dv f )(a) = 4.
Définition 2.1.5 (Dérivation partielle)
Soit ej = (0, 0, . . . , 0, 1, 0, . . . , 0) le jème vecteur de la base canonique de Rn . On
appelle dérivée partielle de f par rapport à xj la dérivée de f dans le sens du vecteur
ej i.e,
∂f f (a1 , . . . , aj + t, . . . , an ) − f (a)
(a) = (Dej f )(a) = lim (2.4)
∂xj t→0 t
On appelle gradient de f le vecteur défini par
 
∂f
 ∂x1 
 ∂f 
 
�  
(∇f )(x) = (gradf )(x) =  ∂x2 
 .. 
 . 
 ∂f 
∂xn
Les deux notations sont consacrées. Le symbole ∇ se lit "nabla".
Exemple 2.1.6 Considérons f (x, y, z) = xy + xz + yz. Alors
∂f ∂f ∂f
(x, y, z) = y + z , (x, y, z) = x + z , (x, y, z) = x + y
∂x ∂y ∂z
∂f
Proposition 2.1.7 Si f est différentiable au point a, alors ∀j = 1, . . . , n; (a)
∂xj
existe, de plus
n
� ∂f
dfa (h) = hj (a) = �h, ∇f (a)� (2.5)
j=1
∂xj

Démonstration : On a par hypothèse


n

f (a + h) = f (a) + λj hj +�h�ε(h)
j=1
� �� �
dfa (h)
2.1. NOTIONS DE DIFFÉRENTIABILITÉ 13

Prenons alors h = tej , alors

f (a + tej ) = f (a) + tλj + |t|ε(tej )


∂f
Et d’après (2.4) on aura (a) = λj .
∂xj
Remarque 2.1.8 La réciproque est en général fausse. Examinons l’exemple suivant :

 � xy si (x, y) �= (0, 0)
f (x, y) = x2 + y 2
 0 si (x, y) = (0, 0)
∂f ∂f
Il est facile de voir que (0, 0) = 0 = (0, 0). Si f était différentiable, on aurait
∂x ∂y
forcément df(0,0) (h) = 0. Or
f (h1 , h2 ) − f (0, 0) − df(0,0) (h) h1 h2
= 2
�h� h1 + h22
ne tend manifestement pas vers 0 quand h tend vers (0, 0), elle n’a d’ailleurs pas de
limite.

Proposition 2.1.9 Si f est différentiable en a, alors elle est continue en ce point.


De plus elle est dérivable dans le sens de n’importe quel vecteur v et on a

(Dv f ) (a) = �(∇f ) (a), v�

Démonstration : La différentiabilité en a s’écrit

f (a + h) = f (a) + �(∇f ) (a), h� +�h�ε(h)

Ce qui donne aisément lim f (a + h) = f (a). Pour la deuxième affirmation, il suffit de


h→0
prendre h = tv.
Dans la remarque précédente nous avons vu que l’existence des dérivées partielles
premières n’implique pas en général la différentiabilité. Dans le prochain théorème,
nous allons rajouter l’hypothèse de continuité de ces dérivées partielles afin d’obtenir
la différentiabilité.
∂f
Théorème 2 Si toutes les dérivées partielles (x) existent dans un voisinage de a
∂xj
et sont continues en a, alors f est différentiable au point a.
n

Démonstration : Dans cette démonstration, on utilisera la norme �x�1 = |xi |
i=1
pour sa commodité. Posons
n
� ∂f
g(x) = f (x) − xi (a)
i=1
∂xj
14 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN

Nous allons montrer que g(x+h)−g(a) =�h�1 ε(h), c’est-à-dire que g est différentiable
en a de différentielle nulle, ce qui donnera le résultat escompté pour f . On a d’abord
∂g ∂f ∂f
(x) = (x) − (a)
∂xj ∂xj ∂xj

La continuité des dérivées partielles prise comme hypothèse peut s’exprimer ainsi :
∂g
∀ε > 0 ∃αε > 0 ∀x ∈ B(a, αε ) ∀j = 1, . . . , n | (x)| ≤ ε.
∂xj

Posons
y0 = (a1 , a2 , . . . , an ) = a
y1 = (x1 , a2 , . . . , an )
y2 = (x1 , x2 , a3 , . . . , an )
.. ..
. .
yn = (x1 , x2 , . . . , xn ) = x
Définissons n fonctions auxiliaires d’une variable par

gk : [ak , xk ] −→ R
t −→ gk (t) = g(x1 , x2 , . . . , xk−1 , t, ak−1 , . . . , an )

L’intervalle de définition peut tout aussi être [xk , ak ]. Remarquer que g1 (t) = g(t, a2 , . . . , an )
et gn (t) = g(x1 , x2 , . . . , xn−1 , t). D’après les données, les fonctions gk vérifient les hy-
pothèses du théorème classique des accroissements finis (à une variable). Donc on peut
écrire
∂g
gk (xk ) − gk (ak ) = (xk − ak )gk� (ck ) = (xk − ak ) (x1 , x2 , . . . , xk−1 , ck , ak−1 , . . . , an )
∂xk

=⇒ |gk (xk ) − gk (ak )| ≤ ε|xk − ak |


On a par ailleurs gk (xk ) = g(yk ) et gk (ak ) = g(yk−1 ). De là
n

g(x) − g(a) = g(yn ) − g(y0 ) = g(yk ) − g(yk−1 )
k=1

=⇒ |g(x) − g(a)| ≤ ε�x − a�1


ou encore
|g(a + h) − g(a)| ≤ ε�h�1
c’est-à-dire
g(a + h) − g(a)
lim =0
�h�1 →0 �h�1
2.2. DÉRIVÉES PARTIELLES D’ORDRE SUPÉRIEUR 15

2.2 Dérivées partielles d’ordre supérieur


∂f
Les dérivées partielles premières sont à leur tour des fonctions de Rn dans R,
∂xj � �
∂ ∂f ∂ 2f
susceptibles d’être dérivables. Leurs dérivées partielles, notées := ,
∂xi ∂xj ∂xi ∂xj
s’appellent dérivées partielles secondes, et ainsi de suite. Une question naturelle se pose
∂ 2f ∂ 2f
alors : peut-on avoir = pour i �= j ? Avec seulement la dérivabilité à
∂xi ∂xj ∂xj ∂xi
l’ordre 2 la réponse est non en général (voir exercice 4 de la série de T.D N◦ 2). Mais
avec la dérivabilité à l’ordre 2 et la continuité de ces dérivées deuxièmes la réponse
est oui, c’est le théorème de Hermann Schwarz (1843-1921). On dira qu’une fonction
est de classe C p si elle admet des dérivées partielles continues jusqu’à l’ordre p inclu.
Sans le théorème de Schwarz, le nombre de dérivées d’ordre p est np . Avec le théorème
(n + p − 1)!
de Schwarz, ce nombre se réduit à . Nous allons énoncer et démontrer
p!(n − 1)!
le théorème de Schwarz pour des fonctions de deux variables, cela suffit pour le cas
général.
Théorème 3 (de Schwarz)
∂ 2f ∂ 2f
Soit U un ouvert de R , a ∈ U et f : U −→ R telle que
2
(x, y) et (x, y)
∂x∂y ∂y∂x
existent dans U et soient continues au point a. Alors
∂ 2f ∂ 2f
(a) = (a)
∂x∂y ∂y∂x
Démonstration : Soit h = (h1 , h2 ) de norme petite. Posons
A(h) = f (a1 + h1 , a2 + h2 ) − f (a1 + h1 , a2 ) − f (a1 , a2 + h2 ) + f (a1 , a2 )
Considérons la fonction d’une variable ϕ(t) = f (t, a2 + h2 ) − f (t, a2 ). Alors par appli-
cation du théorème des accroissements finis on a
A(h) = ϕ(a1 + h1 ) − ϕ(a1 ) = h1 ϕ� (a1 + θ1 h1 ), avec 0 < θ1 < 1
et
∂f ∂f
ϕ� (a1 + θ1 h1 ) = (a1 + θ1 h1 , a2 + h2 ) − (a1 + θ1 h1 , a2 )
∂x ∂x
On peut appliquer encore une fois le théorème des accroissements finis pour la deuxième
∂f
variable de la fonction (a1 + θ1 h1 , .). Cela donne
∂x
∂2
A(h) = h1 h2 (a1 + θ1 h1 , a2 + θ2 h2 ), avec 0 < θ2 < 1
∂y∂x
On considère ensuite la fonction ψ(t) = f (a1 + h1 , t) − f (a1 , t) et on refait le même
travail. On obtient
∂2
A(h) = h1 h2 (a1 + θ˜1 h1 , a2 + θ˜2 h2 )
∂x∂y
16 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN

et donc
∂2 ∂2
(a1 + θ1 h1 , a2 + θ2 h2 ) = (a1 + θ˜1 h1 , a2 + θ˜2 h2 )
∂y∂x ∂x∂y
On fait tendre alors h vers 0 et la continuité permet de conclure.
Exemple 2.2.1 Considérons la fonction
� x
y 2 sin( ) si y =
� 0
f (x, y) = y
0 si y = 0
Il est facile de voir que f est continue partout. Calculons les dérivées partielles pre-
mières. � x
∂f y cos( ) si y �= 0
(x, y) = y
∂x 0 si y = 0
et � x x
∂f 2y sin( ) − x cos( ) si y =
� 0
(x, y) = y y
∂y 0 si y = 0
Le calcul des dérivées premières en (x, 0) se fait en appliquant la définition (voir
(2.4)). Toujours selon la définition on a
∂f ∂f
(t, 0) − (0, 0)
∂ 2f ∂y ∂y
(0, 0) = lim =0
∂x∂y t→0 t
et
∂f ∂f
2
∂ f (0, t) − (0, 0)
(0, 0) = lim ∂x ∂x =1
∂y∂x t→0 t
D’autre part
∂ 2f x x x
(x, y) = cos( ) + sin( ) si y �= 0
∂y∂x y y y
∂ 2f
Il est évident que n’est pas continue en (0, 0) puisqu’elle n’a même pas de li-
∂y∂x
mite en ce point. Il n’est pas nécessaire d’examiner l’autre dérivée mixte. Ceci montre
l’importance du théorème de Schwarz.
2.3. FORMULES DE TAYLOR 17

2.3 Formules de Taylor


Nous allons commencer par une formule de dérivation très utile.
Proposition 2.3.1 Soit f : U −→ Rn différentiable et ϕ : I −→ U une application
d’une variable t continûment dérivable sur un intervalle ouvert réel I
ϕ(t) = (ϕ1 (t), ϕ2 (t), . . . , ϕn (t))
Posons ψ(t) = f (ϕ(t)). Alors
�n
� ∂f
ψ (t) = (ϕ(t)).ϕ�i (t) (2.6)
i=1
∂xi

Démonstration : La formule de Taylor-Lagrange appliquée à l’ordre 1 pour chaque


ϕi permet d’écrire pour t fixé
ϕ(t + τ ) = ϕ(t) + τ ϕ� (t) + τ θt (τ )
où lim θt (τ ) = 0. Maintenant la différentiabilité de f donne
τ →0

ψ(t+τ ) = ψ(t)+�(∇f ) (ϕ(t)) , τ ϕ� (t) + τ θt (τ )� +�τ ϕ� (t)+τ θt (τ )�ε (τ ϕ� (t) + τ θt (τ ))


puis
ψ(t + τ ) − ψ(t) |τ |
= �(∇f ) (ϕ(t)) , ϕ� (t) + θt (τ )� + �ϕ� (t) + θt (τ )�ε (τ ϕ� (t) + τ θt (τ ))
τ τ
En passant à la limite quand τ tend vers 0, on obtient la formule annoncée.
Maintenant on est en mesure de donner les formules de Taylor avec reste de Lagrange
et avec reste intégral.
Théorème 4 (Formule de Taylor avec reste de Lagrange)
Soit U ⊂ Rn un ouvert et f : U −→ R une application de classe C p+1 . Alors, pour h
de norme petite, on a
p
� n �
� 1 � k
∂ f (x)
f (x + h) = h i1 . . . h ik +
k! i ,...,i =1 ∂xi1 . . . ∂xik
k=0 1 k

� n
1 ∂ p+1 f (x + θh)
+ hi . . . hip+1 (2.7)
(p + 1)! i ,...,i =1 1 ∂xi1 . . . ∂xip+1
1 p+1

avec 0 < θ < 1.


Démonstration : Définissons une fonction d’une variable t par η(t) = f (x + th).
Pour �h� petite, on peut prendre t dans [0, 1]. On écrit tout simplement la formule de
Taylor avec reste de Lagrange à l’ordre p pour la fonction η :
p
� η (k) (0) k tp+1 (p+1)
η(t) = t + η (θt)
k! (p + 1)!
k=0
18 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN

La formule annoncée s’obtient en posant t = 1. Reste à évaluer les dérivées de η. On


utilise la formule (2.6) :
n

� ∂f
η (t) = hi (x + th)
i=1
∂xi
�n
�� ∂ 2f
η (t) = hi hj (x + th)
i,j=1
∂x i ∂x j
..
.
� n
(k) ∂kf
η (t) = h i1 . . . h ik (x + th)
i ,...,i =1
∂x i 1
. . . ∂x i k
1 k

Il suffit de prendre t = 0 quand k = 0, 1, . . . , p, puis t = θ pour k = p + 1 dans les


expressions précédentes.

Théorème 5 (Formule de Taylor avec reste intégral)


Sous les mêmes hypothèses que le théorème précédent, on a
p
� n

� 1 � ∂ f (x) k
f (x + h) = h i1 . . . h ik +
k! i1 ,...,ik =1
∂x i 1
. . . ∂x i k
k=0
�n � 1 p+1
1 p∂ f (x + ξh)
+ hi1 . . . hip+1 (1 − ξ) dξ (2.8)
(p + 1)! i ,...,i =1 0 ∂xi1 . . . ∂xip+1
1 p+1

La démonstration est pareille que la précédente en ce sens qu’elle utilise la formule de


Taylor avec reste intégral pour la fonction d’une variable η(.). A titre indicatif, nous
allons écrire la formule de Taylor-Lagrange à l’ordre 2 pour des fonctions de deux et
trois variables. Pour le cas n = 2, p = 2, on a

∂f (x, y) ∂f (x, y)
f (x + h1 , y + h2 ) = f (x, y) + h1 + h2 +
∂x ∂y
� 2 2 2

1 ∂ f (x, y) ∂ f (x, y) ∂ f (x, y)
+ h21 2
+ 2h1 h2 + h22 + RLag (h) (2.9)
2 ∂x ∂x∂y ∂y 2
avec
� 3
1 ∂ f (x + θh1 , y + θh2 ) ∂ 3 f (x + θh1 , y + θh2 )
RLag (h) = h31 2
+ 3h1 h2 +
6 ∂x3 ∂x2 ∂y
3 3

2 ∂ f (x + θh1 , y + θh2 ) 3 ∂ f (x + θh1 , y + θh2 )
+3h1 h2 + h2
∂x∂y 2 ∂y 3

Notez que nous avons utilisé le théorème de Schwarz. Notez aussi que la bornitude des
dérivées troisièmes implique que |RLag (h)| ≤ M �h�3 .
2.4. DIFFÉRENTIABILITÉ DE FONCTIONS VECTORIELLES 19

Pour n = 3, p = 2, on aura

∂f (x, y, z) ∂f (x, y, z) ∂f (x, y, z)


f (x + h1 , y + h2 , z + h3 ) = f (x, y, z) + h1 + h2 + h3
∂x ∂y ∂z
� 2 2 2
1 ∂ f (x, y, z) 2 ∂ f (x, y, z) 2 ∂ f (x, y, z)
+ h21 + h 2 + h 3 +
2 ∂x2 ∂y 2 ∂z 2

∂ 2 f (x, y, z) ∂ 2 f (x, y, z) ∂ 2 f (x, y, z)
+2h1 h2 + 2h1 h3 + 2h2 h3 + RLag (h) (2.10)
∂x∂y ∂x∂z ∂y∂z
On peut condenser les écritures précédentes en introduisant la notion de hessienne.

Définition 2.3.2 On appelle hessienne la matrice des dérivées secondes définie par
 
∂ 2f ∂ 2f ∂ 2f
 ∂x2 ···
 1 ∂x 1 ∂x 2 ∂x1 ∂xn 

 
 
 ∂ 2f ∂ 2
f ∂ 2
f 
 ··· 
Hessf =  2 
 ∂x2 ∂x1 ∂x2 ∂x2 ∂xn 
 .. .. ... .. 
 . . . 
 
 ∂ 2f ∂ 2f ∂ 2f 
···
∂xn ∂x1 ∂xn ∂x2 ∂x2n

Remarquons que grâce au théorème de Schwarz la matrice hessienne est symétrique


(par rapport à sa diagonale principale). On peut réécrire à présent la formule de Taylor-
Lagrange à l’ordre 2 pour n quelconque d’ailleurs ainsi :
1
f (x + h) = f (x) + �∇f (x), h� + �Hessf (x)h, h� + RLag (h) (2.11)
2

2.4 Différentiabilité de fonctions vectorielles


On entend par fonction vectorielle, une fonction à valeurs dans Rp i.e,

f : Rn −→ Rp  
f1 (x)
 f2 (x) 
 
x −→ f (x) =  .. 
 . 
fp (x)
.

Définition 2.4.1 Une fonction f : U −→ Rp est dite différentiable en a ∈ U s’il


existe une application linéaire, notée dfa : Rn −→ Rp , telle que
�f (a + h) − f (a) − dfa (h)�Rp
lim =0 (2.12)
�h�→0 �h�Rn
20 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN

On omettra les indices dans les normes quand il n’y a pas de confusion. On pourra
écrire aussi la différentiabilité comme suit :
f (a + h) = f (a) + dfa (h)+�h�ε(h) (2.13)
où ε(.) est une fonction vectorielle telle que lim �ε(h)� = 0.
�h�→0
La linéarité de dfa s’exprime par (se référer au cours d’Algèbre Linéaire)
 
∂f1 (a) ∂f1 (a) ∂f1 (a)
   ...  
�∇f1 (a), h�  ∂x1 ∂x2 ∂xn   h1
 �∇f (a), h�   ∂f2 (a) ∂f2 (a) ∂f2 (a) 
 
 2   ...  h2 
dfa (h) =  .. = ∂x1 ∂x2 
∂xn   ..  (2.14)
 .    .. .. . . . ..  . 
 . . . 
�∇fp (a), h�  ∂fp (a) ∂fp (a) ∂fp (a)  hn
...
∂x1 ∂x2 ∂xn
La matrice p × n précédente représentant dfa s’appelle jacobienne de f en a. Elle est
aussi notée � �
∂fi (a)
Jf (a) = (2.15)
∂xj 1≤i≤p , 1≤j≤n
� �
xy + xz + yz
Exemple 2.4.2 Si f (x, y, z) = alors
xyz
� �
y+z x+z x+y
Jf (x, y, z) =
yz xz xy
La différentielle (et par "ricochet" la jacobienne Jf ) est linéaire par rapport à f i.e,
d(λf + µg) = λdf + µdg (ou bien Jλf +µg = λJf + µJg ). Ceci est le résultat évident de
la linéarité de la dérivation partielle. On donne maintenant la règle, tout aussi utile,
de la dérivation des fonctions composées.
Proposition 2.4.3 (Dérivation des fonctions composées)
Soient f : Rn −→ Rp et g : Rp −→ Rq différentiables. Alors
d(g ◦ f )a = dgf (a) ◦ dfa ou bien Jg◦f (a) = Jg (f (a)).Jf (a) (2.16)
Pour ne pas se tromper dans la multiplication des matrices jacobiennes, il faut se
rappeler qu’on multiplie une matrice q × p (qui doit être écrite à gauche) par une
matrice p × n (écrite à droite) pour obtenir une matrice q × n.
Démonstration : Posons y = f (x) et z = g(y) pour distinguer les variables et les
valeurs des deux fonctions. Alors pour 1 ≤ i ≤ q et 1 ≤ j ≤ n
p � ∂gi (f (x)) ∂fk (x)
∂(g ◦ f )i ∂
= gi (f1 (x), f2 (x)), . . . , fp (x) =
∂xj ∂xj ∂yk ∂xn
k=1

où nous avons fait usage de (2.6). C’est exactement la formule annoncée.


2.5. INVERSION LOCALE 21

2.5 Inversion locale


Nous allons présenter une généralisation d’un résultat abordé en première année
(Analyse 1), celui de l’inversibilité locale de fonctions C 1 . En effet, si pour une fonction
d’une variable de classe C 1 on a ϕ� (a) �= 0 alors elle est bijective d’un voisinage de a
1
vers un voisinage de ϕ(a). De plus la réciproque est de classe C 1 et (ϕ−1 )� = � .
ϕ ◦ ϕ−1
La condition ϕ� (a) �= 0 sera généralisée par l’inversibilité de la différentielle. L’outil
essentielle dans la démonstration qui suivra est celui du théorème du point fixe de
Banach. On peut l’énoncer dans le cas particulier de Rn . Soit T : F −→ F une
application contractante d’un fermé F dans lui même i.e,

∃ρ ∈ [0, 1[ tel que ∀x, x� ∈ F �T (x) − T (x� )� ≤ ρ�x − x� �

Alors T admet dans F un point fixe unique, c’est-à-dire il existe un unique point
x∗ ∈ F tel que T (x∗ ) = x∗ . Ce résultat a été largement discuté dans le cours de
Topologie.
Théorème 6 Soit U un ouvert de Rn et soit f : U −→ Rn une application de classe
C 1 . Si en un point a de U la différentielle dfa est inversible (det (Jf (a) �= 0) ), alors
il existe Va un voisinage de a et Wf (a) un voisinage de f (a) tels que f : Va −→ Wf (a)
est bijective. L’application réciproque f −1 est aussi de classe C 1 , de plus
� −1 �
df f (x) = (dfx )−1

pour tout x ∈ Va .
Démonstration : Notons d’abord que dans ce théorème la jacobienne est une matrice
carrée n × n. C’est pourquoi son inversibilité a un sens et se vérifie par le fait que son
déterminant est non nul. Notons par Mn (R) l’espace vectoriel des matrices réelles
d’ordre n qui est de dimension n2 . Étant de dimension finie, toutes les normes qu’on
peut y définir sont équivalentes. Nous allons travailler ici avec la norme d’opérateur
définie par
�Ax�
∀A ∈ Mn (R), �A� = sup
x�=0 �x�

car elle vérifie


∀x ∈ Rn , �Ax� ≤�A� �x�
Nous avons utilisé la même notation pour la norme d’une matrice et d’un vecteur, mais
il n’y a pas de confusion possible. Selon les hypothèses, on a pour la différentiabilité
en a

∀α > 0, ∃δ1 > 0, �x − a� ≤ δ1 =⇒ �f (x) − f (a) − dfa (x − a)� ≤ α�x − a� (2.17)

et pour la continuité des dérivées partielles premières

∀α > 0, ∃δ2 > 0, �x − a� ≤ δ2 =⇒ �Jf (x) − Jf (a)� ≤ α (2.18)


22 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN

On écrira indifféremment dfa ou Jf (a). Considérons δ3 = min(δ1 , δ2 ) afin que les


deux inégalités précédentes soit vérifiées dans la même boule fermée de centre a. Pour
montrer la bijection, nous allons montrer que pour y fixé proche de f (a), il existe un
unique x proche de a tel que y = f (x). Définissons la fonction
gy (x) = x + [Jf (a)]−1 (y − f (x))
Si �y − f (a)� ≤ β, alors de
�gy (x) − a� =� [Jf (a)]−1 {y − f (a) − (f (x) − f (a) − Jf (a)(x − a))}�
on déduit que
�gy (x) − a� ≤� [Jf (a)]−1 � (β + αδ3 ) ≤ δ3
1
avec un choix adéquat des paramètres libres α et β. Par exemple α < −1 puis
� � � [J f (a)] �
1
β ≤ δ3 − α . Cette dernière inégalité affirme que la fonction (manifes-
� [Jf (a)]−1 �
tement continue) gy envoie la boule fermée B(a, δ3 ) dans elle même. Montrons qu’on
peut affiner le choix des paramètres pour qu’elle soit contractante. En effet
gy (x) − gy (x� ) = x − x� + [Jf (a)]−1 (f (x� ) − f (x))
peut-être arrangée comme suit
gy (x)−gy (x� ) = [Jf (a)]−1 {(f (x� ) − f (x) − Jf (x)(x� − x)) + (Jf (x) − Jf (a)) (x� − x)}
et donc
�gy (x) − gy (x� )� ≤ 2α� [Jf (a)]−1 ��x − x� �
On n’a plus qu’à exiger en outre que
1
ρ = 2α� [Jf (a)]−1 � < 1 =⇒ α <
2� [Jf (a)]−1 �
D’après le théorème du point fixe de Banach, il existe un unique x∗ ∈ B(a, δ3 ) tel que
gy (x∗ ) = x∗ =⇒ y = f (x∗ ) i.e, f est bijective de B(a, δ3 ) vers B(f (a), β). Notons
f −1 sa fonction réciproque. Prenons y = f (a) dans la définition de gy et deux points
quelconques x, x� dans B(a, δ3 ). Alors
x − x� = gf (a) (x) − gf (a) (x� ) + [Jf (a)]−1 (f (x) − f (x� ))
et donc
�x − x� � ≤ ρ�x − x� �+� [Jf (a)]−1 ��f (x) − f (x� )�
� [Jf (a)]−1 �

=⇒�x − x � ≤ �f (x) − f (x� )�
1−ρ
−1 −1 � � [Jf (a)]−1 �
=⇒�f (y) − f (y )� ≤ �y − y � �
1−ρ
2.5. INVERSION LOCALE 23

Ceci assure la continuité de f −1 . Reste à montrer sa différentiabilité.


� [Jf (a)]−1 �
Notons γ = . Rappelons qu’on peut s’inspirer des idées développées dans
1−ρ
l’exercice 3 de la série de T.D.N◦ 1, pour montrer que le choix précédent de α permet
de dire que pour tout x ∈ B(a, δ3 ) la jacobienne Jf (x) est inversible car elle est
suffisamment proche de Jf (a). Fixons y = f (x) dans B(f (a), β). Prenons w de norme
petite pour que y + w ∈ B(f (a), β) et posons h = f −1 (y + w) − f −1 (x). Alors
�h� ≤ γ�w�. Aussi y + w = f (x + h). D’où

f −1 (y + w) − f −1 (y) − (Jf (x))−1 (w) = h − (Jf (x))−1 (w)


= −(Jf (x))−1 (f (x + h) − f (x) − (Jf (x))(h))

On sait que
�f (x + h) − f (x) − (Jf (x))(h)� =�h��ε(h)�
avec lim �ε(h)� = 0. De là
�h�→0

�f −1 (y + w) − f −1 (y) − (Jf (x))−1 (w)� ≤ γ�(Jf (x))−1 ��w��ε(h)�

Ceci montre bien que f −1 est différentiable en y avec (df −1 )y = (Jf (x))−1 .
Exemple 2.5.1 Considérons la fonction
� �
x 1 + x2
f (x1 , x2 ) =
x1 x2

qui est C ∞ (R2 ). Il est facile de calculer sa jacobienne


� �
1 1
Jf (x1 , x2 ) =
x2 x1

et det(Jf (x1 , x2 )) = x1 − x2 . Si on se met au voisinage d’un point a = (a1 , a2 ) avec


|a1 − a2 |
a1 �= a2 , par exemple une boule euclidienne de centre a et de rayon r < √ qui
2
est la distance euclidienne de a à la droite Δ d’équation x1 − x2 = 0, alors f y est
bijective. Contrairement au cas général où les calculs explicites sont très rares, on peut
dans ce cas particulier pousser les calculs un peu plus loin. Par exemple si y1 = x1 +x2
et y2 = x1 x2 , alors au voisinage de a avec a1 > a2 , on aura
� �
y1 + y12 − 4y2 y1 − y12 − 4y2
x1 = , x2 =
2 2
et
� 
y 2 − 4y
y1 +
� � 1 2
−1 
1 x1 −1 1 
Jf −1 (y1 , y2 ) = (Jf )−1 = =� 2  �2 
x1 − x2 −x2 1 y1 − 4y2  2
−y1 + y1 − 4y2 
1
2
24 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN

2.6 Théorème des fonctions implicites

La question abordée dans la section précédente concerne la résolution de l’équation


f (x) = y. C’est en réalité un système de n équations à n inconnues i.e,


 f1 (x1 , x2 , . . . , xn ) = y1

 f (x , x , . . . , x ) = y
2 1 2 n 2
 .
..


 f (x , x , . . . , x ) = y
n 1 2 n n

Nous allons dans cette section examiner des systèmes de p équations à n indéterminées
avec p < n i.e,


 f1 (x1 , x2 , . . . , xn ) = y1

 f (x , x , . . . , x ) = y
2 1 2 n 2
.
.

 .

 f (x , x , . . . , x ) = y
p 1 2 n p

Il est clair qu’il faudra choisir parmi les n variables xi , p variables par rapport aux-
quelles il sera possible de résoudre, le reste seront considérées comme paramètres. La
condition d’existence et d’unicité de la solution, comme on peut s’y attendre, est celle
donnée dans la section précédente à savoir l’inversibilité de la sous-jacobienne p × p
formées avec les dérivées des fi par rapports aux variables choisies. Pour énoncer le
résultat suivant, nous allons privilégier les variables x1 , x2 , . . . , xp .

Théorème 7 Identifions d’abord Rn à Rp ×Rn−p . Soit f : Rp ×Rn−p −→ Rp de classe


C 1 et a = (a� , a�� ) ∈ Rp × Rn−p avec b = f (a� , a�� ). Supposons que la matrice carrée
� �
∂fi (a)
Jpf =
∂xj 1≤i,j≤p

soit inversible. Alors il existe U ⊂ Rp voisinage de a� , V ⊂ Rn−p voisinage de a�� et


W ⊂ Rp voisinage de b, et une fonction ϕ : V × W −→ U , tels que

∀ x�� ∈ V, ∀ y ∈ W x� = ϕ(x�� , y)

est l’unique solution du système f (x� , x�� ) = y ; autrement dit f (ϕ(x�� , y), x�� ) = y. On
dit alors que x� = ϕ(x�� , y) est une fonction implicite définie par le système f (x) = y.

Démonstration : Il est d’abord clair, d’après les notations, que x = (x� , x�� ), c’est-
à-dire x� = (x1 , x2 , . . . , xp ) et x�� = (xp+1 , xp+2 , . . . , xn ). Pour la démonstration, on se
2.6. THÉORÈME DES FONCTIONS IMPLICITES 25

ramène au théorème de l’inversion locale en complétant le système de la façon suivante :




 f1 (x1 , x2 , . . . , xn ) = y1



 f2 (x1 , x2 , . . . , xn ) = y2

 ..

 .


fp (x1 , x2 , . . . , xn ) = yp

 xp+1 = zp+1



 xp+2 = zp+2

 ..

 .


xn = z n

Les membres de gauche définissent une fonction f˜ : Rn −→ Rn de classe C 1 . Sa


jacobienne s’écrit (triangulaire par blocs)
� � � � 
∂fi ∂fi
 ∂xj ∂xj 1≤i≤p , p+1≤j≤n 
Jf˜ = 
1≤i,j≤p 

0 In−p,n−p

On a noté par In−p,n−p la matrice identité (n − p) × (n − p). Il facile de voir que


det(Jf˜) = det(Jpf ), et donc le théorème de l’inversion locale s’applique. La réciproque
f˜−1 existe dans un voisinage de (y, z) et (x� , x�� ) = f˜−1 (y, z). La fonction ϕ est formée
des p premières composantes. Remarquez aussi que z = x�� .
Exemple 2.6.1 Considérons l’équation x2 + y 2 + z 2 = 1 de la sphère euclidienne de
centre (0, 0, 0) et de rayon 1. Plaçons-nous par exemple au voisinage du "pôle nord"
(0, 0, 1). C’est une équation à trois inconnues i.e, f (x, y, z) = x2 + y 2 + z 2 = 1. On
∂f (0, 0, 1)
a f (0, 0, 1) = 1 et = 2z |(0,0,1) = 2 �= 0. Donc dans un petit voisinage de
∂z
(0, 0, 1), z est une fonction de (x,
� y). Dans ce cas particulier on peut même expliciter
cette fonction : z = ϕ(x, y) = 1 − x2 − y 2 . Remarquons qu’au voisinage du même
point
� x (ou bien y) n’est pas fonction de (y, z). En effet, il existe deux solutions x =
± 1 − y 2 − z 2 qui sont toutes les deux possibles, ce qui exclut la bijection (l’unicité de
∂f (0, 0, 1)
la solution). On peut aussi le vérifier par = 2x |(0,0,1) = 0, non inversibilité
∂x
de la sous-jacobienne.

Exemple 2.6.2 Regardons le système



f1 (x, y, z) = x2 − y 2 + z 2 = 1
f2 (x, y, z) = xyz =1

au voisinage du point (1, 1, 1) qui est solution particulière. La jacobienne est


� �
2x −2y 2z
Jf (x, y, z) =
yz xz xy
26 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN

Si on privilégie les variables (x, y), il faut considérer la sous-jacobienne


� �
f 2x −2y
J(x,y) =
yz xz
f
dont le déterminant est det(J(x,y) ) = 2z(x2 + y 2 ) = 4 au point (1, 1, 1). Donc au
voisinage de ce point, x et y sont fonctions de z i.e,
x = ϕ1 (z) , y = ϕ2 (z)
On laisse au lecteur la tâche (un peu lourde !) de calculer les expressions de ces deux
fonctions.

2.7 Extremums locaux


Dans ce qui suit nous allons examiner la question des maximums et minimums
(extremums) locaux de fonctions de Rn −→ R. Pour une variable (n = 1), il est
bien connu que si f est C 1 et admet un extremum en x = a, alors f � (a) = 0. La
réciproque est en général fausse, à savoir si a est un point critique (f � (a) = 0) alors
on n’a pas forcément un extremum. Voir par exemple f (x) = x3 qui n’a ni maximum,
ni minimum en x = 0. Ce point s’appelle un point col (ou parfois point plat). Si le
point critique n’est pas dégénéré (f �� (a) �= 0), alors dans ce cas on aura un maximum
(respect. minimum) si f �� (a) < 0 (respect. f �� (a) > 0). Ce sont ces résultats que nous
allons généraliser à Rn .
Définition 2.7.1 Soit f : Rn −→ R. On dit qu’elle admet un maximum local au point
a, s’il existe Va un voisinage de a tel que
∀x ∈ Va f (x) ≤ f (a)
Un maximum est dit strict si en plus on a ∀x ∈ Va \ {a} f (x) < f (a).
Pour un minimum on a
∀x ∈ Va f (x) ≥ f (a)
Et pour le minimum strict, l’inégalité est stricte pour x �= a.
Proposition 2.7.2 Si f admet en a un extremum alors (∇f )(a) = 0, ou encore
∂f (a)
∀i = 1, 2, . . . , n = 0.
∂xi
Démonstration : Une manière simple de le prouver est de se ramener à une variable.
En effet, si on pose ϕ(t) = f (a1 , . . . , ai−1 , ai + t, ai+1 , . . . , an ), alors ϕ admet en 0 un
extremum, d’où ϕ� (0) = 0. C’est le résultat escompté.
Définition 2.7.3 Si (∇f )(a) = 0, on dit que a est un point critique, et qu’il est
non dégénéré si det(Hessf (a)) �= 0.
La précédente proposition dit en particulier qu’il faut chercher les extremums parmi
les points critiques.
2.7. EXTREMUMS LOCAUX 27

Quelques rappels d’algèbre linéaire

Une matrice carrée A = (aij )ni,j=1 est dite symétrique si ∀i, j = 1, . . . , n aij = aji .
On a alors ∀x, y ∈ Rn �Ax, y� = �x, Ay�. Une matrice carrée A est dite positive si
∀x ∈ Rn �Ax, x� ≥ 0, et elle est dite définie positive si elle est déjà positive avec en
plus �Ax, x� = 0 =⇒ x = 0.
Une matrice A symétrique est diagonalisable dans une base orthogonale i.e,

∃P telle que P t P = P P t = I et A = P DP t

où P t désigne la matrice transposée de P . La condition sur P exprime le caractère


orthogonal. La matrice D est diagonale
 
λ1 0 ... 0
 0 λ2 ... 0 
 
D =  .. .. . . . ... 
 . . 
0 0 . . . λn

où les λi sont les valeurs propres de A. La positivité de A est équivalente à la positivité


des valeurs propres. La définie positivité est, elle, équivalente à la stricte positivité des
valeurs propres. On peut montrer, sans grande difficulté, que l’encadrement suivant a
lieu
λ1 �x�2 ≤ �Ax, x� ≤ λn �x�2 (2.19)
si λ1 ≤ λ2 ≤ · · · ≤ λn . Vérifier qu’une matrice symétrique est définie positive à l’aide
de la définition ou bien grâce aux valeurs propres peut s’avérer une tâche très difficile.
C’est pourquoi le critère suivant est de loin le plus pratique pour cette vérification.
Donnons avant, la définition des mineurs principaux d’une matrice. On appelle mineurs
principaux d’une matrice A = (aij )ni,j=1 les déterminants suivants :
 
� � a11 a12 a13
a11 a12
Δ1 = a11 , Δ2 = det , Δ3 = det  a21 a22 a23  , . . . , Δn = det(A)
a21 a22
a31 a32 a33
Critère de définie positivité : une matrice symétrique A est définie positive si et seule-
ment si tous ses mineurs
 principaux sont
 strictement positifs.
4 −1 3 0
 −1 2 −1 1 
Exemple : A =  
 3 −1 5 0  est définie positive car
0 1 0 1
Δ1 = 4 , Δ2 = 7 , Δ3 = 19 , Δ4 = 8

Enfin une matrice symétrique est négative (resp. définie négative) si −A est positive
(resp. définie positive). Elle est non définie si elle n’est ni positive ni négative i.e, elle
admet des valeurs propres positives et négatives.
28 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN

Théorème 8 Soit f : Rn −→ R de classe C 2 et a un point critique. Alors


1. Si f admet en a un minimum local, alors la matrice hessienne Hessf (a) est
positive.
2. Si f admet en a un maximum local, alors la matrice hessienne Hessf (a) est
négative
Inversement, en supposant de plus qu’il est non dégénéré,
1. Si Hessf (a) est définie positive, alors f admet en a un minimum strict.
2. Si Hessf (a) est définie négative, alors f admet en a un maximum strict.
Si la hessienne est non définie, on dit que a est un col.
Démonstration : Tout est basé sur la formule de Taylor-Young
1
f (a + h) = f (a) + �h, (∇f )(a)� + �Hessf (a).h, h� +�h�2 ε(h)
2
Comme a est un point critique, alors en prenant h = t.u, avec u un vecteur unitaire
(�u� = 1), � �
2 1
f (a + tu) − f (a) = t �Hessf (a).u, u� + ε(t.u)
2
Faisons la démonstration pour un minimum. Pour |t| petite, on a f (a + tu) − f (a) ≥ 0,
1
donc �Hessf (a).u, u� + ε(t.u) ≥ 0. En faisant tendre t vers 0 on aura la positivité
2
ξ
de la hessienne (à partir de u on revient à n’importe quel vecteur en posant u = ).
�ξ�
Inversement, si la hessienne est définie positive, alors sa plus petite valeur propre est
strictement positive, λ1 > 0. En utilisant (2.19) on aura
� �
2 1
f (a + h) − f (a) ≥�h� λ1 + ε(h)
2
1
D’où le résultat en prenant �h� suffisamment petite pour que λ1 + ε(h) > 0.
2
Exemple 2.7.4 Soit f (x, y) = x2 + y 2 . Alors
� � � �
2x 2 0
∇f (x, y) = et Hessf (x, y) =
2y 0 2

Il y a un seul point critique (0, 0) et il est non dégénéré puisque partout det(Hessf ) =
4 �= 0. Aussi la hessienne est définie positive. Donc en (0, 0) il y a un minimum strict
(ce qui est par ailleurs facilement détectable.)
Voici une illustration par le dessin du graphe dans un voisinage de (0, 0)
2.7. EXTREMUMS LOCAUX 29

Exemple 2.7.5 Soit g(x, y) = x2 − y 2 . Alors


� � � �
2x 2 0
∇g(x, y) = et Hessg (x, y) =
−2y 0 −2

Il y a un seul point critique (0, 0) et il est non dégénéré puisque partout det(Hessg ) =
−4 �= 0. Dans ce cas la hessienne est non définie. Donc en (0, 0) il y a un point "col"
ou bien "selle".

Voici le graphe dans un voisinage de (0, 0).

On voit que suivant un certain chemin sur cette surface (0, 0, 0) apparaît comme un
maximum, et suivant un autre chemin, il apparaît comme un minimum.
30 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN

2.8 Extrema liés


Dans cette dernière section nous allons présenter la notion d’extrema liés (le mot
extrema est une forme du pluriel d’extremum). C’est la recherche de maximum ou de
minimum d’une fonction f (x) avec en plus une condition (contrainte) sur les variables
(g(x) = 0). On peut même envisager plusieurs contraintes. Le nombre de contraintes
p est dans tous les cas strictement inférieur à n (p < n). Posons

C = {x ∈ Rn �g(x) = 0}

Le problème est d’étudier l’existence de min f (x) ou max f (x).


x∈C x∈C

Proposition 2.8.1 On suppose que les fonctions f est g sont de classe C 1 . Si f


admet en a un extremum lié alors il existe un unique nombre réel λ tel que

(∇f )(a) = λ(∇g)(a)

Ce nombre s’appelle multiplicateur de Lagrange.


Démonstration : Soit γ : J −→ C une application différentiable définie sur un
petit intervalle ouvert J contenant 0 et telle que γ(0) = a. D’après les hypothèses,
l’application d’une variable réelle f (γ(t)) admet un extremum en 0, donc sa dérivée
en 0 s’annule i.e,
�(∇f )(a), γ � (0)� = 0
D’autre part, g(γ(t)) = 0, d’où

�(∇g)(a), γ � (0)� = 0

On apprend dans le cours de géométrie que le vecteur γ � (0) est tangent à l’hypersurface
C, et donc parcourt un sous-espace vectoriel de Rn de dimension n−1. Les deux vecteurs
(∇f )(a) et (∇g)(a) sont donc orthogonaux à un même sous-espace de dimension n−1.
Il sont de ce fait colinéaires.
Posons F (x, λ) = f (x) − λg(x). D’après cette proposition chercher les extremums
liés revient à résoudre le système

(∇x F )(x, λ) = 0
g(x) = 0
par rapport à x et λ. C’est un système de n + 1 équations à n + 1 inconnues.
Supposons que (a∗ , λ∗ ) soit un point critique de F , c’est-à-dire une solution du
système précédent. Si on suppose en plus que f et g sont de classe C 2 , alors la sous-
hessienne de F au point (a∗ , λ∗ ) qui concerne les variables xi , renseignera sur la nature
de ce point critique. Nous verrons plus clairement à travers les exemples qui suivront.
Exemple 2.8.2 On veut résoudre par les méthodes développées ici, un problème bien
connu en géométrie euclidienne plane. Il s’agit de trouver la distance euclidienne d’un
2.8. EXTREMA LIÉS 31

point A(a, b) à une droite (D) d’équation αx + βy + γ = 0 (α2 + β 2 �= 0). Soit


M (x, y) ∈ (D). La distance euclidienne de A à M est donnée par :

d(A, M ) = (x − a)2 + (y − b)2
Pour bénéficier du caractère C ∞ , nous travaillerons plutôt avec la fonction
f (x, y) = (x − a)2 + (y − b)2 = d(A, M )2
car la distance est minimale si et seulement si f l’est. Ici la contrainte est manifeste-
ment g(x, y) = αx + βy + γ. On a
F (x, y, λ) = (x − a)2 + (y − b)2 − λ (αx + βy + γ)
et le système à résoudre


 ∂F

 = 2(x − a) − λα = 0

 ∂x



 ∂F
= 2(y − a) − λβ = 0

 ∂y





 ∂F

 = −(αx + βy + γ) = 0
∂λ
λα λβ
Des deux premières équations on aura x = a + et y = b + . En les remplaçant
2 2
λ
dans la troisième équation on a αa + βb + γ + (α2 + β 2 ) = 0. La solution du système
2
est donc 
 −2

 λ ∗ = (αa + βb + γ)

 α 2 + β2




 α
x∗ = a − 2 2
(αa + βb + γ)

 α + β





 β

 y∗ = b − 2 (αa + βb + γ)
α + β2
Pour montrer que nous avons effectivement un minimum, il suffit de calculer la sous-
hessienne  2 
∂ F ∂ 2F � �
 ∂x2 ∂x∂y  2 0
H˜F (x, y) =  ∂ 2F ∂ 2F  = 0 2

∂x∂y ∂y 2
(αa + βb + γ)2
Elle est définie positive. La valeur de ce minimum est f (x∗ , y∗ ) = . Et
α2 + β 2
donc la distance est
|αa + βb + γ|
d(A, (D)) = �
α2 + β 2
formule bien connue par ailleurs.
32 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN

On laisse le soin au lecteur de reprendre tous ces calculs dans le cas d’un point
A = (a, b, c) de R3 et d’un plan P d’équation αx + βy + γz + δ = 0. La formule
attendue est
|αa + βb + γc + δ|
d(A, P) = �
α2 + β 2 + γ 2
Exemple 2.8.3 On se propose pour terminer ce chapitre, de traiter le problème de
l’exemple précédent mais dans R3 . Une droite dans l’espace est l’intersection de deux
plans (D) = P ∩ P � . Précisons les équations des deux plans

P: g1 (x, y, z) = αx + βy + γz + δ = 0

P� : g2 (x, y, z) = α� x + β � y + γ � z + δ � = 0
Donnons d’abord la condition sur les paramètrespourque les deux  plans  ne soient ni

α α
confondus ni parallèles et distincts. Posons �n =  β  et n �� =  β �  pour désigner
γ γ�
les vecteurs normaux à P et P � respectivement. L’intersection suivant une droite de
ces deux plans est équivalente à l’indépendance linéaire des vecteurs normaux. Une
manière de l’exprimer est d’utiliser le Gramien (déterminant de la matrice de Gram) :
 � � 
��n, �n� �n, n� � � �2
 � � � �  2 �� 2 �
G := det �
=��n� �n � − �n, n �= 0
��
�n, n �� , n
n ��
   
x a
En fait G > 0 par l’inégalité de Cauchy-Schwarz. Notons X =  y  et A =  b
z c
et considérons
F (X, λ1 , λ2 ) =�X − A�2 − λ1 g1 (X) − λ2 g2 (X)
� �

Remarquons qu’on a g1 (X) = �X, �n� + δ et g2 (X) = X, n + δ � , d’où

� �
2 �
F (X, λ1 , λ2 ) =�X − A� − λ1 (�X, �n� + δ) − λ2 ( X, n + δ � )

De là
(∇X )F = 2(X − A) − λ1�n − λ2 n �� = 0
1� � �

=⇒ X = X∗ = A + λ1�n + λ2 n
2
Pour déterminer λ1 et λ2 il suffit de remplacer la valeur trouvée de X dans les
contraintes g1 (X) = 0 et g2 (X) = 0. On obtient le système
 � �  λ 
�� 1 � �
��n, �n� �n, n   −g (A)
� � � �  2  = 1

�n, n � � ,n
n � � � λ2 −g2 (A)
2
2.8. EXTREMA LIÉS 33

La solution est donnée par


 � � � �
� � � � � � � � � �
1 λ1,∗ n ,n
1 � − �n, n −g 1 (A)
= � 
2 λ2,∗ ��
G − �n, n ��n, �n� −g2 (A)

On en déduit en définitive
1 �� − g2 (A)�n�
d(A, (D)) =�X − A� = √ �g1 (A)n
G

Vous aimerez peut-être aussi