Notes de Cours Analyse 4 Chap 2
Notes de Cours Analyse 4 Chap 2
Notes de Cours Analyse 4 Chap 2
Nous allons donner d’abord les principales notions de "dérivation" d’une fonction
de Rn −→ R. La norme utilisée désormais sera la norme euclidienne sauf mention
contraire.
où les λi sont des constantes qui dépendent de a et �., .� est le produit scalaire usuel
de Rn .
Exemple 2.1.2 Examinons un exemple simple. Déterminons la différentielle de
f (x, y) = xy , définie sur R2 , en un point (a, b). Il est facile de voir que
Deux candidats à la formule (2.2) s’offrent aisément : df(a,b) (h1 , h2 ) = bh1 + ah2 et
h1 h2
ε(h1 , h2 ) = � 2 si on choisit de travailler avec la norme euclidienne. Comme
h1 + h22
|h1 h2 | 1 1 �
≤ , alors |ε(h ,
1 2h )| ≤ √ |h1 h2 | qui assure que lim ε(h) = 0.
h21 + h22 2 2 h→0
11
12 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN
Nous allons montrer que g(x+h)−g(a) =�h�1 ε(h), c’est-à-dire que g est différentiable
en a de différentielle nulle, ce qui donnera le résultat escompté pour f . On a d’abord
∂g ∂f ∂f
(x) = (x) − (a)
∂xj ∂xj ∂xj
La continuité des dérivées partielles prise comme hypothèse peut s’exprimer ainsi :
∂g
∀ε > 0 ∃αε > 0 ∀x ∈ B(a, αε ) ∀j = 1, . . . , n | (x)| ≤ ε.
∂xj
Posons
y0 = (a1 , a2 , . . . , an ) = a
y1 = (x1 , a2 , . . . , an )
y2 = (x1 , x2 , a3 , . . . , an )
.. ..
. .
yn = (x1 , x2 , . . . , xn ) = x
Définissons n fonctions auxiliaires d’une variable par
gk : [ak , xk ] −→ R
t −→ gk (t) = g(x1 , x2 , . . . , xk−1 , t, ak−1 , . . . , an )
L’intervalle de définition peut tout aussi être [xk , ak ]. Remarquer que g1 (t) = g(t, a2 , . . . , an )
et gn (t) = g(x1 , x2 , . . . , xn−1 , t). D’après les données, les fonctions gk vérifient les hy-
pothèses du théorème classique des accroissements finis (à une variable). Donc on peut
écrire
∂g
gk (xk ) − gk (ak ) = (xk − ak )gk� (ck ) = (xk − ak ) (x1 , x2 , . . . , xk−1 , ck , ak−1 , . . . , an )
∂xk
et donc
∂2 ∂2
(a1 + θ1 h1 , a2 + θ2 h2 ) = (a1 + θ˜1 h1 , a2 + θ˜2 h2 )
∂y∂x ∂x∂y
On fait tendre alors h vers 0 et la continuité permet de conclure.
Exemple 2.2.1 Considérons la fonction
� x
y 2 sin( ) si y =
� 0
f (x, y) = y
0 si y = 0
Il est facile de voir que f est continue partout. Calculons les dérivées partielles pre-
mières. � x
∂f y cos( ) si y �= 0
(x, y) = y
∂x 0 si y = 0
et � x x
∂f 2y sin( ) − x cos( ) si y =
� 0
(x, y) = y y
∂y 0 si y = 0
Le calcul des dérivées premières en (x, 0) se fait en appliquant la définition (voir
(2.4)). Toujours selon la définition on a
∂f ∂f
(t, 0) − (0, 0)
∂ 2f ∂y ∂y
(0, 0) = lim =0
∂x∂y t→0 t
et
∂f ∂f
2
∂ f (0, t) − (0, 0)
(0, 0) = lim ∂x ∂x =1
∂y∂x t→0 t
D’autre part
∂ 2f x x x
(x, y) = cos( ) + sin( ) si y �= 0
∂y∂x y y y
∂ 2f
Il est évident que n’est pas continue en (0, 0) puisqu’elle n’a même pas de li-
∂y∂x
mite en ce point. Il n’est pas nécessaire d’examiner l’autre dérivée mixte. Ceci montre
l’importance du théorème de Schwarz.
2.3. FORMULES DE TAYLOR 17
� n
1 ∂ p+1 f (x + θh)
+ hi . . . hip+1 (2.7)
(p + 1)! i ,...,i =1 1 ∂xi1 . . . ∂xip+1
1 p+1
∂f (x, y) ∂f (x, y)
f (x + h1 , y + h2 ) = f (x, y) + h1 + h2 +
∂x ∂y
� 2 2 2
�
1 ∂ f (x, y) ∂ f (x, y) ∂ f (x, y)
+ h21 2
+ 2h1 h2 + h22 + RLag (h) (2.9)
2 ∂x ∂x∂y ∂y 2
avec
� 3
1 ∂ f (x + θh1 , y + θh2 ) ∂ 3 f (x + θh1 , y + θh2 )
RLag (h) = h31 2
+ 3h1 h2 +
6 ∂x3 ∂x2 ∂y
3 3
�
2 ∂ f (x + θh1 , y + θh2 ) 3 ∂ f (x + θh1 , y + θh2 )
+3h1 h2 + h2
∂x∂y 2 ∂y 3
Notez que nous avons utilisé le théorème de Schwarz. Notez aussi que la bornitude des
dérivées troisièmes implique que |RLag (h)| ≤ M �h�3 .
2.4. DIFFÉRENTIABILITÉ DE FONCTIONS VECTORIELLES 19
Pour n = 3, p = 2, on aura
Définition 2.3.2 On appelle hessienne la matrice des dérivées secondes définie par
∂ 2f ∂ 2f ∂ 2f
∂x2 ···
1 ∂x 1 ∂x 2 ∂x1 ∂xn
∂ 2f ∂ 2
f ∂ 2
f
···
Hessf = 2
∂x2 ∂x1 ∂x2 ∂x2 ∂xn
.. .. ... ..
. . .
∂ 2f ∂ 2f ∂ 2f
···
∂xn ∂x1 ∂xn ∂x2 ∂x2n
f : Rn −→ Rp
f1 (x)
f2 (x)
x −→ f (x) = ..
.
fp (x)
.
On omettra les indices dans les normes quand il n’y a pas de confusion. On pourra
écrire aussi la différentiabilité comme suit :
f (a + h) = f (a) + dfa (h)+�h�ε(h) (2.13)
où ε(.) est une fonction vectorielle telle que lim �ε(h)� = 0.
�h�→0
La linéarité de dfa s’exprime par (se référer au cours d’Algèbre Linéaire)
∂f1 (a) ∂f1 (a) ∂f1 (a)
...
�∇f1 (a), h� ∂x1 ∂x2 ∂xn h1
�∇f (a), h� ∂f2 (a) ∂f2 (a) ∂f2 (a)
2 ... h2
dfa (h) = .. = ∂x1 ∂x2
∂xn .. (2.14)
. .. .. . . . .. .
. . .
�∇fp (a), h� ∂fp (a) ∂fp (a) ∂fp (a) hn
...
∂x1 ∂x2 ∂xn
La matrice p × n précédente représentant dfa s’appelle jacobienne de f en a. Elle est
aussi notée � �
∂fi (a)
Jf (a) = (2.15)
∂xj 1≤i≤p , 1≤j≤n
� �
xy + xz + yz
Exemple 2.4.2 Si f (x, y, z) = alors
xyz
� �
y+z x+z x+y
Jf (x, y, z) =
yz xz xy
La différentielle (et par "ricochet" la jacobienne Jf ) est linéaire par rapport à f i.e,
d(λf + µg) = λdf + µdg (ou bien Jλf +µg = λJf + µJg ). Ceci est le résultat évident de
la linéarité de la dérivation partielle. On donne maintenant la règle, tout aussi utile,
de la dérivation des fonctions composées.
Proposition 2.4.3 (Dérivation des fonctions composées)
Soient f : Rn −→ Rp et g : Rp −→ Rq différentiables. Alors
d(g ◦ f )a = dgf (a) ◦ dfa ou bien Jg◦f (a) = Jg (f (a)).Jf (a) (2.16)
Pour ne pas se tromper dans la multiplication des matrices jacobiennes, il faut se
rappeler qu’on multiplie une matrice q × p (qui doit être écrite à gauche) par une
matrice p × n (écrite à droite) pour obtenir une matrice q × n.
Démonstration : Posons y = f (x) et z = g(y) pour distinguer les variables et les
valeurs des deux fonctions. Alors pour 1 ≤ i ≤ q et 1 ≤ j ≤ n
p � ∂gi (f (x)) ∂fk (x)
∂(g ◦ f )i ∂
= gi (f1 (x), f2 (x)), . . . , fp (x) =
∂xj ∂xj ∂yk ∂xn
k=1
Alors T admet dans F un point fixe unique, c’est-à-dire il existe un unique point
x∗ ∈ F tel que T (x∗ ) = x∗ . Ce résultat a été largement discuté dans le cours de
Topologie.
Théorème 6 Soit U un ouvert de Rn et soit f : U −→ Rn une application de classe
C 1 . Si en un point a de U la différentielle dfa est inversible (det (Jf (a) �= 0) ), alors
il existe Va un voisinage de a et Wf (a) un voisinage de f (a) tels que f : Va −→ Wf (a)
est bijective. L’application réciproque f −1 est aussi de classe C 1 , de plus
� −1 �
df f (x) = (dfx )−1
pour tout x ∈ Va .
Démonstration : Notons d’abord que dans ce théorème la jacobienne est une matrice
carrée n × n. C’est pourquoi son inversibilité a un sens et se vérifie par le fait que son
déterminant est non nul. Notons par Mn (R) l’espace vectoriel des matrices réelles
d’ordre n qui est de dimension n2 . Étant de dimension finie, toutes les normes qu’on
peut y définir sont équivalentes. Nous allons travailler ici avec la norme d’opérateur
définie par
�Ax�
∀A ∈ Mn (R), �A� = sup
x�=0 �x�
On sait que
�f (x + h) − f (x) − (Jf (x))(h)� =�h��ε(h)�
avec lim �ε(h)� = 0. De là
�h�→0
Ceci montre bien que f −1 est différentiable en y avec (df −1 )y = (Jf (x))−1 .
Exemple 2.5.1 Considérons la fonction
� �
x 1 + x2
f (x1 , x2 ) =
x1 x2
Nous allons dans cette section examiner des systèmes de p équations à n indéterminées
avec p < n i.e,
f1 (x1 , x2 , . . . , xn ) = y1
f (x , x , . . . , x ) = y
2 1 2 n 2
.
.
.
f (x , x , . . . , x ) = y
p 1 2 n p
Il est clair qu’il faudra choisir parmi les n variables xi , p variables par rapport aux-
quelles il sera possible de résoudre, le reste seront considérées comme paramètres. La
condition d’existence et d’unicité de la solution, comme on peut s’y attendre, est celle
donnée dans la section précédente à savoir l’inversibilité de la sous-jacobienne p × p
formées avec les dérivées des fi par rapports aux variables choisies. Pour énoncer le
résultat suivant, nous allons privilégier les variables x1 , x2 , . . . , xp .
∀ x�� ∈ V, ∀ y ∈ W x� = ϕ(x�� , y)
est l’unique solution du système f (x� , x�� ) = y ; autrement dit f (ϕ(x�� , y), x�� ) = y. On
dit alors que x� = ϕ(x�� , y) est une fonction implicite définie par le système f (x) = y.
Démonstration : Il est d’abord clair, d’après les notations, que x = (x� , x�� ), c’est-
à-dire x� = (x1 , x2 , . . . , xp ) et x�� = (xp+1 , xp+2 , . . . , xn ). Pour la démonstration, on se
2.6. THÉORÈME DES FONCTIONS IMPLICITES 25
Une matrice carrée A = (aij )ni,j=1 est dite symétrique si ∀i, j = 1, . . . , n aij = aji .
On a alors ∀x, y ∈ Rn �Ax, y� = �x, Ay�. Une matrice carrée A est dite positive si
∀x ∈ Rn �Ax, x� ≥ 0, et elle est dite définie positive si elle est déjà positive avec en
plus �Ax, x� = 0 =⇒ x = 0.
Une matrice A symétrique est diagonalisable dans une base orthogonale i.e,
∃P telle que P t P = P P t = I et A = P DP t
Enfin une matrice symétrique est négative (resp. définie négative) si −A est positive
(resp. définie positive). Elle est non définie si elle n’est ni positive ni négative i.e, elle
admet des valeurs propres positives et négatives.
28 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN
Il y a un seul point critique (0, 0) et il est non dégénéré puisque partout det(Hessf ) =
4 �= 0. Aussi la hessienne est définie positive. Donc en (0, 0) il y a un minimum strict
(ce qui est par ailleurs facilement détectable.)
Voici une illustration par le dessin du graphe dans un voisinage de (0, 0)
2.7. EXTREMUMS LOCAUX 29
Il y a un seul point critique (0, 0) et il est non dégénéré puisque partout det(Hessg ) =
−4 �= 0. Dans ce cas la hessienne est non définie. Donc en (0, 0) il y a un point "col"
ou bien "selle".
On voit que suivant un certain chemin sur cette surface (0, 0, 0) apparaît comme un
maximum, et suivant un autre chemin, il apparaît comme un minimum.
30 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN
C = {x ∈ Rn �g(x) = 0}
�(∇g)(a), γ � (0)� = 0
On apprend dans le cours de géométrie que le vecteur γ � (0) est tangent à l’hypersurface
C, et donc parcourt un sous-espace vectoriel de Rn de dimension n−1. Les deux vecteurs
(∇f )(a) et (∇g)(a) sont donc orthogonaux à un même sous-espace de dimension n−1.
Il sont de ce fait colinéaires.
Posons F (x, λ) = f (x) − λg(x). D’après cette proposition chercher les extremums
liés revient à résoudre le système
�
(∇x F )(x, λ) = 0
g(x) = 0
par rapport à x et λ. C’est un système de n + 1 équations à n + 1 inconnues.
Supposons que (a∗ , λ∗ ) soit un point critique de F , c’est-à-dire une solution du
système précédent. Si on suppose en plus que f et g sont de classe C 2 , alors la sous-
hessienne de F au point (a∗ , λ∗ ) qui concerne les variables xi , renseignera sur la nature
de ce point critique. Nous verrons plus clairement à travers les exemples qui suivront.
Exemple 2.8.2 On veut résoudre par les méthodes développées ici, un problème bien
connu en géométrie euclidienne plane. Il s’agit de trouver la distance euclidienne d’un
2.8. EXTREMA LIÉS 31
∂x∂y ∂y 2
(αa + βb + γ)2
Elle est définie positive. La valeur de ce minimum est f (x∗ , y∗ ) = . Et
α2 + β 2
donc la distance est
|αa + βb + γ|
d(A, (D)) = �
α2 + β 2
formule bien connue par ailleurs.
32 CHAPITRE 2. CALCUL DIFFÉRENTIEL DANS RN
On laisse le soin au lecteur de reprendre tous ces calculs dans le cas d’un point
A = (a, b, c) de R3 et d’un plan P d’équation αx + βy + γz + δ = 0. La formule
attendue est
|αa + βb + γc + δ|
d(A, P) = �
α2 + β 2 + γ 2
Exemple 2.8.3 On se propose pour terminer ce chapitre, de traiter le problème de
l’exemple précédent mais dans R3 . Une droite dans l’espace est l’intersection de deux
plans (D) = P ∩ P � . Précisons les équations des deux plans
P: g1 (x, y, z) = αx + βy + γz + δ = 0
P� : g2 (x, y, z) = α� x + β � y + γ � z + δ � = 0
Donnons d’abord la condition sur les paramètrespourque les deux plans ne soient ni
�
α α
confondus ni parallèles et distincts. Posons �n = β et n �� = β � pour désigner
γ γ�
les vecteurs normaux à P et P � respectivement. L’intersection suivant une droite de
ces deux plans est équivalente à l’indépendance linéaire des vecteurs normaux. Une
manière de l’exprimer est d’utiliser le Gramien (déterminant de la matrice de Gram) :
� �
��n, �n� �n, n� � � �2
� � � � 2 �� 2 �
G := det �
=��n� �n � − �n, n �= 0
��
�n, n �� , n
n ��
x a
En fait G > 0 par l’inégalité de Cauchy-Schwarz. Notons X = y et A = b
z c
et considérons
F (X, λ1 , λ2 ) =�X − A�2 − λ1 g1 (X) − λ2 g2 (X)
� �
�
Remarquons qu’on a g1 (X) = �X, �n� + δ et g2 (X) = X, n + δ � , d’où
�
� �
2 �
F (X, λ1 , λ2 ) =�X − A� − λ1 (�X, �n� + δ) − λ2 ( X, n + δ � )
�
De là
(∇X )F = 2(X − A) − λ1�n − λ2 n �� = 0
1� � �
�
=⇒ X = X∗ = A + λ1�n + λ2 n
2
Pour déterminer λ1 et λ2 il suffit de remplacer la valeur trouvée de X dans les
contraintes g1 (X) = 0 et g2 (X) = 0. On obtient le système
� � λ
�� 1 � �
��n, �n� �n, n −g (A)
� � � � 2 = 1
�
�n, n � � ,n
n � � � λ2 −g2 (A)
2
2.8. EXTREMA LIÉS 33
On en déduit en définitive
1 �� − g2 (A)�n�
d(A, (D)) =�X − A� = √ �g1 (A)n
G