Cours2023 Analyse Economie2

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 40

Université Claude Bernard Lyon 1 Licence Mathématiques et économie

Analyse pour l’économie 2

Lorenzo Brandolese

1 Formule de Taylor et développements limités


Soit f une fontion de classe C 2 dans un ouvert U de Rn et soit x0 ∈ U , et δ > 0 tel que
B(x0 , δ) ⊂ U . Si v ∈ Rn est une direction et 0 ≤ t ≤ δ, on pose :

F (t) = f (x0 + tv).

La formule de Taylor centrée en 0 pour la fonction F d’ordre 2 s’écrit


F 00 (0) 2
F (t) = F (0) + F 0 (0)t + t + o(t2 ), pour t → 0. (1.1)
2!
D’autre part,
n
∂f X
F 0 (t) = (x0 + tv) = Di (f )(x0 + tv) vi ,
∂v
i=1
n n
X ∂Di (f ) X
F 00 (t) = (x0 + tv)vi = Di Dj (f )(x0 + tv) vi vj .
∂v
i=1 i,j=1

Cela donne,
n n
X X Di Dj (f )
f (x0 + tv) = f (x0 ) + Di (f )(x0 )tvi + (x0 )t2 vi vj + o(t2 ) pour t → 0.
2!
i=1 i,j=1

En posant h = tv (et donc |t| = khk) on obtient, pour khk → 0,

n n
X 1 X
f (x0 + h) = f (x0 ) + Di (f )(x0 )hi + Di Dj (f )(x0 )hi hj + o(khk2 ).
2
i=1 i,j=1

C’est la formule de Taylor d’ordre 2 pour les fonctions de plusieurs variables. Le terme à droite
est le développement limité d’ordre 2 de f centré en x0 . En observer la structure typique :

constante + partie linéaire en h + partie quadratique en h + reste.

Plus en général, si f est de classe C k au voisinage de x0 , on pourra écrire la formule de


Taylor d’ordre k pour F au voisinage de 0 :

F 00 (0) 2 F (k) k
F (t) = F (0) + F 0 (0)t + t + ··· + t + o(tk ), pour t → 0.
2! k!
D’autre part, en généralisant les formules pour F 0 (t) et F 00 (t) on trouve
n
X
F (k) (t) = Di1 Di2 . . . Dik (f )(x0 + tv) vi1 vi2 . . . vik .
i1 ,...ik =1

1
On obtient alors, pour x → x0 ,
n n
X 1 X
f (x0 + h) = f (x0 ) + Di f (x0 )hi + Di Dj f (x0 )hi hj + · · ·
2
i=1 i,j=1
n (1.2)
1 X
+ Di1 Di2 . . . Dik f (x0 ) hi1 hi2 . . . hik + o(khkk ).
k!
i1 ,...ik =1

Le terme à droite est le dévéloppement limité d’ordre k pour f centré en x0 .

2 Extrema de fonctions de plusieurs variables


2.1 Points stationnaires
Définition 2.1 (extrema locaux). Soit f : D ⊂ Rn → R et x0 ∈ D. On dit que x0 est un point
de maximum relatif (ou local) pour f s’il existe un voisinage V de x0 tel que f (x) ≤ f (x0 ) pour
tout x ∈ V ∩ D. Dans ce cas on dit que la valeur f (x0 ) est un maximum relatif (ou local) de la
fonction f .
On dit que x0 est un point de minimum relatif (ou local) pour f s’il existe un voisinage V
de x0 tel que f (x0 ) ≤ f (x) pour tout x ∈ V ∩ D. Dans ce cas on dit que la valeur f (x0 ) est un
maximum relatif (ou local) de la fonction f .
Si on a la condition plus forte f (x) ≤ f (x0 ) pour tout x ∈ D on dit que x0 est un (point de)
maximum absolu, ou global, pour f dans D. De même, si f (x0 ) ≤ f (x) pour tout x ∈ D on dit
que x0 est un point de minimum absolu, ou global, pour f dans D.
Les point de minimum s’appellent aussi minimiseurs et les point de maximum maximiseurs.

Exemple 2.1.
(i) Étudions les extrema locaux et globaux de la fonction f : R → R, où f (x) = (x2 − 1)2 sur R.
(ii) Étudions les extrema locaux et globaux de même fonction f sur l’intervalle I = [ 21 , 2].
Les réponses suivantes s’obtiennent en traçant le graphe de la fonction f à l’aide d’un tableau
de variations.
(i) f possède 3 extrema locaux en 0, 1 et −1, plus précisément 0 est un point de maximum locale
(mais ce n’est pas un point de maximum globale : le maximum globale de f n’existe pas). De
plus ±1 sont deux points de minimum globaux sur R et minR f = 0.
(ii) Sur l’intervalle I, 1 est le seul point minimum global pour f On a minI f = 0 De plus, 2 est
le seul point de maximum globale pour f dans I et maxI f = 9. D’autre part 12 est un point de
maximum local (non global) de f dans I.

Observons que dans l’exemple précédent, dans le cas (i), tous les extrema locaux ont été
trouvés parmi les points où f 0 s’annule : c’est dû au fait que la fonction a été étudié sur un
intervalle ouvert. Dans le cas (ii) ce n’est plus le cas.
Dans cette section on se focalise sur la recherche de point d’extrema libres, c’est-à dire les
points de minimum ou maximum à l’intérieur de l’ensemble de définition de la fonction. Cela
revient à supposer que la fonction es définie sur un ouvert.

Proposition 2.1 (CNPO ou CN1). Soit f : U ⊂ Rn → R, où U est un ouvert de Rn et x0 ∈ U


un extremum local (c’est à dire un maximum local ou un minimum local) pour f . Si f est
dérivable le long d’une direction v, alors ∂f ∂v (x0 ) = 0. En particulier, si f est différentiable en
x0 , alors toutes les dérivées partielles de f s’annulent en x0 et ∇f (x0 ) = 0.

Dém. La fonction d’une seule variable F (t) = f (x0 + tv) est dérivable en t = 0, où elle possède
un extremum local. Par le critère de Fermat, F 0 (0) = 0. Mais alors 0 = F 0 (0) = ∂f
∂v (x0 ).

2
Un point x0 où f est différentiable et ∇f (x0 ) = 0 s’appelle un point stationnaire ou point
critique pour f .

Les points de minimum et maximum locaux d’une fonction différentiable f : D → R


sont alors à chercher parmi les point stationnaires, qui sont les solutions du système
 ∂f
 ∂x1 (x) = 0


... x ∈D, (CN1)
 ∂f

∂xn (x) = 0,


ou éventuellement parmi les points de D\ D. Ces points sont situés sur la frontière de
l’ensemble D.

Le système ci-dessus s’appelle en abrégé (CNPO) (“conditions nécessaires du premier ordre”)


ou (CN1), puisque ce sont les dérivées d’ordre 1 qui interviennent. Vérifier ces condition n’est
pas une condition suffisante pour garantir que les solutions trouvées soient bien de minimiseurs
ou de maximiseurs : par exemple, pour la fonction f : R → R telle que f (x) = x3 ce système se
réduit à la seule équation 3x2 = 0. La solution x = 0 ne correspont pas à un extremum pour f .
Observer que (CN1) est un système (non-linéaire !) de n équations et n inconnues. Il n’y a
malheureusement pas de théorie générale pour trouver les solutions.
p
Exemple 2.2. Trouver les extrema locaux et globaux de la fonction f (x, y) = 1 − x2 − y 2
sur son ensemble de définition.
Réponse : L’ensemble de définition est le disque D = {(x, y) ∈ R2 : x2 + y 2 ≤ 1}. Ce n’est pas un

ouvert. Cherchons les points stationnaires intérieurs à D, c’est à dire dans D= {(x, y) ∈ R2 : x2 +
y 2 < 1}. L’unique solution du système (CN1) est le point (0,0). Observons que f (0, 0) = 1. Mais
on voit immédiatement que f (x, y) ≤ 1 pour tout (x, y) ∈ D, donc l’origine est un point de
maximum global pour f . Il n’y a pas de point de minimum (local ou globale) à l’intérieur de
D (sinon on aurait trouvé d’autres points stationnaires) ; cherchons alors le minimum de f sur
la frontière, qui est le cercle ∂D = {(x, y) ∈ R2 : x2 + y 2 = 1}. Mais on voit que la fonction f
s’annule sur ∂D ; d’autre part f ≥ 0 dans D. La conclusion est que tous les points de ∂D sont
des points de minimum global pour f .

Exemple 2.3. On cherche à construire un caisson de 20m3 . Le matériau pour le fond coûte 3
euros/ m2 , pour le couvercle 2 euros/m2 et pour les côtés 1 euro/m2 . Quel est le caisson le moins
cher ? Et le plus cher ?
Réponse :
Modélisation : Notons x(=longueur), y(=largeur), z(=hauteur) les mesures du casson en mètres.
Le coût de construction est C(x, y, z) = 3xy + 2xy + 2(xz + yz) = 5xy + 2xz + 2yz. Il
s’agit de résoudre les problèmes de minimisation et maximisation pour C “avec contrainte” :
min{C(x, y, z) : xyz = 20} et max{C(x, y, z) : xyz = 20}.
Élimination de la contrainte et recherche des points stationnaires : L’ensemble des points vérifiant
xyz = 20 n’est pas un ouvert, c’est pourquoi la proposition (CN1) ne s’applique pas directement
à la fonction C. On impose z = 20/(xy) et on étudie la fonction
20
f (x, y) = C(x, y, xy ) = 5xy + 40( y1 + x1 ), x > 0, y > 0.

Nous pouvons appliquer la proposition (CN1) à la fonction f , qui est bien définie dans un
ouvert. Le système ∇f (x, y) = 0 possède une seule solution pour x > 0 et y > 0. Elle est donnée
par x = y = 2 (et donc z = 5).

3
Synthèse : On construit donc un caisson de mesures 2 × 2 × 5. Ce choix correspond-t-il au
caisson de coût minimum ou maximum ? Le problème de minimisation est-il bien posé ? Et celui
de maximisation ? [Voir l’exemple ci-après].

Dans la pratique, les fonction dont on étudie les problèmes d’optimisation sont souvent
continues. Le théorème de Weierstrass est alors un outil essentiel pour garantir que des solutions
existent. Mais ce théorème ne s’applique pas toujours (comme par exemple dans l’exemple
précédent). Le théorème suivant est une variante utile.

Théorème 2.2 (Weierstrass - variante). Soit f : D ⊂ Rn → R une fonction continue. Si x̄ ∈ D


et si l’ ensemble de sous-niveau K = {x ∈ D : f (x) ≤ f (x̄)} est compact, alors le problème
de minimisation minx∈D f (x) possède une solution. Autrement dit, il existe x∗ ∈ D tel que
f (x∗ ) = minx∈D f (x).

Dém. En effet, il existe x∗ ∈ K tel que f (x∗ ) = minx∈K f (x), par le théorème de Weierstrass.
Mais f (x∗ ) ≤ f (x̄) puisque x̄ ∈ K. Si x ∈ K on a f (x) ≥ f (x∗ ) par définition de x∗ . Si x ∈ D
et x 6∈ K on a f (x) > f (x̄) ≥ f (x∗ ). En conclusion, f (x∗ ) = minx∈D f (x).

Le cas typique d’application est celui d’une fonction f : Rn → R telle que


limkxk→+∞ f (x) = +∞. Une telle fonction a tous les ensembles de sous-niveau bornés
(pourquoi ?). Si de plus f est continue, ses ensembles de sous-niveau sont fermés (pour-
quoi ?) et donc compacts. La fonction possède alors un minimum absolu.

Bien entendu on peut établir un théorème analogue pour l’existence d’un maximum absolu :
il s’agit cette fois-ci de supposer que l’ensemble de “sur-niveau” {x : f (x) ≥ f (x̄)} est borné. Le
cas typique d’application est celui d’une fonction continue telle que limkxk→+∞ f (x) = −∞.

Exemple 2.4 (Retour à l’exemple 6.7). Appliquons cette variante du théorème de Weierstrass
avec (x̄, ȳ) = (1, 1) (ce choix est arbitraire). Observons que l’ensemble de sous-niveau K =
{(x, y) : f (x, y) ≤ f (1, 1)} = 5xy + 40( y1 + x1 ) ≤ 85} est compact (en effet, il est manifestement
fermé et il est borné, puisque x ≥ 40/85, y ≥ 40/85 et 5xy ≤ 85 ⇒ x ≤ 17 · 85/40 et y ≤
17 · 85/40). Mais alors le problème de minimisation de l’exemple 6.7 est bien posé, c’est-à dire
que le caisson de coût minimum existe : c’est bien le caisson de mesures 2 × 2 × 5 trouvé avant.
Le problème de maximisation est mal posé : le caisson de coût maximum n’existe pas.

2.2 Fonctions quadratiques et matrice hessienne


Un peu d’algèbre linéaire. Commençons par des rappels d’algèbre linéaire. Un système
linéaire homogène de n équations et n inconnues se représente par l’équation matricielle

Ax = 0, x = (x1 , . . . xn )T ∈ Rn .

où A est une matrice carrée n × n. Ce système possède toujours comme solutions au moins le
vecteur nul x = 0. Il est bien connu que la condition nécessaire et suffisante pour qu’il y ait
d’autres solutions x 6= 0 est que det A = 0.
Définition 2.2. Un nombre réel (ou complexe) λ est dit valeur propre d’une matrice carrée A
s’il existe w ∈ Rn \{0} tel que Aw = λw. Le vecteur w s’appelle alors vecteur propre pour A.
Observons que si λ est une valeur propre alors (A − λI)w = 0, avec w ∈ Rn \{0}. Mais cela
est possible si et seulement si
det(A − λI) = 0. (2.1)

4
Chercher les valeurs propres revient à résoudre l’équation d’inconnue λ (2.1). En général, (2.1)
est une équation polynomiale en λ, de degré n. Le terme à gauche dans (2.1) s’appelle le polynôme
caractéristique de A. Cette équation possède alors n solutions, comptées avec leur multiplicité.
Ces solutions sont éventuellement complexes.
 
1 2
Exemple 2.5. La matrice A = possède 2 valeurs propres λ1 et λ2 . Celles-ci sont les
3 4
deux les solutions d’une équation polynomiale de degré 2 :
h1 2 
1 0 i
 
1−λ 2

0 = det −λ = det = λ2 − 5λ − 1.
3 4 0 1 3 4−λ

Donc λ1,2 = 12 (5 ± 29).

Théorème 2.3 (démonstration hors programme. Voir le cours d’algèbre.). Si A est une matrice
carrée symétrique de taille n × n, c’est-à dire aij = aji pour tout i, j = 1, . . . , n, alors les valeurs
propres de A sont toutes réelles.

Soit A = (aij ) une matrice symétrique n × n. Le produit entre la matrice


Pn A et le vecteur
h = (h1 , . . . hn )T est donné par le vecteur de composantes (Ah)i = j=1 ij hj . Une forme
a
n
quadratique est une application : R → R de la forme
n
X
h 7→ hAh, hi = aij hi hj .
i,j=1

Exemple 2.6. Les formes quadratiques de R2 sont toutes et seules les fonctions de la forme
    
r s x x
(x, y) 7→ h , i = r x2 + 2s xy + t y 2 .
s t y y

Les formes quadratiques de R3 sont toutes et seules les fonctions de la forme


    
a b c x x
(x, y, z) 7→ h b d e  y  , y i = a x2 + 2b xy + 2c xz + d y 2 + 2e yz + f z 2 .
c e f z z

Le cas des fonctions de plusieurs variables. Les formes quadratiques apparaissent na-
turellement dans la formule de Taylor d’ordre 2. En effet, soit f une fonction de classe C 2 au
voisinage d’un point x0 . Considérons la matrice hessienne de f en x0 , c’est à dire la matrice
symétrique de taille n × n des dérivées partielles secondes
 ∂2f 
H = Hf (x0 ) = (x0 ) .
∂xi ∂xj 1≤i,j≤n

Pour les fonctions f : R → R, la matrice hessienne est réduite au seul nombre f 00 (x0 ).
La formule de Taylor pour f d’ordre 2 s’écrit alors

f (x0 + h) = f (x0 ) + h∇f (x0 ), hi + 12 hHf (x0 )h, hi + o(khk2 ).

Si de plus x0 est un point stationnaire, on a ∇f (x0 ) = 0 et donc la formule précedente


devient
f (x0 + h) = f (x0 ) + 21 hHf (x0 )h, hi + o(khk2 ), (2.2)
qui est la généralisation naturelle de (2.4).

5
Pour déterminer la nature du point stationnaire x0 on est amené à diviser terme-à-terme par
hH (x )h,hi
khk2 et prendre khk → 0. Cela conduit à étudier la fonction h 7→ f khk0 2 .
Plus en général, étudions alors les fonctions de type
hAh, hi
F (h) = , h 6= 0. (2.3)
khk2
avec A = (aij ) matrice symétrique de taille n × n.

Lemme 2.4. Soit F (h) = hAh,hi


khk2
avec A = (aij ) matrice symétrique de taille n × n. Les points
stationnaires de F sont des vecteurs propres de la matrice A. De plus, si v est un vecteur propre
de A, alors
Av = F (v) v,
c’est à dire que la valeur propre associée à v est F (v).
∂ Pn ∂ 2
Dém. Observons que ∂h i
(hAh, hi) = 2 i=1 aij hj et que ∂hi khk = 2hi . Il en découle que
Pn
∂F j=1 aij hj − F (h)hi [Ah − F (h)h]i
(h) = 2 =2 .
∂hi khk2 khk2
∂F
Soit v un point stationnaire de F . Alors, pour tout i = 1, . . . , n, on a ∂hi (v) = 0. Mais alors les
numérateurs de l’expression précédente s’annulent et on trouve

Av = F (v) v.

Lemme 2.5. Soit F (h) = hAh,hi khk2


avec A = (aij ) matrice symétrique de taille n × n. Soit λ1 et
λn la plus petite et la plus grande valeurs propre de la matrice A. Alors

min F (h) = λ1 , et max F (h) = λn .


h6=0 h6=0

Dém. Observons que F est une fonction telle que, pour tout λ > 0, F (λ h) = F (h). en particulier,
1 h h
en prenant λ = khk on voit que F (h) = F ( khk ). Mais alors maxh6=0 F (h) = max{F ( khk ) : h 6=
0} = max{F (h) : khk = 1}. De même, minh6=0 F (h) = min{F (h) : khk = 1}. L’ensemble
{h : khk = 1} est la sphère unité qui est compact dans Rn . La fonction F étant continue sur
{h : khk = 1}, le théorème de Weierstrass implique que F possède un maximum et un minimum
absolu sur cet ensemble. Par la discussion précédente, F possède un minimum et un maximum
absolu sur Rn \{0}.
Soit donc h∗ un point de minimum de F dans Rn \{0}. Alors h∗ est un point stationnaire et
par le lemme précédent F (h∗ ) est une valeur propre de la matrice A. De plus, Ah∗ = F (h∗ )h∗ .
Mais alors λ1 ≤ F (h∗ ) = minh6=0 F (h). Mais au valeur propre λ1 correspondent un vecteur
propre v1 ∈ Rn \{0}. et l’on a Av1 = λ1 v1 , donc F (v1 ) = λ1 . Donc minh6=0 F (h) ≤ λ1 .
Si ĥ est un point de maximum pour F , on procède de la même manière et on trouve F (ĥ) =
λn .

2.3 Problèmes d’optimisations : conditions d’ordre 2


Le cas de fonctions d’une seule variable. Rappels. Soit f : I → R une fonction de classe
C 2 sur l’intervalle ouvert I =]a, b[ et x0 un point stationnaire pour f dans ]a, b[, c’est-à dire
f 0 (x0 ) = 0. Alors, par la formule de Taylor d’ordre 2,

f (x0 + h) = f (x0 ) + 12 f 00 (x0 )h2 + o(h2 ), pour h → 0. (2.4)

6
Si on divise terme-à-terme par h2 et on prend h → 0 on en déduit :
1
h2
(f (x0 + h) − f (x0 )) = 12 f 00 (x0 ) + o(1), pour h → 0.

- Pour que x0 soit un point de minimum local il est nécessaire que f 00 (x0 ) ≥ 0. (En effet,
si x0 est un point de minimum local, alors pour h assez petit le terme à gauche est ≥ 0).
- Pour que x0 soit un point de minimum local il est suffisant que f 00 (x0 ) > 0. (En effet,
si f 00 (x0 ) > 0 alors pour h assez petit f 00 (x0 ) + o(1) > 0 et donc le terme à gauche est
positif).
- Pour que x0 soit un point de maximum local il est nécessaire que f 00 (x0 ) ≤ 0.
- Pour que x0 soit un point de maximum local il est suffisant que f 00 (x0 ) < 0.
Observer que lorsque f 00 (x0 ) = 0 on ne peut rien conclure en général : on a parfois un minimum,
ou un maximum, ou un point d’inflexion (considérer par exemple les cas f (x) = x3 , avec x0 = 0).
Généralisons ces considérations aux fonctions de plusieurs variables.
Le théorème suivant établit des conditions nécessaires (CN2) et des conditions suffisantes
(CS2), faisant intervenir les dérivées d’ordre 2, pour qu’un point soit un minimiseur ou un
maximiseur local.

Théorème 2.6 (CN2-CS2). Si f : D ⊂ Rn → R est une fonction de classe C 2 au voisinage de


x0 et si x0 est un point stationnaire, alors :
- Pour que x0 soit un point de minimum local il est nécessaire que tous les valeurs propres
de la matrices hessiennes de f soient ≥ 0. (On dit que Hf (x0 ) est semi-définie positive).
- Pour que x0 soit un point de minimum local il est suffisant que tous les valeurs propres
de la matrices Hessiennes de f soient > 0. (On dit que Hf (x0 ) est définie positive).
- Pour que x0 soit un point de maximum local il est nécessaire que tous les valeurs propres
de la matrices Hessiennes de f soient ≤ 0. (On dit que Hf (x0 ) est semi-définie négative).
- Pour que x0 soit un point de maximum local il est suffisant que tous les valeurs propres
de la matrices Hessiennes de f soient < 0. (On dit que Hf (x0 ) est définie négative).

Dém. Si x0 est un point de minimum local, alors ∃ δ > 0 tel que pour tout khk < δ on a
(voir (2.2))
1 2
2 hHf (x0 )h, hi + o(khk ) = f (x0 + h) − f (x0 ) ≥ 0.

Mais alors, avec les notations du lemme précédent, appliqué à A = Hf (x0 ), on trouve, pour
khk < δ,
F (h) + o(1) ≥ 0.
Soit λ1 = minh6=0 F (h) = F (v1 ). Comme F (v1 ) = F (α v1 ) pour tout α > 0, en prenant α → 0
on déduit de l’inégalité précédente

λ1 = lim F (α v1 ) ≥ 0.
α→0+

Mais alors toutes les valeurs propres de Hf (x0 ) sont ≥ 0. Cela prouve la première conclusion.
Supposons maintenant que toutes les valeurs propres soient strictement positives, et donc
λ1 = minh6=0 F (h) > 0. En utilisant que
1
 
khk 2 f (x 0 + h) − f (x 0 ) = F (h) + o(1) ≥ λ1 + o(1), pour h → 0.

on voit que pour khk assez petit cette expression est (strictement) positive. Donc x0 est bien un
point de minimum local (strict) pour f .
Les deux conclusions restantes se démontrent de la même manière.

7
Remarque 2.7 (Points de selle). Il arrive parfois qu’un point critique ne soit ni de minimum, ni
de maximum local. C’est le cas, par exemple quand la plus petite et la plus grande valeur propre
de la matrice Hessienne vérifient λ1 < 0 < λn . On dit alors que x0 est un point de selle (ou de
col, ou de min-max ). Par exemple, pour les fonctions de 2 variables, si (x0 , y0 ) est un point de
selle, alors la fonction x 7→ f (x, y0 ) aura un minimum local en x0 et la fonction y 7→ f (x, y) un
maximum local en y0 (ou l’inverse).

Règles pratiques pour appliquer le théorème 2.6 Pour appliquer le théorème 2.6 il n’est
pas indispensable de calculer les valeurs propres de Hf (x0 ), puisque seul le signe des valeurs
propres joue un rôle. Pour une fonctions de n variables, ces valeurs propres sont les solutions de
l’équation (2.1), qui est une équation de la forme

λn + a1 λn−1 + · · · + an−1 λ + an = 0, (2.5)

où le polynôme à gauche est le polynôme caractéristique de la matrice Hf (x0 ).

Exercice 2.8. Démontrer que les racines de (2.5) (dont on sait qu’elles sont toutes réelles) :
(i) sont toutes strictement négatives si et seulement si tous les coefficients a1 > 0,. . . an > 0.
(ii) sont toutes strictement positives si et seulement si les coefficients vérifient a1 < 0, a2 > 0,
a3 < 0, etc.

Exemple 2.9. La fonction f (x, y, z) = x2 + 2y 2 + z 2 + xy − xz a comme seul point stationnaire


l’origine. On calcule aisément les dérivées partielles secondes en 0. On trouve alors.
 
2−λ 1 −1
det(Hf (0) − λI) = det  1 4−λ 0  = −(λ3 − 8λ2 + 18λ − 10) = 0.
−1 0 2−λ

Compte tenu du résultat de l’exercice précédent, les valeurs propres de la matrice Hessienne
sont toutes strictement positives. L’origine est alors un point de minimum local. Cet analyse ne
donne aucun renseignement sur la nature globale de ce point de minimum.
2
Exercice 2.10 (Une méthode pratique pour les fonction de 2 variables). Soit  f : R → R de
2 ∂2f 2 r−λ s
classe C 2 . Il est standard de noter r = ∂∂xf2 , s = ∂x∂y et r = ∂∂yf2 . Calculer det et
s t−λ
en déduire que, en un point (x0 , y0 ) :

- Si rt − s2 > 0 alors (x0 , y0 ) est un extremum local pour f (x, y) : un minimiseur


si r > 0 et un maximiseur si r < 0.
- Si rt − s2 < 0 alors (x0 , y0 ) est un point de selle.

3 Intégrales multiples
Voir les notes de Vincent Borrelli

4 Courbes paramétrées
4.1 Courbes paramétrées
Dans tout ce chapitre kxk désigne la norme euclidienne du vecteur x ∈ Rn .

8
Une courbe dans Rn est un ensemble Γ ⊂ Rn tel qu’il existe une application continue
ϕ : [a, b] → Rn , où [a, b] est un intervalle de R, telle que

Γ = {ϕ(t) : t ∈ [a, b]}.

On dit aussi que ϕ est une paramétrisation de Γ, ou aussi que Γ est le support de la courbe
paramétrée ϕ. Une paramétrisation permet de définir une orientation (c’est-à-dire un sens de
parcours) sur Γ : le parcours allant du point ϕ(a) au point ϕ(b).

Interpretation cinématique. Si x(t), y(t) et z(t) sont les coordonnées d’un point materiel
mobile à l’instant t, la loi horaire du mouvement, c’est à dire l’application t 7→ (x(t), y(t), z(t))
définit une courbe paramétrée ϕ dans R3 . Dans cet interpretation cinématique, le support Γ de
la courbe est la trajectoire du point matériel. La vitesse instantanée du point est donnée par le
vecteur ϕ0 (t) = (x0 (t), y 0 (t), z 0 (t)).
Définition 4.1. - On dit qu’une paramétrisation ϕ : [a, b] → Rn d’une courbe Γ est régulière
si ϕ est de classe C 1 (c’est à dire que ses composantes ϕ1 , . . . , ϕn sont toutes des fonctions
de classe C 1 ) et si, pour tout t ∈ [a, b], le vecteur ϕ0 (t) ∈ Rn n’est pas le vecteur (0, . . . , 0).
S’il existe une partition finie a = a0 ≤ a1 ≤ a2 ≤ . . . ≤ aN = b de l’intervalle [a, b] telle
que ϕ est régulière dans tout intervalle [ai , ai+1 ] on dit que ϕ est régulière par morceaux.
Un point où ϕ0 (t0 ) s’annule est dit point singulier.
- On dit qu’une courbe paramétrée ϕ : [a, b] → Rn est fermée si ϕ(a) = ϕ(b).
- On dit qu’une courbe paramétrée ϕ : [a, b] → Rn est simple si ϕ(t) 6= ϕ(t0 ), pour tout
t 6= t0 et a < t < b, a < t0 < b. Cela signifie que la courbe n’a pas d’intersection avec elle
même.

Exemple 4.1. - Si f : [a, b] → R est une fonction de classe C 1 , on peut toujours lui associer
une courbe paramétrée dans R2 régulière, simple, non fermée, en prenant son graphe. Cela
revient à poser ϕ(t) = (t, f (t)), t ∈ [a, b].
- La fonction ϕ(t) = (cos(t), sin(t)), où t ∈ [0, 2π] définit une paramétrisation régulière,
simple, fermée. Le support de cette courbe paramétrée est le cercle de centre O et de
rayon 1.
- La courbe paramétrée ϕ(t) = (t2 , t3 ), t ∈ [−2, 2] est simple non régulière. En effet,
observons que le vecteur dérivée 0 2
 ϕ 2(t) = (2t, 3t ) s’annule pour t = 0. Pour dessiner cette
x=t
courbe, on part du système et on obtient, en éliminant t (il faut distinguer t ≥ 0
y = t3
et t < 0) y = ±x2/3 , avec 0 ≤ x ≤ 4. On voit alors sans peine que le support Γ de cette
courbe présente un cusp à l’origine.
- Soit a ∈ Rn et v un vecteur de Rn . L’équation paramétrique de la droite d passant par le
point a = (a1 , . . . an ) et parallèle au vecteur v = (v1 , . . . , vn ) est l’application

ϕ(t) = a + tv t∈R

Si t0 ∈ R, la même droite d peut aussi être paramétrée par

ϕ(t) = a + (t − t0 )v t ∈ R.

- Les bords des polygônes sont des exemples typiques de courbes qui admettent des pa-
ramétrisations régulières par morceaux, mais pas de paramétrisation régulières.

Droite et verseur tangent. Soit ϕ une paramétrisation régulière, définie sur un intervalle
[a, b], et soit t0 et t1 deux points de cet intervalle. La droite passant par les points ϕ(t0 ) et ϕ(t1 )

9
ϕ(t1 )−ϕ(t0 )
s’identifie à la droite passant par ϕ(t0 ) et parallèle au vecteur v = t1 −t0 . Ainsi, cette droite
est paramétrée par l’application
ϕ(t1 ) − ϕ(t0 )
t 7→ ϕ(t0 ) + (t − t0 ) , t ∈ R.
t1 − t0
En passant à la limite pour t1 → t0 on trouve
ϕ(t0 ) + ϕ0 (t0 )(t − t0 ), t ∈ R. (4.1)
qui est l’équation paramétrique de la droite tangente au support de ϕ au point ϕ(t0 ). Observons
que cette droite est parallèle au vecteur ϕ0 (t0 ). Le vecteur
ϕ0 (t0 )
T~ (t0 ) =
kϕ0 (t0 )k
qui est de norme unitaire, est donc le verseur tangent à la courbe au point ϕ(t0 ).

4.2 Longueur d’une courbe


Pour définir la longueur d’une courbe paramétrée ϕ : [a, b] → Rn , considérons la famille P
de toutes les partitions finies possibles a = a0 < a1 < . . . < aN = b de l’intervalle [a, b]. À partir
d’une telle partition, on considère les points ϕ(ai ), i = 0, . . . , N appartenant au support de la
courbe et les ségments de Rn , [ϕ(ai ), ϕ(ai+1 )] = {(1 − t)ϕ(ai ) + tϕ(ai+1 ) : t ∈ [0, 1]}. Si P ∈ P
est une telle partition, la quantité
N
X −1
L(P ) = kϕ(ai ) − ϕ(ai+1 )k
i=0

n’est rien d’autre que la longueur de la ligne affine par morceaux qui relie les points ϕ(ai ). Il est
alors naturel de définir la longueur de la courbe comme
Long(ϕ) = sup{L(P ) : P ∈ P}.
On peut démontrer que si ϕ est une courbe régulière par morceaux, alors la quantité ci-dessus
est toujours finie.
Théorème 4.1. Pour toute courbe paramétrée régulière par morceaux, on a
Z b
Long(ϕ) = kϕ0 (t)k dt.
a

La démonstration de ce théorème est hors programme.


Exemple 4.2 (Longueur du cercle). En paramétrant le cercle R 2πcentré
p en O et de rayon R par
ϕ(t) = (R cos t, R sin t), t ∈ [0, 2π] on voit que sa longueur est 0 (−R sin t)2 + (R cos t)2 dt =
2πR.

4.3 Paramétrisations équivalentes et abscisse curviligne


Une même courbe Γ peut être paramétrée de plusieurs manière différentes.
Définition 4.2. On dit que deux paramétrisations régulières par morceaux ϕ : [a, b] → Rn et
ψ : [c, d] → Rn d’une même courbe sont équivalentes s’il existe un difféomorphisme h : [a, b] →
[c, d] (h est donc une application bijective et h et h−1 sont de classe C 1 ) telle que, pour tout
t ∈ [a, b], on a
ϕ(t) = ψ(h(t)).
Dans ce cas on écrit ϕ ∼ ψ

10
La relation ∼ est une relation d’équivalence. Observons que pour un difféomorphisme h : [a, b] →
[c, d] il y a deux possibilité : soit h est strictement croissante, soit h est strictement décroissante
(c’est une conséquence de la bijectivité, de la continuité, et du théorème des valeurs intermédiaires).
Dans le premier cas on dit que ϕ et ψ ont la même orientation.

Exemple 4.3. Un quart de cercle peut être paramétrée√par t 7→ (R cos t, R sin t), t ∈ [0, π/2],
mais aussi, en tant graphe d’une fonction, par x 7→ (x, R2 − x2 ), x ∈ [0, R]. On construit le
difféomorphisme h : [0, π/2] → [0, R] en posant x = h(t) = R cos t. Les deux paramérisations
sont alors équivalentes. Observons que le sens de parcours n’est pas le même dans ce deux cas.
En effet la fonction h est décroissante.

Remarque 4.4. Si ϕ : [a, b] → Rn et ψ : [c, d] → Rn , avec ϕ ∼ ψ par un difféomorphisme h, et


si s0 = h(t0 ), alors le verseur tangent au point ϕ(t0 ) = ψ(s0 ) est

ϕ0 (t0 ) ψ 0 (h(t0 ))h0 (t0 ) ψ 0 (s0 )


T~ (t0 ) = = = ± ,
kϕ(t0 )k kψ 0 (h(t0 )k |h0 (t0 )| kψ(s0 )k

avec le signe + si ϕ et ψ ont la même orientation et le signe − dans le cas contraire. Ce calcul
montre que la droite tangente à une courbe Γ ne dépend pas de la paramétrisation choisie.

Définition 4.3. Une paramétrisation normale, ou paramérisation par abscisse curviligne d’une
courbe Γ, est une paramétrisation ψ : [0, Long(Γ)] → Rn telle que kψ 0 (s)k = 1 pour tout 0 ≤
s ≤ Long(Γ).

Proposition 4.2. Toute courbe Γ régulière par morceaux admet une paramétrisation normale
équivalente

Dém. À partir d’une paramétrisation régulière par morceaux ϕ : [a, b] → Rn , construisons une
paramétrisation normale ψ ∼ ϕ. Pour cela il suffit de définir h : [a, b] → [0, Long(ϕ)], avec
Z t
h(t) = kϕ0 (τ )k dτ.
a

Cette application h définit bien un difféomorphisme entre [a, b] et 0, Long(ϕ)]. Ensuite il suffit
de poser ψ(s) = ϕ(h−1 (s)) (ou ϕ(t) = ψ(h(t)), de manière équivalente). Observons que ψ 0 (s) =
ϕ0 (h−1 (s))((h−1 )0 (s)). Mais, pour tout s, h(h−1 (s)) = s et en dérivant terme-à-terme cette
relation on trouve (h−1 )0 (s) = 1/h0 (h−1 (s)) (c’est la formule usuelle de la dérivée de l’application
inverse). Comme h0 (t) = kϕ(t)k, on trouve
1
ψ 0 (s) = ϕ0 (h−1 (s)) .
kϕ0 (h−1 (s))k

Mais alors kψ 0 (s)k = 1.

L’abscisse curviligne (c’est-à-dire, le paramètre d’une paramétrisation normale) d’une courbe


Γ est traditionnellement notée avec la lettre s. Observons que la différentielle ds = kϕ0 (t)k dt
s’interprete comme un “élément infinitésimal de longueur de la courbe”.
Définition 4.4. Soit f : Γ → R une fonction continue, définie sur le support Γ d’une courbe
régulière par morceaux, paramétrée par ϕ : [a, b] → R. L’intégrale curviligne de f le long Γ est
définie par
Z Z b
f ds = f (ϕ(t))kϕ0 (t)k dt.
Γ a

11
Observons que dans le cas particulier où Γ est un intervalle [a, b], en le paramétrant par
R Rb
ϕ(t) = t, on trouve que Γ f ds = a f (t) dt. L’intégrale curviligne est dont une généralisation
de l’intégrale usuelle. R
Il est facile, à l’aide du théorème de changement de variables, de prouver que Γ f ds
est indépendant de la paramétrisation choisie pour Γ. En particulier (en prenant la fonction
constante f = 1) on voit que la longueur est indépendante du choix de la paramétrisation.
Exemple 4.5. Une paroi verticale est limitée par le haut par la courbe d’équation t 7→ (t, t2 , 6t),
t ∈ [0, 1]. Quelle est l’aire de la surface de cette paroi ? Réponse. Le profil au sol de la paroi est la
courbe Γ de R2 paramétrée par t 7→ (t, t2 ),
R t ∈ [0, 1].R Considérons ensuite la fonction f (x, y) = 6x.
1√
Il s’agit de calculer l’intégrale curviligne Γ f ds = 0 1 + 4t2 6t dt = [(1+4t2 )3/2 ]t=1 t=0 = 5
3/2 −1.

4.4 La courbure
Soit ψ : [0, Long(Γ)] → R2 la paramétrisation normale d’une courbe Γ. On note par s
l’abscisse curviligne. On suppose que ϕ est de classe C 2 .
On sait que kψ 0 (s)k = 1, donc
T~ (s) = ψ 0 (s),
~ (s) le verseur normal à T~ (s), de manière
est le verseur tangent à la courbe au point ψ(s). Soit N
que (T (s), N (s)) soit une base orthonormé directe du plan ∗ .
~ ~

Proposition 4.3. Il existe une fonction continue s 7→ κ̄(s) telle que ψ 00 (s) = κ̄(s)N ~ (s). En
particulier, si la courbe est paramétrée à l’aide de l’abscisse curviligne, alors la direction normale
à la courbe au point ϕ(s) est donnée par le vecteur ϕ00 (s).
Dém. En effet ψ 0 (s) · ψ 0 (s) = T~ (s) · T~ (s) = kT~ (s)k2 = 1. En dérivant par rapport à s on trouve
~ (s).
2ψ 00 (s) · ψ 0 (s) = 0. Mais alors ψ 00 (s) est orthogonal à ψ 0 (s), et donc parallèle à N

Définition 4.5. La courbure algébrique κ̄(s) de ψ au point ψ(s) est le nombre réel

κ̄(s) = ψ 00 (s) · N
~ (s) = T~ 0 (s) · N
~ (s).

La courbure de ϕ au point ϕ(s) est le nombre ≥ 0

κ(s) = |κ̄(s)| = kψ 00 (s)k.


1
Le rayon de courbure est R(s) = κ(s) .
Si κ(s) 6= 0, on dit que le point ψ(s) est birégulier.
Exemple 4.6. Le cercle de rayon R admet la paramétrisation normale ψ(s) = (R cos Rs , R sin Rs ).
La courbure vaut κ(s) = kψ 00 (s)k = R1 . La courbure d’un cercle de rayon R est donc constante
et égale à 1/R. Le rayon de courbure du cercle est alors constant égale à R.
Étant donnée une courbe Γ, il n’est pas aisé d’expliciter la paramétrisation normale (en effet,
l’intégrale de longueur est souvent difficile à calculer). À partir d’une paramétrisation quelconque
t 7→ ϕ(t), on peut trouver la courbure à l’aide de la proposition suivante :
Proposition 4.4. Soit ϕ : [a, b] → R2 une courbe paramétrée régulière de classe C 2 . Alors pour
tout t ∈ [a, b] on a
det(ϕ0 (t), ϕ00 (t)) | det(ϕ0 (t), ϕ00 (t))|
κ̄(t) = , et κ(t) = .
kϕ0 (t)k3 kϕ0 (t)k3
∗. Rappelons que si T~ et N~ sont deux vecteurs dans le plan orthogonaux, de norme unitaire, alors le déterminant
de la matrice 2 × 2 (T~ , N
~ ) est de déterminant ±1. Affirmer que (T~ (s), N
~ (s)) est une “base directe” signifie que le
déterminant est positif

12
Dém. Considérons la paramétrisation normale ψ(s) = ϕ(t(s)) de Γ, où t(s) = h−1 (s), h étant
le difféomorphisme introduit dans la démonstration de la Proposition 4.2. Nous avons (voir la
démonstration de la Proposition 4.2) :
ϕ0 (t(s))
ψ 0 (s) = .
kϕ0 (t(s))k
En dérivant par rapport à s on trouve
ϕ00 (t(s))
ψ 00 (s) = + λ(s)ϕ0 (t(s)),
kϕ0 (t(s))k2
1
où λ(s) est la dérivée de la fonction s 7→ kϕ0 (t(s))k ,
qu’on n’aura pas besoin de calculer. Donc, en
appliquant les propriétés élémentaires du déterminant det(~a, ~b + λ~c) = det(~a, ~b) + λ det(~a, ~c) et
det(~c, ~c) = 0, on voit que
det(ϕ0 (t), ϕ00 (t))
det(ψ 0 (s), ψ 00 (s))) = .
kϕ0 (t)k3
D’autre part,
det(ϕ0 (s), ψ 00 (s)) = det(T~ (s), κ̄(s)N
~ (s)) = κ̄(s).

4.5 Étude locale des courbes planes


Considérons une paramétrisation normale ψ : [0, Long(Γ)] → R2 d’une courbe Γ, et supposont
ψ de classe C 2 .
Au voisinage de s0 ∈ [0, Long(Γ)] → R2 , en écrivant un développement limité d’ordre 2 on
trouve
(s − s0 )2 00
ψ(s) = ψ(s0 ) + (s − s0 )ψ 0 (s0 ) + ψ (s0 ) + o((s − s0 )2 ).
2
On sait déjà que s 7→ ϕ(s0 ) + (s − s0 )ϕ0 (s0 ) est la paramétrisation de la droite tangente à la
2
courbe au point ψ(s0 ). Le terme suivant du développement (s−s2 0 ) ψ 00 (s0 ) (son signe, notamment)
nous renseigne sur le positionnement de la courbe par rapport à cette droite, au voisinage de
ψ(s0 ). Plus précisément, réecrivons le développement précédent comme
(s − s0 ) ~ 2
ψ(s) = ψ(s0 ) + (s − s0 )T~ (s0 ) + κ̄(s0 ) N (s0 ) + o((s − s0 )2 ).
2
Si ψ(s0 ) est un point bi-régulier, les vecteurs T~ (s0 ) et N ~ (s0 ) sont bien définis. Dans le repère or-
thonormée (ψ(s0 ), T~ (s0 ), N
~ (s0 )), c’est-à-dire le repère avec pour origine ψ(s0 ) et base (T~ (s0 ), N
~ (s0 )),
la courbe Γ admet alors pour composantes (en négligeant les termes d’ordre supérieur)
(s − s0 )2
(s − s0 , κ̄(s0 ) ).
2
Ainsi, dans ce repère la courbe se comporte localement comme une parabole.

Exemple d’étude d’un point singulier Si ϕ : [a, b] → R2 est une paramétrisation d’une
courbe admettant un point singulier ϕ(t0 ), la formule pour la construction de la droite tan-
gente (4.1) ne s’applique plus. Certaines courbes admettent cependant une droite tangente aux
points singuliers. Si c’est le cas, la pente de cette droite est donnée par la limite
y(t) − y(t0 )
` = lim .
t→t0 x(t) − x(t0 )
La droite est alors celle d’équation y = `(x − x(t0 )) + y(t0 ).

13
Exemple 4.7. Étudions le point singulier de la courbe paramétrée par x(t) = 1 + t2 et y(t) =
y(t)−y(0)
−1 + t2 − t3 . Le point singulier est (x(0), y(0)) = (1, −1). La limite ` = limt→0 x(t)−x(0) existe et
vaut ` = 1. La droite tangente au point singulier est donc la droite d’équation y = x − 2. Pour
connaı̂tre l’allure de la courbe au voisinage du point singulier, étudions la position de la courbe
par rapport au point (1, −1) : pour cela observons que x(t) − 1 = t2 ≥ 0 et y(t) + 1 = t2 − t3 ≥ 0
au voisinage de t = 0, la courbe reste alors à la droite et en haut par rapport au point (1, −1), au
voisinage de celui-ci. Étudions ensuite la position de la courbe par rapport à sa droite tangente :
on a y(t) − x(t) + 2 = −t3 , qui change de signe en t = 0. Ainsi la courbe est à la fois au dessus
et en dessous de sa droite tangente au voisinage du point (1, −1). Ces renseignements nous
permettent de dire que la courbe présente en (1, −1) une singularité de type “cusp”.

5 Nappes paramétrées et surfaces de R3


5.1 Rappel sur le produit vectoriel
Soit (i, j, k) la base canonique de R3 . Considérons deux vecteurs ~a et ~b de R3 non co-linéaires.
Rappelons que le vecteur  
i j k
~a ∧ ~b = det a1 a2 a3  (5.1)
b1 b2 b3
est le vecteur orthogonal à ~a et ~b, de norme k~a ∧ ~bk = k~ak k~bk | sin θ|, où θ est l’angle orienté
compris entre ~a et ~b et tel que (~a, ~b, ~a ∧ ~b) forme une base directe de R3 . La norme k~a ∧ ~bk est
donc égale à l’aire du parallélogramme engendrée par ~a et ~b.
Le produit mixte  
a1 a2 a3
[~a, ~b, ~u] = (~a ∧ ~b) · ~u = det  b1 b2 b3 
u1 u2 u3
s’interprète comme le volume (avec signe) du parallélipipède engendré par les vecteurs ~a, ~b et ~u.

5.2 Surfaces et nappes paramétrées


Une surface est une partie Σ ⊂ R3 , de la forme
Σ = {ϕ(u, v) : u, v ∈ K} ⊂ R3 .
où ϕ est une application ϕ : K → R3 , et K = U est un compact de R2 , égale à l’adhérence d’un
ouvert U ⊂ R2 . L’application ϕ est une paramétrisation de Σ. On dit aussi que ϕ est une nappe
paramétree et que l’ensemble Σ est le support de la nappe.
Exemple 5.1. (paramétrisation d’un plan de R3 ) Soient ~a et ~b deux vecteurs de R3 non co-
linéaires. Ces deux vecteurs engendrent un plan π passant par l’origine, qui est le sous-espace
vectoriel de R3 donné par π = {u(a1 , a2 , a3 ) + v(b1 , b2 , b3 ) : u, v ∈ R}.
Si P̄ = (x̄1 , x̄2 , x̄3 ) ∈ R3 , alors le plan passant par P̄ et parallèle à π admet comme équation
paramétrique
u, v ∈ R.
ϕ(u, v) = (x̄1 , x̄2 , x̄3 ) + u (a1 , a2 , a3 ) + v (b1 , b2 , b3 ),
−−→
Ce même plan consiste en l’ensemble points P = (x1 , x2 , x3 ) tels que le vecteur P̄ P est orthogonal
à ~a ∧ ~b. Ainsi,
 
−−→ (x − x̄)1 (x − x̄)2 (x − x̄)3
(x1 , x2 , x3 ) ∈ π ⇐⇒ (~a ∧ ~b) · P̄ P = 0 ⇐⇒ det  a1 a2 a3  = 0.
b1 b2 b3

14
La dernière égalité est l’équation cartesienne du plan passant par P̄ , de vecteurs directeurs
~a et ~b.

Exemple 5.2. La sphère centrée en O et de rayon R peut se paramétrer à l’aide de la longitude


et de la co-latitude par l’application

(φ, θ) 7→ (R sin θ cos φ, R sin θ sin φ, R cos θ), φ ∈ [0, 2π[, θ ∈ [0, π].

Posons ϕv = ( ∂ϕ 1 ∂ϕ2 ∂ϕ3 ∂ϕ1 ∂ϕ2 ∂ϕ3


∂u , ∂u , ∂u ) et ϕv = ( ∂v , ∂v , ∂v ).
Définition 5.1. On dit qu’une paramétrisation ϕ : K → R3 d’une surface Σ est régulière si ϕ

est de classe C 1 , injective dans K , et, pour tout (u, v) à l’intérieur de K, les deux vecteurs de
R3 ϕu (u, v) et ϕv (u, v) sont linéarement indépendants.
Justifions la définition précédente. Fixons v = v0 et faisons varier le paramètre u. L’appli-
cation u 7→ ϕ(u, v0 ) définit une courbe paramétrée dans R3 , dont le support est contenu sur la
surface Σ. De la même manière, si on fixe u = u0 et on fait varier v, on obtient une autre courbe
paramétrée v 7→ ϕ(u0 , v) sur la surface. Ces deux courbes admettent comme vecteurs tangents
au point P0 = ϕ(u0 , v0 ) ∈ R3 respectivement les vecteurs ~a = ∂ϕ ~ ∂ϕ
∂u (u0 , v0 ) et b = ∂v (u0 , v0 ). Sous
l’hypothèse de paramétrisation régulière, ces deux vecteurs sont linéairement indépendants et
donc ils engendrent un plan dans R3 . Il s’agit du plan tangent à Σ au point P0 .
Le plan tangent à Σ au point P0 a donc pour équation paramétrique

(u, v) 7→ ϕ(u0 , v0 ) + u ϕu (u0 , v0 ) + v ϕv (u0 , v0 ), u, v ∈ R.

Le verseur normal à une surface Σ paramétrée par (u, v) 7→ ϕ(u, v), au point ϕ(u, v) est alors
donnée par la formule
(ϕu ∧ ϕv )(u0 , v0 )
~ν (u0 , v0 ) = .
k(ϕu ∧ ϕv )(u0 , v0 )k
Exemple 5.3. Le cylindre Σ de de base le disque {(x, y) : x2 + y 2 ≤ R2 } et hauteur infinie peut
être paramétrée par
(θ, z) : (cos θ, sin θ, z), θ ∈ [0, 2π], z ∈ R.
Le plan tangent au cylindre au point (cosθ0 , sin θ0 , z0 ) est le plan paramétré par

(θ, z) 7→ (cos θ0 , sin θ0 , z0 ) + θ(− sin θ0 , cos θ0 , 0) + z(0, 0, 1).

L’équation cartesienne de ce plan est


 
x − cos θ0 y − sin θ0 z − z0
0 = det  − sin θ0 cos θ0 0  = x cos θ0 + y sin θ0 − 1
0 0 1

Exemple 5.4. Le graphe d’une fonction de 2 variables f peut être paramétré par

(x, y) 7→ (x, y, f (x, y)).

Le verseur normal au graphe est alors donné par la formule


1
ν=p (−fx , −fy , 1).
1 + |∇f |2

15
5.3 Aire d’une surface paramétrée et intégrale de surface
Considérons la surface Σ paramétrée par (u, v) 7→ ϕ(u, v), où (u, v) ∈ K. Considérons un
grillage de K, le subdivisant en petits rectangles d’aire du dv, et soit R0 l’un de ces rectangles,
de sommets (u0 , v0 ), (u0 + du, v0 ), (u0 , v0 + dv) et (u0 + du, v0 + dv). L’application ϕ envoie
R0 en une petite portion de la surface ϕ(R0 ). Mais en appliquant la formule de Taylor d’ordre
1 (en négligeant le reste),

ϕ(u0 + du, v0 ) ' ϕ(u0 , v0 ) + ϕu (u0 , v0 ) et ϕ(u0 , v0 + dv) ' ϕ(u0 , v0 ) + ϕv (u0 , v0 ).

Ainsi, la portion de surface ϕ(R0 ) est est approximativement le parallélogramme construit à


l’aide de vecteurs ϕu (u0 , v0 ) et ϕv (u0 , v0 ), pointés en ϕ(u0 , v0 ). Ce parallélogramme est d’aire
k(ϕu ∧ ϕv )(u0 , v0 )k du dv. Ainsi la quantité
déf
dσ = k(ϕu ∧ ϕv )(u, v)k du dv

s’interpréte comme un “élément infinitesimal d’aire” sur la surface. Cela conduit naturellement
à la définition suivante : Z
Aire(Σ) = k(ϕu ∧ ϕv )(u, v)k du dv.
K

Exemple 5.5. La formule précédente, appliquée à la sphère de rayon R, donne l’aire A = 4πR2 .
Définition 5.2. Soit f : Σ → R une fonction continue, définie sur une surface Σ régulière,
paramétrée par (u, v) 7→ ϕ(u, v), où (u, v) ∈ K. La quantité
Z Z
déf
f dσ = f (ϕ(u, v))k(ϕu ∧ ϕv )(u, v)k du dv
K K

est l’intégrale de surface de f sur Σ.


Pour les nappes paramétrées, tout comme pour les courbes, on peut introduire la notion de
paramétrisations équivalentes. On montre alors que l’intégrale de surface est indépendant de la
paramétrisation choisie. En particulier (en considérant la fonction constante f = 1), l’aire d’une
surface est indépendante de la paramétrisation choisie.

6 Le théorème des fonctions implicites


6.1 Le cas des fonctions de deux variables
Une courbe dans le plan est souvent donnée à l’aide d’une équation de la forme

F (x, y) = 0.

Le but de cette section est d’étudier les propriétés de telles courbes. À partir de l’équation
F (x, y) = 0 il est parfois possible d’exprimer une variable en fonction de l’autre, par exemple
y = f (x). Dans ce cas la courbe d’équation F (x, y) = 0 est le graphe de la fonction f . Il peut
être plus aisé d’exprimer x comme fonction de y : si l’on peut écrire x = g(y) cela signifie que
la courbe est le graphe de la fonction g.
Mais il y a des courbes qui ne sont pas (globalement) de graphes : c’est le cas, par exemple,
du cercle centré en O de rayon 1, qui correspond aux solutions de l’équation x2 + y 2 − 1 = 0.
Localement la situation est différente : si on fixe un point du cercle (x0 , y0 ) il est possible de
trouver un voisinage de ce point où le cercle est
√ bien le graphe d’une fonction y = f (x) √ et/ou
x = g(y) : il s’agit de prendre la fonction y = 1 − x 2 (si y > 0) ou la fonction y = − 1 − x2
p p0
(si y0 < 0) ; ou encore x = 1 − y 2 (si x0 > 0) ou x = − 1 − y 2 (si x0 < 0).

16
Étant donnée une courbe d’équation F (x, y) = 0, et un point (x0 , y0 ) de cette courbe, quand
est-ce qu’on peut dire que la courbe est (au moins localement) le graphe d’une fonction y = f (x) ?
La réponse est fournie par le théorème ci-dessous :

Théorème 6.1 (des fonctions implicites pour les fonctions de 2 variables). Soit U un ouvert de
R2 et F : U → R une fonction de classe C 1 . Soit (x0 , y0 ) ∈ U tel que
∂F
F (x0 , y0 ) = 0, (x0 , y0 ) 6= 0.
∂y
Alors il existe un voisinage I de x0 , un voisinage J de y0 et une fonction f : I → J tels que

∀ (x, y) ∈ I × J : F (x, y) = 0 ⇐⇒ y = f (x).

Dans ce cas la fonction x 7→ f (x) est de classe C 1 et

Fx (x, f (x))
f 0 (x) = − , (6.1)
Fy (x), f (x))
∂F ∂F
où Fx = ∂x et Fy = ∂y .

Revenons au cas de l’équation x2 + y 2 − 1 = 0. Les hypothèse sont satisfaites en tout point


(x0 , y0 ) du cercle, sauf aux points (−1, 0) et (1, 0) : au voisinage de ces deux points il n’est
manifestement pas possible exprimer y comme fonction de x, mais il est possible exprimer x en
fonction de y.

Remarque 6.1. En échangeant les rôles des variables x et y on trouve ceci : Si (x0 , y0 ) ∈ U
est un point tel que
∂F
F (x0 , y0 ) = 0, (x0 , y0 ) 6= 0.
∂x
Alors il existe un voisinage I de x0 et un voisinage J de y0 et une fonction g : J → I tels que

∀ (x, y) ∈ I × J : F (x, y) = 0 ⇐⇒ x = g(x).


F (g(y),y)
Dans ce cas la fonction y 7→ g(y) est de classe C 1 et g 0 (y) = − Fxy (g(y),y) .

Dém. du théorème. Nous pouvons supposer, par exemple Fy (x0 , y0 ) > 0. Par la continuité de Fy ,
on a Fy (x, y) > 0 dans un rectangle I × J. Posons J = [y0 − h, y0 + h]. La fonction y 7→ F (x0 , y)
étant croissante dans J on a F (x0 , y0 − h) < 0 et F (x0 , y0 + h) > 0. Considérons les fonctios
continues x 7→ F (x0 , y0 − h) et x 7→ F (x0 , y0 + h). Quitte à remplacer I par un intervalle centré
en x0 plus petit, pour x ∈ I on a : F (x, y0 − h) < 0 et F (x, y0 + h) > 0. Par le théorème des
valeures intermédiaires, appliqué à la fonction croissante y 7→ F (x, y) (avec x fixé), il existe un
et un seul y = f (x) tel que F (x, f (x)) = 0. La fonction f est ainsi construite.
Démontrons que f est de classe C 1 : Prenons x, x1 ∈ I. En appliquant le théorème des
accroissements finis à la fonction

Φ(t) = F ((1 − t)x1 + tx, (1 − t)f (x1 ) − tf (x)), 0 ≤ t ≤ 1,

on trouve
∃τ ∈ [0, 1] : Φ(1) − Φ(0) = Φ0 (τ ).
Considérons le point Pτ = ((1 − τ )x1 + τ x, (1 − τ )f (x1 ) − τ f (x)), qui est un point sur le ségment
de (x, f (x)) à (x1 , f (x1 )). L’égalité précédente se réécrit

F (x, f (x)) − F (x1 , f (x1 )) = Φ0 (τ ) = (x − x1 )Fx (Pτ ) + (f (x) − f (x1 ))Fy (Pτ ).

17
D’autre part, F (x, f (x)) = F (x1 , f (x1 )) = 0. Donc,

f (x) − f (x1 ) Fx (Pτ )


=− .
x − x1 Fy (Pτ )

Si l’on prend x1 → x, on a Pτ → (x, f (x)). Mais comme F est de classe C 1 , on voit que f est
dérivable et
Fx (x, f (x))
f 0 (x) = − .
Fy (x, f (x))
L’expression à droite étant une fonction continue de x, on trouve que f est de classe C 1 .

La démonstration ci-dessus montre que si f est de classe C k , alors f est de classe C k .


Corollaire 6.2. Si F est une fonction de classe C 1 au voisinage de (x0 , y0 ) ∈ R2 et ∇F (x0 , y0 ) 6=
(0, 0), alors la courbe d’équation F (x, y) = 0 possède une droite tangente au point (x0 , y0 ) et
∇F (x0 ,y0 )
ν = k∇F (x0 ,y0 )k est le verseur orthogonal la courbe d’équation F (x, y) = 0, au point (x0 , y0 ).

Dém. En effet, au voisinage de (x0 , y0 ), la courbe est le graphe d’une fonction dérivable de la
forme y = f (x), ou éventuellement de la forme x = g(y). Traitons, par exemple, le premier cas.
Un point (x, y) appartient à la droite tangente si et seulement si y − y0 = f 0 (x0 )(x − x0 ), c’est
à dire si et seulement si (d’après (6.1)) (x − x0 )Fx (x0 , y0 ) + (y − y0 )Fy (x0 , y0 ) = 0. Cela dit
précisément que le vecteur ∇F (x0 , y0 ) est orthogonale à (x − x0 , y − y0 ), c’est à dire orthogonale
à la droite tangente.

Corollaire 6.3. Si g : U → R est une fonction de classe C 1 , où U est un ouvert de R2 , alors en
tout point (x0 , y0 ) ∈ U , ∇g(x0 , y0 ) est orthogonal à la ligne de niveau de g passant par (x0 , y0 ).
Dém. Si ∇g(x0 , y0 ) = 0 il n’y a rien à démontrer (le vecteur nul est orthogonal à tous les
vecteurs). Si ∇g(x0 , y0 ) 6= 0, considérons la fonction F (x, y) = g(x, y) − c où c = g(x0 , y0 ). On a
∇F (x0 , y0 ) = ∇g(x0 , y0 ) et la ligne de niveau de g passant par (x0 , y0 ) est l’ensemble d’équation
F (x, y) = 0. Le résultat est alors une conséquence immédiate du corollaire précédent.

6.2 Le cas des fonctions de 3 variables


Si F : U → R est une fonction de 3 variables de classe C 1 , définie sur un ouvert U ⊂ R3 et
telle que, en un point (x0 , y0 , z0 ) ∈ U on a

F (x0 , y0 , z0 ) = 0, Fz (x0 , y0 , z0 ) 6= 0,

alors il est possible, localement, d’exprimer z comme fonction de x et de y. Autrement dit, il


existe un voisinage V de (x0 , y0 ), un voisinage J de z0 et une fonction, de classe C 1 , f : V → J
tels que
∀ (x, y, z) ∈ V × J : F (x, y, z) = 0 ⇐⇒ z = f (x, y)
et dans ce cas
Fx (x, y, f (x, y)) Fy (x, y, f (x, y))
fx (x, y) = − , fy (x, y) = − .
Fz (x, y, f (x, y)) Fz (x, y, f (x, y))
La démonstration est semblable à celle du théorème précédent et omise ici.
Dans ce cas la surface représentative du graphe de la fonction z = f (x, y) possède, au point
(x, y, f (x, y)), un verseur normal donné par (voir l’exemple 5.4)

(−fx , −fy , 1)
ν= p ,
1 + k∇f k2

18
où toutes les dérivées sont calculées au point (x, y). Supposons maintenant, par exemple, que
Fz (x0 , y0 , z0 ) > 0. Compte tenu des formules précédentes pour fx et fy , on trouve
 
Fx Fy Fz ∇F
ν= , , = . (6.2)
k∇F k k∇F k k∇F k k∇F k

Exemple 6.2. La fonction F (x, y, z) = x2 ez + zey + y 2 s’annule à l’origine. De plus Fz (0, 0, 0) =


1. Par conséquent, l’équation F (x, y, z) = 0 est, au voisinage de l’origine, le graphe d’une fonction
f (x,y)
z = f (x, y). Cette fonction f est solution du système différentiel fx (x, y) = − x22xe ef (x,y) +ey
et
y
fy (x, y) = − f (x,y)e +2f (x,y)
x2 ef (x,y) +ey
. De plus, on a f (0, 0) = 0 et fx (0, 0) = 0, fy (0, 0) = 0.

Observons que la formule (6.2) implique que, pour une fonction de 3 variables, le vecteur
gradient est orthogonal, en tout point, à la surface de niveau passant par ce point. Cette af-
firmation se démontre comme dans le cas des fonctions de 2 variables (voir le corollaire 6.3).
En généralisant à n variables, il n’est pas difficile de se convaincre alors de la validité de la
proposition suivante :

Proposition 6.4. Soit Σ un ensemble de niveau d’une fonction g de n nariables de classe C 1 ,


et x0 ∈ Σ un point tel que g(x0 ) = 0, ∇g(x0 ) 6= 0. Alors le vecteur ∇g(x0 ) est orthogonal à la
surface Σ au point x0 .

Traitons maintenant le cas de deux équations de la forme


(
F (x, y, z) = 0
(6.3)
G(x, y, z) = 0,

où les fonctions F et G sont de classe C 1 au voisinage de P0 = (x0 , y0 , z0 ). On se propose


d’exprimer deux variables en fonction de la troisième, par exemple y = f (x) et z = g(x). Pour
cela, commençons par supposer

F (P0 ) = G(P0 ) = 0, Fz (P0 ) 6= 0.

En appliquant ce qui a été vu au début de cette section on peut écrire, au voisinage de P0 ,

F (x, y, z) = 0 ⇐⇒ z = ϕ(x, y).

Considérons maintenant la fonction

Φ(x, y) = G(x, y, ϕ(x, y)).

Au voisinage de P0 on a
( ( (
F (x, y, z) = 0 z = ϕ(x, y) z = ϕ(x, y)
⇐⇒ ⇐⇒ .
G(x, y, z) = 0 G(x, y, ϕ(x, y)) = 0 Φ(x, y) = 0

Observons que
Fy
Φy = Gy + Gz ϕy = Gy − Gz . (6.4)
Fz
Maintenant, supposons que 0 6= Φy (x0 , y0 ).
Dans ce cas nous pouvons exprimer y en fonction de x et écrire, au voisinage de (x0 , y0 ),

Φ(x, y) = 0 ⇐⇒ y = f (x).

19
Cela donne alors, au voisinage de P0 ,
(
F (x, y, z) = 0
⇐⇒ y = f (x) et z = ϕ(x, f (x)) = g(x).
G(x, y, z) = 0

Pour arriver à cette conclusion nous avons eu besoin de supposer :

F (P0 ) = G(P0 ) = 0, Fz (P0 ) 6= 0 et Φy (x0 , y0 ) 6= 0. (6.5)

Mais la formule précédemment donnée pour Φy montre que

∂(F, G)
Φy (x0 , y0 ) 6= 0 ⇐⇒ det 6= 0,
∂(y, z)

où  
∂(F, G) Fy Fz
= .
∂(y, z) G y Gz

Observons par allieurs que lorsque det ∂(F,G)


∂(y,z) 6= 0, on ne peut avoir simultanément Fz (P0 ) = 0 et
Gz (P0 ) = 0. Or, on a déjà vu que si Fz (P0 ) 6= 0 on peut exprimer les solutions du système (6.3)
par les relations y = f (x) et z = g(x). Si on revanche Fz (P0 ) = 0 on doit avoir Gz (P0 ) 6= 0 et en
interchageant les rôles de F et G on parvient à la même conclusion. Autrement dit, dans (6.5),
la condition Fz (P0 ) 6= 0 est superflue.
Les discussions précédentes nous conduisent à énoncer le théorème suivant.

Théorème 6.5 (Des fonctions implicites – 3 variables). Soit F et G deux fonctions de classe
C 1 au voisinage d’un point P0 = (x0 , y0 , z0 ) ∈ R3 , tel que F (P0 ) = G(P0 ) = 0. Si la matrice
 
∂(F, G) Fx (P0 ) Fy (P0 ) Fz (P0 )
= .
∂(x, y, z) Gx (P0 ) Gy (P0 ) Gz (P0 )

est de rang 2, alors il existe un voisinage de P0 où le système (6.3) définit deux variables en
fonction de la troisième. L’ensemble des solutions de (6.3) dans ce voisinage est alors le support
d’une courbe régulière de R3 . ∗

Rappelons que les lignes d’une matrice 2 × 3 de rang 2 sont linéairement indépendantes. Sous
les hypothèses du théorème précédent, on voit que les vecteurs ∇F (P0 ) et ∇G(P0 ) ne sont pas
co-linéaires. Autrement dit, ∇F (P0 ) ∧ ∇G(P0 ) 6= 0. Mais le vecteur ∇F (P0 ) est orthogonal en
P0 à la surface de niveau F (x, y, z) = 0. Et le vecteur ∇G(P0 ) est orthogonal en P0 à la surface
de niveau G(x, y, z) = 0. L’hypothèse que la matrice est de rang 2 traduit alors le fait que ces
deux surfaces n’ont pas le même plan tangent. La conclusion du théorème est que l’intersection
des ces deux surfaces est bien une courbe.

6.3 Le théorème de l’inversibilité locale


Si U et V sont deux ouverts de Rn et x0 ∈ U . On dit que f est un difféomorphisme local en
x0 s’il existe une voisinage ouvert W de x0 tel que f : W → F (W ) soit un C 1 -difféomorphisme,
c’est-à-dire une application bijective de classe C 1 telle que l’application inverse est de classe C 1 .
∗. Par exemple, la courbe paramétrée par x = x, y = f (x), z = g(x) si les deux dernière colonnes de la
matrice sont linéarement indépendentes. Si le deux premières colonnes sont linéairement indépendantes on pourra
expliciter x et y en fonction de z. Si la première et dernière colonne sont linéairement indépendantes, on écrira x
et z comme fonction de y.

20
Pour qu’une fonction f soit un difféomorphisme local en x0 il est necessaire que la matrice
jacobienne en x0 soit inversible (c’est à dire de déterminant non nul, s’agissant d’une matrice
carrée) En effet, on nous avons déjà vu que, en posant y0 = f (x0 ),
 −1
Jf −1 (y0 ) = Jf (x0 ) .

Le théorème suivant affirme que cette condition est aussi suffisante.


Exemple 6.3. La fonction f : R → R définie par f (x) = x3 est bijective et de classe C 1 . Mais
cette fonction n’est pas un difféomorphisme local en x = 0. En effet, la matrice jacobienne
est simplement le singleton f 0 (0) et l’on a f 0 (0) = 0. Observons que l’application inverse est
f −1 (y) = y 1/3 et f −1 n’est pas de classe C 1 au voisinage de y = 0.
n
Théorème 6.6 (de  l’inversibilité locale). Soient U et V deux ouverts de R , x0 ∈ U et f : U →
V . Si det Jf (x0 ) 6= 0, alors f est un difféomorphisme local en x0 .
Donnons juste l’idée de la démonstration pour les fonctions de deux variables : La formule de
Taylor au premier ordre affirme que f (x) − f (x0 ) est approximativement égale à la différentielle
dfx0 évalué en (x − x0 ), ou encore au produit de la matrice Jacobienne Jx0 (f ) par le vecteur
x − x0 . Ainsi, et en négligeant le reste dans la formule de Taylor, f (x) ' f (x0 ) + dfx0 (x − x0 ) =
f (x0 ) + Jf (x0 )(x − x0 ). Mais le terme à droite est inversible si et seulement si det(Jf (x0 ) 6= 0.
On s’attent alors que dans un voisinage suffisament petit de x0 on puisse inverser f et que
f −1 (y) ' y0 + (Jf (x0 ))−1 (y − y0 ).
La démonstration rigoureuse repose sur le théorème des fonctions implicites. Une démonstration
alternative fait appel au théorème des contractions.

6.4 Extrema liés. Optimisation sous contrainte


Nous avons déjà étudié les problèmes d’optimisation de type

min{f (x) : x ∈ U } et max{f (x) : x ∈ U },

où l’ensemble U ⊂ Rn était un ouvert.


Dans cette section on s’intéresse aux problèmes analogues d’optimisation sur des ensembles
fermés, par exemple,
min{f (x) : x ∈ Σ}, max{f (x) : x ∈ Σ},
où Σ est un fermé de Rn .
Nous considérons le cas particulier important où Σ est une surface de niveau d’une fonction
continue g : Rn → R (ou une ligne de niveau si n = 2). Sans perte de généralité on pourra alors
supposer que
Σ = {x ∈ Rn : g(x) = 0}.
Le calcul de
min{f (x) : g(x) = 0}, et min{f (x) : g(x) = 0}, (P)
sont deux “problèmes d’optimisation avec contrainte égalité”. Pour simplifier la présentation
nous supposerons que g est une fonction C 1 . Commençons par établir une propriété géométrique
importante de l’ensemble Σ.
La condition ∇g(x0 ) 6= 0 exprime qu’en x0 la contrainte n’est pas dégénérée. Voici un exemple
de contrainte dégénéré : xy = 0 est une contrainte dégénéré à l’origine (observer que cette
contrainte n’est pas une courbe mais plutôt l’intersection de deux courbes) à l’origine.
S’il n’y a avait pas la contrainte g(x) = 0, les solutions de ces problèmes d’optimisation
seraient à chercher parmi les points stationnaires de la fonction f . Dans le cas d’une optimisation
avec contrainte, comme c’est le cas pour les problèmes (P), la situation est différente :

21
Théorème 6.7 (des multiplicateurs de Lagrange). Soient f et g deux fonctions de classe C 1 au
voisinage de P0 ∈ Rn . Si P0 est un point tel que g(P0 ) = 0, ∇g(P0 ) 6= 0 et P0 est un minimiseur
ou un maximiseur pour f (x) sous la contrainte g(x) = 0, c’est à dire

f (P0 ) = min{f (x) : g(x) = 0}, ou f (P0 ) = max{f (x) : g(x) = 0},

alors ∇f (P0 ) est parallèle à ∇g(P0 ). Autrement dit,

∃ λ0 ∈ R tel que ∇f (P0 ) + λ0 ∇g(P0 ) = 0.

On appelle le réel λ0 le multiplicateur de Lagrange associé au problème d’optimisation.

Remarque 6.4. Dans le cas ∇f (P0 ) 6= 0, et pour les fonctions de 2 variables, la conclusion
s’interprète ainsi : les lignes de niveau de f (la fonction à optimiser) et de g (la fonction qui
donne la contrainte) tangentes au point P0 . En effet, ∇f (P0 ) et ∇g(P0 ) sont, respectectivement,
orthogonaux à leurs lignes de niveau. De même, pour les fonctions de trois variables, les surfaces
de niveau de f et de g sont tangentes ne P0 .

Dém. Nous donnons la démonstration uniquement pour les fonctions de 2 ou 3 variables.


- Le cas des fonction de deux variables. Soit (x0 , y0 ) ∈ R2 un point où g(x0 , y0 ) = 0 et
∂g ∂g
∇g(x0 , y0 ) 6= 0. Supposons, par exemple ∂y (x0 , y0 ) 6= 0 (si ∂y (x0 , y0 ) = 0, alors, par
∂g
l’hypothèse sur g, ∂x (x0 , y0 ) 6= 0 et l’on raisonne en intervertissant les variables x et y).
Par le théorème des fonctions implicites, au voisinage de (x0 , y0 ) on a g(x, y) = 0 ⇐⇒
y = φ(x), où φ : I → J et I et J sont des intervalles de R, voisinages de x0 et y0
respectivement. En particulier, φ(x0 ) = y0 . Si f (x0 , y0 ) = min{f (x, y) : g(x, y) = 0}, ou
si f (x0 , y0 ) = max{f (x, y) : g(x, y) = 0}, alors la fonction Ψ(x) = f (x, φ(x)) possède
respectivement un minimum ou un maximum local en x0 . Dans les deux cas, Ψ0 (x0 ) = 0
par le principe de Fermat. Mais alors,

0 = Ψ0 (x0 ) = fx (x0 , φ(x0 )) + fy (x0 , φ(x0 ))φ0 (x0 ) = ∇f (x0 , y0 ) · (1, φ0 (x0 )).

Le vecteur ∇f (x0 , y0 ) est donc orthogonal au vecteur (1, φ0 (x0 )). Mais le vecteur (1, φ0 (x0 ))
est tangent en (x0 , y0 ) au graphe de la fonction φ, c’est-à-dire à la courbe {(x, y) : y =
φ(x)} = {(x, y) : g(x, y) = 0}. Ainsi, ∇f (x0 , y0 ) est orthogonal à la courbe {(x, y) : g(x, y) =
0}. Mais ∇g(x0 , y0 ) est lui même orthogonale à cette courbe par la proposition 6.4. Ainsi,
∇f (x0 , y0 ) et ∇g(x0 , y0 ) sont deux vecteurs parallèles.
- Le cas des fonctions de 3 variables. Soit P0 = (x0 , y0 , z0 ). L’hypothèse sur g est ∇g(P0 ) 6=
0. Supposons, par exemple, gz (P0 ) 6= 0. On a g(x, y, z) = 0 au voisinage de P0 si et
seulement si z = φ(x, y) dans ce voisinage, où φ est une fonction de classe C 1 . La fonction
Ψ(x, y) := f (x, y, φ(x, y)) possède alors un extremum libre en (x0 , y0 ). Mais (x0 , y0 ) est
alors un point stationnaire pour Ψ et ∇Ψ(x0 , y0 ) = 0. En appliquant à φ des formules
analogues (6.4) on trouve
     
0 (fx − fz gx /gz )(P0 ) 1 (fx gz − fz gx )(P0 )
= ∇Ψ(x0 , y0 ) = = .
0 (fy − fz gy /gz )(P0 ) gz (P0 ) (fx gz − fz gx )(P0 )

D’après la formule du produit vectoriel (5.1), cela implique que la première et la deuxième
composante du vecteur (∇f ∧∇g)(P0 ) s’annulent. Maintenant, si gx (P0 ) = 0 et gy (P0 ) = 0
alors la troisième composante de (∇f ∧ ∇g)(P0 ) sera nulle également. Sinon, gx (P0 ) 6= 0
ou gy (P0 ) 6= 0 et on parvient à la même conclusion en raisonnant comme ci-dessus mais
en échangeant les rôles des variables x, y et z. En conclusion ∇f ∧ ∇g s’annule au point
P0 , ce qui se produit précisément lorsque ∇f (P0 ) et ∇g(P0 ) sont parallèles.

22
Le théorème précédent admet la reformulation suivante : introduisons la Lagrangienne du
problème d’optimisation, qui est la fonction de n + 1 variables

L(x, λ) = f (x) + λg(x).

On a (
∇f (P0 ) + λ0 ∇g(P0 ) = 0
⇐⇒ ∇L(x0 , λ0 ) = 0,
g(P0 ) = 0
∂L ∂L ∂L
où ∇x,λ L est le vecteur de n + 1 composantes ∂x1 , . . . ∂x n
et ∂λ .

Autrement dit, les solutions P0 ∈ Rn du problème d’optimisation sous contrainte

min{f (x) : g(x) = 0}, et min{f (x) : g(x) = 0}, (P)

où f et g sont de classe C 1 au voisinage de P0 et à valeur dans R, sont à chercher parmi


les points P0 tels qu’il existe λ0 ∈ R tel que (P0 , λ0 ) ∈ Rn+1 est un point stationnaire
de la Lagrangienne (vue comme fonction de n+1-variables). Les solutions du problème
(P) sont aussi à chercher parmi les points où la contrainte g(x) = 0 est dégénérée. En
conclusion, il s’agit alors de chercher les solutions de
(
∇ g(x) = 0
∇x,λ L(x, λ) = 0, ou
g(x) = 0.

Observer que ce théorème ne fournit qu’une condition nécessaire : ce théorème s’avère très
utile pour trouver les points P0 qui sont les bons candidats à être les solutions des problèmes
d’optimisation avec contrainte. Mais sous les hypothèses du théorème, il peut arriver que (P0 , λ0 )
soit un point stationnaire de L, ou que g(P0 ) = 0 et ∇g(P0 ) = 0, sans que P0 soit ni un minimum,
ni un maximum du problème d’optimisation.
Dispose-t-on de conditions suffisantes pour l’existence d’extrema avec contraintes ? La réponse
est affirmative, mais n’insistons pas sur ce point. Bien souvent, on applique le théorème de
Weierstrass pour démontrer que le minimum et/ou le maximum existent. Cela est possible no-
tamment si la contrainte Σ définit un ensemble compact. ∗

Exemple 6.5. Trouvons le maximum et le minimum de la fonction f (x, y, z) = x + y − 6z
sur la sphère Σ de centre O et de rayon 1. Tout d’abord, f est une fonction continue et Σ =
{(x, y, z) : x2 + y 2 + z 2 − 1 = 0} est un compact de R3 . Donc, par le théorème de Weierstrass, les
problèmes de minimisation et de maximisation posés possèdent bien des solutions. Ici, g(x, y, z) =
x2 + y 2 + z 2 − 1. Observons que la contrainte g(x, y, z) = 0 n’est jamais dégénérée, puisque le seul
∗. Rappelons aussi la variante suivante du théorème de Weierstrass, qui s’applique (parfois) quand Σ n’est pas
compact :

Théorème 6.8 (Weierstrass - variante). Soit f : Σ ⊂ Rn → R une fonction continue. Si x̄ ∈ Σ et si l’ ensemble


de sous-niveau K = {x ∈ Σ : f (x) ≤ f (x̄)} est compact, alors le problème de minimisation minx∈Σ f (x) possède
une solution. Autrement dit, il existe x∗ ∈ D tel que f (x∗ ) = minx∈Σ f (x).

Le cas typique d’application est celui d’une fonction f : Rn → R telle que limkxk→+∞ f (x) = +∞. Une telle
fonction a tous les ensembles de sous-niveau bornés (pourquoi ?). Si de plus f est continue, ses ensembles de
sous-niveau sont fermés (pourquoi ?) et donc compacts. La fonction possède alors un minimum absolu.
Bien entendu on peut établir un théorème analogue pour l’existence d’un maximum absolu : il s’agit cette
fois-ci de supposer que l’ensemble de “sur-niveau” {x : f (x) ≥ f (x̄)} est borné. Le cas typique d’application est
celui d’une fonction continue telle que limkxk→+∞ f (x) = −∞.

23
point où ∇g s’annule est l’origine, mais l’origine ne vérifie pas la contrainte. Ainsi, les points
de minimum et maximum sont à chercher parmi les points stationnaires
√ de la Lagrangienne. La
Lagrangienne du système est la fonction L(x, y, z, λ) = x + y − 6z + λ(x2 + y 2 + z 2 − 1). Ses
points stationnaires sont les solutions du système



1 + 2λx = 0

1 + 2λy = 0

− 6 + 2λz = 0


x2 + y 2 + z 2 − 1 = 0.


En exprimant x, y, z en √ fonction
√ de √ λ, √la quatrième
√ équation donne λ = ± 2 et ensuite
(x0 , y0 , z0 , λ0 ) = ±(1/2 2, 1/2 2, − 6/2 2, 2). Les solutions des problèmes de minimisations
et maximisation (dont l’existence a√été établie
√ avant
√ via √ le théorème de √
Weierstrass)
√ sont
√ alors
√ à
chercher parmi les points P = (1/2 2, 1/2 2, − 6/2 2) et Q = (−1/2 2, −1/2 2, + 6/2 2).
Mais un calcul direct montre que f (P ) > f (Q). Ceci permet de dire que f atteint sur la sphère
son maximum en P et son minimum en Q.

Même si le théorème des multiplicateurs de Lagrange est un outil puissant, il convient parfois
ne pas l’utiliser, notamment s’il est possible d’éliminer la contrainte en exprimant une variable
en fonction des autres :

Exemple 6.6. Optimiser x2 + y 2 + z 2 sous la contrainte x + 2y + 3z = 1. Interpreter le résultat.


Solution. La lagrangienne du système est L(x, y, z, λ) = x2 +y 2 +z 2 +λ(x+2y+3z−1). Son unique
point stationnaire, obtenu avec le multiplicateur λ = −1/7, est (1/14, 1/7, 3/14). La contrainte
n’étant pas compacte le théorème de Weierstrass ne s’applique pas. Appliquons la variante
du théorème de Weierstrass. Choississons un point arbitraire sur la contrainte, par exemple
(0, 0, 1/3). L’ensemble de sous-niveau {(x, y, z) : x2 + y 2 + z 2 ≤ 1/9} est manifestement compact
(c’est la boule fermée de rayon 1 et centre 1/3). Le problème posé possède alors un minimum
absolu. Le point (1/14, 1/7, 3/14) est donc l’optimum demandé et il s’agit d’un minimum. Il
s’agit du point du plan d’équation x + 2y + 3z = 1 à distance minimale de l’origine.

Exemple 6.7. On cherche à construire un caisson de 20m3 . Le matériau pour le fond coûte 3
euros/ m2 , pour le couvercle 2 euros/m2 et pour les côtés 1 euro/m2 . Quel est le caisson le moins
cher ? Et le plus cher ?
Réponse :
- Modélisation : Notons x(=longueur), y(=largeur), z(=hauteur) les mesures du casson en
mètres. Le coût de construction est C(x, y, z) = 3xy + 2xy + 2(xz + yz) = 5xy + 2xz +
2yz. Il s’agit de résoudre les problèmes de minimisation et maximisation pour C “avec
contrainte” : min{C(x, y, z) : xyz = 20} et max{C(x, y, z) : xyz = 20}.
- Élimination de la contrainte et recherche des points stationnaires : On pourrait introduire
la Lagrangienne et en déterminer les points stationnaires (cela conduit à resoudre un
système de 4 équations et 4 inconnues). Mais il est plus aisé de poser z = 20/(xy) et
d’étudier la fonction
20
f (x, y) = C(x, y, xy ) = 5xy + 40( y1 + x1 ), x > 0, y > 0.

La fonction f étant définie sur un ouvert, il s’agit d’en trouver les points stationnaires :
Cela conduit à résoudre le système (de deux équations et 2 inconnues) ∇f (x, y) = 0. Ce
système possède une seule solution pour x > 0 et y > 0. Elle est donnée par x = y = 2
(et donc z = 5).

24
- Synthèse : On construit donc un caisson de mesures 2 × 2 × 5. Ce choix correspond-t-il au
caisson de coût minimum, maximum, ou ni l’un ni l’autre ? Le problème de minimisation
est-il bien posé ? Et celui de maximisation ? Pour répondre à ces questions appliquons
la variante du théorème de Weierstrass avec (x̄, ȳ) = (1, 1) (ce choix est arbitraire).
Observons que l’ensemble de sous-niveau K = {(x, y) : f (x, y) ≤ f (1, 1)} = 5xy + 40( y1 +
1
x ) ≤ 85} est compact (en effet, il est manifestement fermé et il est borné, puisque
x ≥ 40/85, y ≥ 40/85 et 5xy ≤ 85 ⇒ x ≤ 17 · 85/40 et y ≤ 17 · 85/40). Mais alors
le problème de minimisation de l’exemple 6.7 est bien posé, c’est-à dire que le caisson
de coût minimum existe : c’est bien le caisson de mesures 2 × 2 × 5 trouvé avant. Le
problème de maximisation est mal posé : le caisson de coût maximum n’existe pas. On
le voit en observant que des cassons de mesures x, x, 20/x2 ont un coût qui tend à l’infini
si x → +∞.

Optimisation sous plusieurs contraintes. Le théorème des multiplicateurs de Lagrange se


généralise au cas où il y a plusieurs contraintes à satisfaire. Considérons par exemple le problème

min{f (x) : g1 (x) = 0, g2 (x) = 0}, ou max{f (x) : g1 (x) = 0, g2 (x) = 0} (x ∈ Rn , n ≥ 3).

où f , g1 et g2 sont des fonctions de classe C 1 . On introduit dans ce cas la Lagrangienne de


(n + 2)-variables L(x, λ1 , λ2 ), où

L(x, λ1 , λ2 ) = f (x) + λ1 g1 (x) + λ2 g2 (x).

On peut démontrer que les points x0 de minimum ou maximum de f sous les contraintes g1 (x) =
g2 (x) = 0 sont à chercher parmi les points x ∈ Rn tels que (x, λ1 , λ2 ) est un point stationnaires
de la Lagrangienne. Ainsi, pour trouver ces points (ou du moins des points candidats à être des
solutions du problème d’optimisation), on commence par trouver les solutions du système de
n + 2 équations
∇x,λ1 ,λ2 L(x, λ1 , λ2 ) = 0. (6.6a)
Mais comme on l’a vu avant, un autre cas de figure est possible : celui où la contrainte g1 (x) =
g2 (x) = 0 est dégénérée : ainsi les solutions du problèmes d’optimisation sont aussi à chercher
parmi les éventuelles solutions des systèmes
( (
∇ g1 (x) = 0 ∇ g2 (x) = 0
ou (6.6b)
g1 (x) = g2 (x) = 0 g1 (x) = g2 (x) = 0

Dans la plupart des cas la contrainte ne sera pas dégénérée et les systèmes (6.6b) n’ont pas de
solution.
Bien entendu, ces considérations se généralisent à un nombre arbitraire de contraintes.

7 Espaces métriques complets


7.1 Quelques rappels sur les espaces métriques
— Un espace métrique est un couple (X, d) formé par un ensemble et une distance (mais on
écrira souvent seulement X pour simplifier). Les éléments de X s’appellent points. Par
définition, un distance (ou métrique) sur X est une application d : X × X → R+ , telle
que, pour tout x, y et z ∈ X,

i) d(x, y) = 0 ⇐⇒ x = y, ii) d(x, y) = d(y, x), iii) d(x, y) ≤ d(x, z) + d(z, y).

25
— Pour r > 0 et x ∈ X, la boule centrée en x et de rayon r > 0 est l’ensemble B(x, r) =
{y ∈ X : d(x, y) < r}. Dans un espace métrique, un ensemble U est dit ouvert si, pour
tout x ∈ U , il existe r > 0 tel que. B(x, r) ⊂ U . Un ensemble est dit fermé si sont
complémentaire dans X est u ensemble ouvert.
— Une suite dans un espace métrique X est une application N → X. Elle est notée
généralement (xn )n∈N ou simplement (xn ).
Soit (xn ) une suite d’un espace métrique (X, d) et x ∈ X. On dit la suite (xn ) converge
vers x, et on écrit xn → x ou encore limn→+∞ xn = x si, pour tout  > 0 il existe n0 ∈ N
tel que pour tout n ≥ n0 on a xn ∈ B(x, ) (autrement dit, d(xn , x) < ). Si la suite
ne converge vers aucun point, on dit qu’elle diverge. Dans le cas général on voit que
xn → x ⇐⇒ d(xn , x) → 0.
Le “théorème d’unicité de la limite” affirme que si on a une suite telle que xn → x et
xn → y, alors x = y.
— L’adhérence A d’une partie A d’un espace métrique X est le plus petit fermé contenant
A. Un point x ∈ A si et seulement s’il existe une suite (xn ) ⊂ A telle que xn → x.
— Une application f : (X, dX ) → (Y, dY ) est continue en x si et seulement si, pour tout
 > 0, il existe δ > 0 tel que : dX (x, x0 ) < δ ⇒ dY (f (x), f (x0 )) < . La continuité peut se
caractériser par les suites : f est continue en x si et seulement si pour toute suite (xn )
convergente vers x on a f (xn ) convergente vers f (x).
— Une application f : (X, dX ) → (Y, dY ) entre deux espaces métriques est dite k-lipschitzienne
(où k ≥ 0) si et seulement si, pour tout x, x0 ∈ X on a dY (f (x), f (x0 )) ≤ k dX (x, x0 ). Elle
est dite lipschitzienne s’il existe k ≥ 0 telle qu’elle est k-lipschitzienne. Les applications
lipschitziennes sont continues.

7.2 Suites de Cauchy et espaces complets


Définition 7.1. Soit (X, d) un espace métrique. Une suite (xn ) ⊂ X est de Cauchy si ∀  > 0,
il existe n0 ∈ N tel que pour tout n, m ≥ n0 on a d(xn , xm ) < .

Proposition 7.1. 1. Si (xn ) converge, alors (xn ) est une suite de Cauchy.
2. Toute suite de Cauchy est bornée.

Dém. 1.) Si x = limn→∞ xn et  > 0, il existe un n0 tel que d(xn , x) < /2 si n ≥ n0 . Si
m, n ≥ n0 , on trouve alors d(xn , xm ) ≤ d(xn , x) + d(xm , x) < .
2.) Pour la démonstration de la seconde affirmation, il suffit d’applique la définition de suite
de Cauchy avec  = 1. On trouve qu’il existe n0 tel que, pour tout m ≥ n0 on a d(xm , xn0 ) ≤ 1.
Mais alors, pour tout m ∈ N, d(xm , xn0 ) ≤ R, où R = max0≤i≤n0 d(xi , xn0 )} + 1.

Exemple 7.1. Dans l’espace métrique (Q, d), où√ d(x, y) = |x − y| est la distance euclidienne,
considérons la suite (xn ) définie par xn = E(2n 2)/2n (où E(α) désigne la partie entière du
nombre réel α, c’est à dire le plus grand entier inférieur ou égale
√ à α). Il s’agit bien d’une suite
de nombres rationnels. Cette suite converge vers l’irrationnel 2. On conclut que la suite (xn )
est de Cauchy dans (Q, d), et qu’elle est divergente dans (Q, d).

Définition 7.2. Un espace métrique (X, d) est complet si et seulement si toute suite de Cauchy
(xn ) ⊂ X est convergente dans X.
Un espace normé (E, k · k) est de Banach si et seulement si E est complet pour la distance
associée à k · k.

Exemple 7.2. Q muni de la distance usuelle dans R n’est donc pas complet, comme l’exemple
précédent le montre. L’intervalle ]0, +∞[ est un autre exemple d’espace métrique non complet
(considérer la suite (1/n)n∈N∗ , qui est de Cauchy, pour le voir).

26
Théorème 7.2. R est complet.
Dém. ∗ Soit (xn ) une suite réelle de Cauchy. Soient An = {xn , xn+1 , . . . , }, an = inf An , bn =
sup An . On a an , bn ∈ R, car An est borné. Clairement, an ≤ bn , (an ) est croissante, (bn )
décroissante. Soit  > 0. Il existe un n0 tel que |xn − xm | < /2 si n, m ≥ n0 . Pour n ≥ n0 ,
on a donc An ⊂ [xn0 − /2, xn0 + /2], ce qui implique xn0 − /2 ≤ an ≤ bn ≤ xn0 + /2 ; d’où
bn − an ≤ . Il s’ensuit que les suites (an ), (bn ) sont adjacentes. Par conséquent, il existe un
a ∈ R tel que an → a, bn → a. Comme an ≤ xn ≤ bn , on trouve xn → a.

Proposition 7.3. Soit k ∈ N. Alors Rk , muni de la distance euclidienne, est complet.


Dém. Soit (xn )n∈N une suite de Cauchy de vecteurs de Rk . On a xn = (xn1 , . . . , xnk ). Mais, pour
j = 1, . . . , k, on a d(xnj , xm n m n
j ) ≤ kx − x k2 . Fixons l’indice j : il s’ensuit que (xj )n∈N est une
suite de Cauchy dans R, qui est complet et qu’alors cette suite converge vers une limite xj . Mais
alors xnj → xj pour tout j = 1, . . . , n. Posons x = (x1 , . . . , xk ). La suite de vecteurs xn converge
composante par composante vers le vecteur x ∈ Rk . Mais alors xn → x dans Rk .

7.3 Relation entre espaces complets et fermés


Soient (X, d) un espace métrique et A ⊂ X.
Proposition 7.4. a) Si (A, d) est complet, alors A est un fermé de X.
b) Si (X, d) est complet et A est un fermé de X, alors (A, d) est complet.
Dém. a) Soit a ∈ A. Il existe (xn ) ⊂ A telle que xn → a. Alors (xn ) est une suite de Cauchy,
donc convergente (dans A, puisque A est complet) vers un b ∈ A. L’unicité de la limite (dans
X) implique a = b ∈ A. Il s’ensuit que A ⊂ A, d’où A fermé.
b) Soit (xn ) une suite de Cauchy dans A. Alors il existe un a ∈ X tel que xn → a. Il s’ensuit
que a ∈ A, et donc (xn ) converge dans A.

Corollaire 7.5. Dans un espace métrique complet, A complet si et seulement si A fermé.

7.4 L’espace des fonctions continues et bornées


Définition 7.3. Soit (X, d) un espaces métrique. Une fonction f : X → R est dite bornée si
son image f (X) = {f (x) : x ∈ X} est une partie bornée de R. On désigne
Cb (X, R) = {f : X → R ; f continue et bornée}.
Observons que si K est compact, alors toutes les fonctions continues sont bornées par le
théorème de Weierstrass. Donc Cb (K, R) = C(K, R).
La somme de deux fonctions continues et bornée est une fonction continue et bornée. Et si
on multiplie une fonction continue et bornée par un nombre réel on obtient une autre fonction
continue et bornée. Donc Cb (X, R) est un espace vectoriel.
Nous définissons la “norme du sup” sur Cb (X, R) par
kf k∞ = sup |f (x)|.
x∈X

Il n’est pas difficile de voir que Cb (X, R) est un espace vectoriel normé, pour la norme du sup.
On définit une distance δ sur l’ensemble Cb (X, R) (dite “distance du sup”), par
∀ f, g ∈ Cb (X, R) : δ(f, g) = sup |f (x) − g(x)|.
x∈X

La norme k · k∞ induit bien entendu la distance δ par la relation usuelle δ(f, g) = kf − gk∞ .
∗. Cette démonstration suppose connu le fait que deux suites réelles adjacentes convergent. Par définition,
deux suites (an ) et (bn ) sont adjacentes lorsque an ≤ bn , (an ) croissante, (bn ) décroissante et bn − an → 0.

27
Exemple 7.3. Si X = [0, 1], les fonctions f (x) = exp(x) et g(x) = exp(2x) appartiennent à
Cb ([0, 1], R) = C([0, 1], R). Calculons la distance entre ces deux fonctions f et g : on a

δ(f, g) = sup |ex − e2x | = max (e2x − ex ) = e2 − e.


x∈[0,1] x∈[0,1]

δ
Si une suite de fonctions (fn ) ⊂ Cb (X, R) converge vers f ∈ Cb (X, R), c’est à dire fn → f ,
on dit que (fn ) converge uniformément vers f . Plus explicitement, cela signifie que

sup |fn (x) − f (x)| → 0.


x∈X

Exemple 7.4. Soit X = [0, 1] et fn (x) = ex/n . Pour tout x ∈ [0, 1], fn (x) → 1. Soit f la fonction
constante égal à 1. On a, pour tout x ∈ [0, 1], |fn (x) − f (x)| = |ex/n − 1| ≤ e1/n − 1. Donc
supx∈[0,1] |fn (x) − f (x)| ≤ e1/n − 1 → 0. On conclut que δ(fn , f ) → 0.

Observons que, parfois, l’on a limn→+∞ fn (x) = f (x) pour tout x ∈ X (autrement dit, on a
convergence simple de (fn ) vers f ) sans qu’il y ait convergence uniforme.

Proposition 7.6.
1. La limite uniforme de fonctions continues et bornées est continue et bornée : autrement
δ
dit, si (fn ) ⊂ Cb (X, R) et f : X → R est telle que fn → f , alors f ∈ Cb (X, R).
2. Cb (X, R) est un espace métrique complet pour la distance du sup. Il s’agit donc d’un
espace de Banach.
δ
Dém. (1). Soit fn → f et x ∈ X. Pour démontrer que f est continue en x on considère  > 0.
On sait alors qu’il existe n0 tel que δ(f, fn ) < /3 pour tout n ≥ n0 . On a

|f (x) − f (x0 )| ≤ |f (x) − fn (x)| + |fn (x) − fn (x0 )| + |fn (x0 ) − f (x0 )|
≤ 2δ(f, fn ) + |fn (x) − fn (x0 )|
≤ 2/3 + |fn (x) − fn (x0 )|.

En appliquant l’inégalité ci-dessus avec n = n0 et le fait que fn0 est continue en x, on trouve
qu’il existe η > 0 tel que, si d(x, x0 ) < η, alors δ(f, fn ) < /3 et donc |f (x) − f (x0 )| < . Ceci
assure que f : X → R est bien continue.
De plus, en appliquant la définition de convergence avec  = 1, on voit qu’il existe n0 ∈ N
tel que

|f (x)| ≤ |f (x) − fn0 (x)| + |fn0 (x)|


≤ δ(f, fn0 ) + |fn0 (x)|
≤ 1 + |fn0 (x)|.

Si l’on passe au sup,


sup |f (x)| ≤ 1 + sup |fn0 (x)| < ∞
x∈X x∈X

puisque fn0 est une fonction bornée et donc f est elle même bornée.
(2). Si (fn ) est une suite de Cauchy dans Cb (X, R), alors, pour tout x ∈ X, (fn (x)) est une
suite de Cauchy dans R. On pose f (x) = limn→∞ fn (x). Soit  > 0. Il existe un n0 tel que, si
n, m ≥ n0 , alors δ(fn , fm ) < /2. Pour tout x ∈ X, on a donc alors |fn (x) − fm (x)| < /2 si
n ≥ n0 . Passons à la limite dans cette inégalité pour m → +∞. Ceci donne |fn (x) − f (x)| ≤ /2
δ
pour n ≥ n0 . Mais alors δ(fn , f ) ≤ /2 <  pour n ≥ n0 . Il s’ensuit fn → f .

28
Comme application immédiate de la proposition précédente (avec X = [a, b]), nous avons
que l’ensemble C([a, b], R) des applications continues sur un intervalle [a, b] et à valeurs réelles
est complet pour la distance du sup.
Une autre application intéressante est fournie par la proposition suivante.
Proposition 7.7. On désigne avec `∞ l’espace vectoriel de toutes les suites réelles bornées :
`∞ = {x = (xn ) ⊂ R ; (xn ) bornée}. On munit `∞ de la norme kxk∞ = supn∈N |xn |. Alors `∞
est un espace de Banach pour la distance induite de la norme k · k∞ .
Dém. On a `∞ = Cb (N, R) : en effet, on peut voir une suite (bornée) comme une fonction
: N → R (bornée) et réciproquement. D’autre part, toute fonction : N → R est continue (il
suffit d’appliquer la définition de continuité avec  < 1/2 pour s’en convaincre). Mais alors le
résultat de cette proposition est une conséquence immédiate de celle de la proposition précédente
avec X = N.

7.5 Contractions et le théorème du point fixe


Définition 7.4. Une application f : (X, d) → (Y, D) est contractante s’il existe un k < 1 tel
que f soit k-lipschitzienne.
Exemple 7.5. L’application f : R → R telle que f (x) = arctan( x2 ) est contractante. En effet,
pour tout x, x0 ∈ R (on pourra supposer x < x0 ) on a, par l’ı́négalité des accroissements finis,
|f (x)−f (x0 )| ≤ supξ∈[x,x0 ] |f 0 (ξ)| |x−x0 | ≤ supξ∈[x,x0 ] 21 · 1+(x/2)
1 0 1 0
2 |x−x | ≤ 2 |x−x |. Cette fonction

est alors 12 -lipschitzienne sur R.


Définition 7.5. Si f : X → X, un point fixe de f est une solution de l’équation f (x) = x.
Théorème 7.8 (du point fixe de Picard). Soient (X, d) un espace métrique complet et f :
(X, d) → (X, d) contractante. Alors :
a) f possède exactement un point fixe a ;
b) pour tout x0 ∈ X, la suite (xn ), xn = f ◦ f ◦ . . . ◦ f (x0 ), converge vers a ;
| {z }
n fois

Dém. a) Soit 0 < k < 1 tel que f soit k-lipschitzienne. Montrons que f a au plus un point
fixe : si, par l’absurde, a et b sont des points fixes et a 6= b, on aboutit à la contradiction
0 < d(a, b) = d(f (a), f (b)) ≤ kd(a, b) < d(a, b).
L’existence de a suit de b) : si la suite (xn ) converge et si a est tel que xn → a, alors xn+1 =
f (xn ) → f (a) (puisque toute fonction lipschitzienne est continue), d’où f (a) = a.
b) On a, pour tout n, d(xn+1 , xn ) ≤ k n d(x1 , x0 ) (par récurrence sur n). Par conséquent, si
m ≥ n, alors
kn
(1) d(xm , xn ) ≤ d(xn , xn+1 ) + d(xn+1 , xn+2 ) + . . . + d(xm−1 , xm ) ≤ d(x1 , x0 ) = Ck n .
1−k
Comme Ck n → 0, pour tout  > 0 il existe un n0 tel que Ck n <  si n ≥ n0 . Il s’ensuit que
d(xm , xn ) <  si m, n ≥ n0 . La suite (xn ) étant de Cauchy, elle converge vers un a ∈ X. De ce
qui précède, a est l’unique point fixe de f .

Exemple 7.6. Trouver le nombre des solutions de l’équation cos x = x.


On a cos x = x ⇒ x ∈ [−1, 1]. Soit f : X = [−1, 1] → X, f (x) = cos x. [−1, 1] est complet
(avec la distance usuelle), car fermé dans R. Par ailleurs, on a |f 0 (x)| ≤ sin 1 < 1, x ∈ X. Le
théorème des accroissements finis implique |f (x) − f (y)| ≤ sin 1|x − y|, x, y ∈ X. Il s’ensuit que
l’équation cos x = x a exactement une solution.

29
8 Équations différentielles linéaires
8.1 Fonctions vectorielles et matricielles
Introduisons quelques notations. Pour x = (x1 , . . . , xn ) ∈ Rn on note dans ce chapitre |x| la
norme euclidienne de x, à savoir
Xn
|x| = ( |xi |2 )1/2 .
i=1
Cette notation est compatible avec celle de valeur absolue, lorsque n = 1. Si A ∈ Mn (R) est
une matrice réelle carrée n × n, on peut l’identifier à un vecteur de Rn×n . Il est alors cohérent
de noter, si A = (ai,j ),
Xn
|A| = ( |ai,j |2 )1/2 .
i,j=1

Soit I un intervalle de R. On note Cb (I, Rn ) l’espace des fonctions vectorielles bornées f : I →


Rn . On munit cet espace de la norme

kf k∞ = sup |f (t)|.
t∈I

Aussi, si A ∈ Cb (I, Mn (R)) est une fonction matricielle bornée, on notera alors

kAk∞ = sup |A(t)|.


t∈I

cos t sin t

Exemple 8.1. Si A ∈ Cb (R, M2 (R)) est la fonction matricielle définie par A(t) = ,
√ 4 0
on a kAk∞ = 17.
Proposition 8.1.
1. Si A une matrice n × n et x ∈ Rn . Alors, |Ax| ≤ |A| |x|.
2. Si A ∈ Cb (I, Mn (R)) et f ∈ Cb (I, Rn ), alors Af ∈ Cb (I, Rn ) et kAf k∞ ≤ kAk∞ kf k∞ .
Dém. En effet, si on note Ai les vecteurs ligne de la matrice A
n
X 1/2
|Ax| = |(A1 · x, . . . , An · x)| = |Ai · x|2
i=1
n
X 1/2
≤ |Ai |2 |x|2 (Cauchy-Schwarz)
i=1
 Xn 1/2
= |ai,j |2 |x| = |A| |x|.
i,j=1

Pour la seconde affirmation il suffit d’écrire, pour tout t ∈ I, |A(t)f (t)| ≤ |A(t)| |f (t)| et passer
au sup sur la variable t.

Si f : I → Rn est une fonction vectorielle, on note f = (f1 , . . . , fn ) où fi : I → R, i = 1, . . . , n


sont les composantes de f . Rappelons que, par définition, on dit que f est dérivable (resp.
intégrable) si et seulement si toutes ses composantes f1 ,. . .,fn sont dérivables (resp. intégrables).
Dans ce cas, on pose
f 0 = (f10 , . . . , fn0 )
et, si I = [a, b],
Z b Z b Z b 
f= f1 , . . . , fn .
a a a

30
En appliquant à la norme euclidienne la remarque ??, on voit que si f est une fonction vectorielle
Riemann-intégrable, alors la fonction scalaire |f | l’est aussi et
Z b Z b
f ≤ |f |.
a a

De la même manière, si t 7→ M (t) et t 7→ N (t) sont deux fonctions matricielles dérivables


alors
(M N )0 (t) = M 0 (t)N (t) + M (t)N 0 (t). (8.1)
Le produit de matrices n’étant pas commutatif, l’ordre des facteurs ici est important.

8.2 Systèmes différentiels linéaires et équations de Volterra


Dans toute cette section nous suppons systématiquent que I est un intervalle de R, A ∈
C(I, Mn (R)) et B ∈ C(I, Rn ).
Définition 8.1. Un système différentiel d’ordre n (ou équation différentielle vectorielle) linéaire
sur l’intervalle I est une équation de la forme

U 0 (t) = A(t)U (t) + B(t), (E)

où l’inconnue U : I → Rn est une fonction dérivable. Si B(t) = 0 pour tout t ∈ I on dit que
le système est  homogène . Si la fonction matricielle A est indépendente de t on dit que le
système est  à coefficients constants .
Il serait plus correct d’appeler  affines  ces systèmes différentiels, mais ce n’est pas la
terminologie couramment adoptée.

Exemple 8.2. Le système différentiel homogène et à coefficients constants


(
u0 (t) = −v(t)
, t∈R
v 0 (t) = u(t)

admet comme solutions (par exemple) les fonction u(t) = r cos(t) et v(t) = r sin(t), r ∈ R. Ici le
u(t) 
système est de la forme vectorielle (E), avec U (t) = v(t) , A(t) = 01 −1

0 et B(t) = ( 00 ).

Un  problème de Cauchy linéaire  est la donnée d’un système différentiel linéaire et d’une
 condition initiale  : (
U 0 (t) = A(t)U (t) + B(t)
(P)
U (t0 ) = U0 .
Ici t0 ∈ I et U0 ∈ Rn est donnée.
Définition 8.2. Une équation de Volterra linéaire est une équation de la forme
Z t
U (t) = U0 + [A(s)U (s) + B(s)] ds, t ∈ I. (V)
t0

Ici, U : I → Rn est l’inconnue et A : I → Mn (R), B : I → Rn . Ici, t0 ∈ I et U0 ∈ Rn est donnée.

Il est parfois utile de ramener l’étude d’un problème de Cauchy à une équation intégrale.
Ceci est toujours possible, puisqu’un problème de Cauchy est équivalent à l’équation de Volterra
correspondante :

31
Proposition 8.2. Soit I un intervalle et t0 ∈ I. Soit U0 ∈ Rn . Alors
 
1 n
U ∈ C (I, R )
 U ∈ C(I, Rn )

0
U (t) = A(t)u(t) + B(t) ∀t ∈ I ⇐⇒
Z t
  U (t) = U 0 + [A(s)U (s) + B(s)] ds ∀t ∈ I.
U (t0 ) = U0
 
t0

Dém. Pour l’implication ⇒ il suffit d’intégrer terme-à-terme l’équation différentielle. Pour l’im-
plication ⇐, on observe d’abord que s 7→ A(s)U (s) + B(s) est une application continue, donc sa
fonction intégrale est de classe C 1 . Mais alors U est de classe C 1 et la conclusion s’obtient en
dérivant terme-à-terme.

Pour chercher une solution U à l’équation linéaire de Volterra, on introduit la fonction

Φ : C(I, Rn ) → C(I, Rn ),

où, pour tout U ∈ C(I, Rn ), Φ(U ) est l’application définie par


Z t
∀t ∈ I, Φ(U )(t) = U0 + [A(s)U (s) + B(s)] ds.
t0

Ainsi, U est solution de l’équation de Volterra si et seulement si

∀t ∈ I U (t) = Φ(U )(t),

En conclusion

1 n
U ∈ C (I, R )
(
U ∈ C(I, Rn )

U 0 (t) = A(t)u(t) + B(t) ∀t ∈ I ⇐⇒
 U = Φ(U ) (c’est à dire, U point fixe pour Φ).
U (t0 ) = U0

Lemme 8.3. Soit a < b et I = [a, b]. Sous les hypothèses précédentes sur A et B, pour tout
U, V ∈ C(I, Rn ),
kΦ(U ) − Φ(V )k∞ ≤ |b − a| kAk∞ kU − V k∞ .
Dém. En effet, pour tout t ∈ [a, b],
Z t
|Φ(U )(t) − Φ(V )(t)| ≤ |A(s)| |U (s) − V (s)| ds ≤ |b − a| kAk∞ kU − V k∞ .
t0

En particulier, grâce au théorème des contractions nous pouvons déjà établir le résultat
suivant. (Nous ferons mieux un peu plus loin).
Corollaire 8.4. Soit a < b et t0 ∈ [a, b]. Supposons A ∈ C([a, b], Mn (R)) et B ∈ C([a, b], Rn ).
On suppose |b − a| kAk∞ < 1. Le problème de Cauchy linéaire
(
U 0 (t) = A(t)U (t) + B(t),
(P)
U (t0 ) = U0

possède une et une seule solution U ∈ C 1 ([a, b], Rn ).


Dém. La conclusion est immédiate, puisque le lemme précédent assure que Φ est une contraction
sur C([a, b], Rn ), qui est un espace de Banach. Alors Φ possède un et un seul point fixe u ∈
C([a, b], Rn ). Ce point fixe u est l’unique solution du problème de Cauchy (P).

32
Proposition 8.5. Si ~v et w
~ sont deux solutions définies sur I d’un même problème de Cauchy
(P), alors ~v = w.
~
Dém. Si ~v et w~ sont deux solutions du même problème de Cauchy linéaire (P), définies sur un
intervalle I (compact ou non), alors le corollaire précédent garantit que ~v et w ~ coı̈ncident au
moins sur un petit intervalle centré en t0 . Montrons qu’en réalité ~v et w
~ coı̈ncident sur tout
l’intervalle I.
Posons
t1 = sup{t ≥ t0 , t ∈ I : ~v (t) = w(t)}.
~
On doit avoir t1 = sup I. En effet, si t1 < sup I, alors ~v (t1 ) = w(t ~ 1 ) =: U1 par la continuité
de ~v et w.
~ Donc par l’unicité du problème de Cauchy (P) avec condition initiale U (t1 ) = U1 ,
sur un petit intervalle de type [t1 − δ, t1 + δ], nous avons que ~v et w ~ coı̈ncident sur [t0 , t1 + δ].
~ coı̈ncident pour t ≥ t0 . On
C’est absurde, puisque cela contredit la définition de t1 . Ainsi ~v et w
prouve de même qu’elles coı̈ncident pour t ≤ t0 .

Prolongement des solution. Traitons le cas d’un intervalle I général (éventuellement illi-
mité) et considérons le problème de Cauchy (P). On se propose de prolonger la solution (définie
a priori seulement dans un petit intervalle centré en t0 , à une solution définie globalement sur
I. Détaillons d’abord le problème du prolongement  à droite .
Considérons l’intervalle J ⊂ I défini par
J = λ ∈ I tels qu’il existe Uλ : [t0 , λ] → Rn solution de (P) sur [t0 , λ]


Soit
λ∗ = sup J
Démontrons que λ∗ = sup I. Par contradiction, supposons que λ∗ < sup I. Il existe b tel que
t0 < λ∗ < b < sup I. (Le fait que t0 < λ∗ est une conséquence du Corollaire 8.4). Soit δ > 0 tel
que
2δ sup |A(t)|∞ < 1.
t∈[t0 ,b]
La solution de (P) Uλ∗ −δ , définie sur [t0 , λ∗ −
δ], est unique. Considérons alors le problème de
Cauchy (
U 0 (t) = A(t)U (t) + B(t)
U (λ∗ − δ) = Uλ∗ −δ (λ∗ − δ).
D’après le corollaire, ce problème possède une solution Û qui est définie, au moins, sur l’intervalle
[λ∗ − δ, λ∗ + δ] ∩ I. Nous pouvons utiliser cette solution Û pour prolonger la solution Uλ∗ −δ du
problème (P) à droite, au delà de l’instant λ∗ . Mais, par définition de λ∗ , aucune solution de
(P) n’est prolongeable au delà de λ∗ . C’est absurde, donc λ∗ = sup I.
Le prolongement à gauche se fait de la même manière. En conclusion, il existe une solution
du problème (P) qui est définie sur I tout entier.
Nous avons alors démontré le théorème suivant.
Théorème 8.6. Si I est un intervalle arbitraire et A ∈ C(I, Mn (R)), B ∈ C(I, Rn ), alors le
problème de Cauchy linéaire (P) possède une et une seule solution u ∈ C(I, Rn ).
Exemple 8.3. Soit f, g : R → R continues. Le problème de Cauchy linéaire



u0 (t) = ln(1 + t) u(t) + v(t) + f (t)
v 0 (y) = et u(t) + 1 v(t) + g(t)

t−2


u(0) = u 0

v(0) = v
0

possède une unique solution (u, v) définie sur l’intervalle ] − 1, 2[.

33
Trajectoires et courbes intégrales
Définition 8.3 (Trajectoires). Si ~v : I → Rn est une solution du système différentiel linéaire (E),
l’ensemble de Rn {~v (t) : Rn : t ∈ I} est dite  trajectoire  du système.
Par exemple, pour le système différentiel de l’exemple 8.2, les cercles de rayon r > 0 sont
des trajectoires su systèmes.
L’unicité des solutions implique que deux trajectoires distinctes ne s’intersectent pas. Dans
le cas n = 1, pour visualiser la dynamique d’une équation différentielle scalaire, plutôt que
de dessiner les ensembles {v(t) : t ∈ I} (qui ne seraient que des intervalles de R), on préfère
représenter dans R2 , les graphes des fonctions t 7→ v(t). Ces graphes, où v : I → R est une
solution de l’équation différentielle, sont appelés  courbes intégrales .

8.3 Solution générale d’un système différentiel linéaire


8.3.1 Cas général : coefficients variables
Définition 8.4. La  solution générale  d’un système différentiel linéaire

U 0 (t) = A(t)U (t) + B(t), t∈I (E)

est l’ensemble des solutions de ce système.


Commençons par observer que
- Si v et w sont deux solutions de (E) alors leur différence v −w est une solution du système
linéaire homogène associé, à savoir du système

U 0 (t) = A(t)U (t), t∈I (H)

- Si v est une solution de (E), et u est une solution du système homogène associé, alors
v + U est aussi une solution de (E).
Donc :

La solution générale de (E) est donnée par la solution générale de (H) plus une solution
particuliere de (H)

Le théorème suivant donne la structure de la solution générale de (H).

Théorème 8.7. Soit A ∈ C(I, Mn (R)). La solution générale du système différentiel linéaire
homogène
U 0 (t) = A(t)u(t), t∈I (H)
est un espace vectoriel de dimension n.

Dém. Si w et w sont deux solutions et λ ∈ R, alors (v + λw)0 = v 0 (t) + λw0 (t) = A(t)(v + λw)(t).
Donc v + λw est solution. Ceci montre que la solution générale est bien un espace vectoriel.
Soit {e1 , . . . , en } la base canonique de Rn , où e1 = (1, 0, . . .), . . ., en = (0, . . . , 0, 1). Considérons
les problemes de Cauchy
(
U 0 (t) = A(t)U (t)
(k = 1, . . . , n). (Pk )
U (t0 ) = ek

Pour tout k = 1, . . . , n, le problème (Pk ) possède une et une solution ~vk . Montrons que {~v1 , . . . , ~vn }
forme une base de l’espace des solutions.

34
Les solutions ~v1 , . . . , ~vn sont linéairement indépendantes, puisque
n
X n
X n
X
λk~vk = 0 ⇒ λk~vk (t0 ) = 0Rn ⇒ λk ek = 0Rn ⇒ λ1 = · · · = λn = 0.
k=1 k=1 k=1

Ensuite si ~v est une solution du système différentiel U 0 (t) = A(t)U (t), on a


n
X
~v = λk~vk avec λk = ~v (ek ).
k=1

En effet, les deux membres à gauche et droite sont solutions sur I du même problème de Cauchy
(
U 0 (t) = A(t)U (t),
U (t0 ) = U0

Par l’unicité des solutions, les deux membres doivent coı̈ncider.

Exemple 8.4. Le système différentiel homogène et à coefficients constants


(
u01 (t) = −u2 (t)
, t∈R
u2 (t) = u1 (t)

admet comme solution générale la famille des fonctions définies pour t ∈ R


   
cos t − sin t
t 7→ a +b , a, b ∈ R
sin t cos t

Cette famille est bien un espace vectoriel de dimension 2.

8.3.2 Cas particulier : systèmes à coefficients constants


Le résultat suivant est une application classique de l’algèbre linéaire aux systèmes différentiels
à coefficients constants.

Proposition 8.8. Soit A ∈ Mn (R) une matrice. Considérons le système différentiel homogène
à coefficients constants
U 0 (t) = AU (t).
Si ~v ∈ Rn est un vecteur propre de A et λ la valeur propre correspondante, alors la fonction

t 7→ eλt~v

est une solution du système différentiel. En particulier, si A diagonalisable sur R, A admet une
base de vecteurs propres ~vi ∈ Rn (i = 1, . . . , n). Une base de l’espace des solutions est donnée
par les fonctions
t 7→ eλi t~vi , i = 1, . . . , n,
où λi est la valeur propre associée au vecteur propre ~vi .

Dém. En effet
(eλt~v )0 = eλt λ~v = eλt A~v = A(eλt~v ).

35
Exemple 8.5. Soit le système différentiel
 
1 4 −4
U 0 (t) = 3 2 −4 U (t).
3 −3 1
Les valeurs propres sont λ1 = 1, λ2 = −2 et λ3 = 5 et les vecteurs propres
     
1 0 1
~v1 = 1 ,
  ~v2 = 1 ,
  ~v3 = 1 .

1 1 0
La solution générale du système différentiel est alors
 t    5t 
e 0 e
t 7→ a et  + b e−2t  + c e5t  , a, b, c ∈ R.
et e−2t 0

Exponentiel d’une matrice carrée. L’espace Mn (R) est un espace de Banach pour la
norme euclidienne
P de matrice A 7→ |A| définie dans la section 8.1.
P Par conséquent, toute série de
matrices Ak normalement convergente (c’est à dire telleP∞ que |Ak | converge) est convergente :
il existe alors une matrice S ∈ Mn (R) telle que S = k=0 Ak .
P |A|k
Considérons maintenant une matrice A. La séries k! étant convergente, nous pouvons
définir une nouvelle matrice

X Ak
exp(A) := ∈ Mn (R)
k!
k=0
Ici A0
désigne la matrice identité.
Exemple 8.6. Si A = 00 ab , b 6= 0, on calcule par récurrence, pour k ≥ 1, Ak = 0 abk−1
 
0 bk
. Mais
P∞ bk b
k=0 k! = e . Donc
0 a + ab eb
 
exp(A) = .
0 eb
Des algorithmes d’algèbre linéaire (diagonalisation, décomposition de Dunford, etc.) permettent
de calculer, un peu laborieusement, l’exponentiel d’une matrice réelle n × n.
Théorème 8.9. L’unique solution du problème de Cauchy linéaire homogène à coefficients
constants (
U 0 (t) = AU (t)
U (0) = U0
est la fonction t 7→ exp(tA)U0 .
tk Ak
Dém. Considérons la fonction matricielle t 7→ exp(tA) = ∞
P
k=0 k! . Le théorème de dérivation
d’une série, établi pour le fonctions scalaires (Theorème ??) reste vrai pour les fonctions matri-
cielles. Mais alors,
∞ ∞
d X tk−1 Ak X tk−1 Ak
exp(tA) = k = = A exp(tA).
dt k! (k − 1)!
k=0 k=1
Observons maintenant que (c’est un cas particulier de (8.1)) :
d 
exp(tA)U0 = A exp(tA)U0 .
dt
Donc u(t) := exp(tA)u0 vérifie l’équation différentielle. De plus on a clairement
U (0) = IU0 = U0 .

36
8.4 Systèmes différentiels triangulaires
Commençons par traiter le cas des fonctions u : I → R scalaires. La théorie précédente
s’applique, mais on peut aussi facilement expliciter les solutions.

Équations linéaires d’ordre 1 et méthode de variation de la constante


Considérons l’équation linéaire (scalaire) d’ordre 1, sur un intervalle I.

u0 + a(t)u = b(t). (E1)

L’équation homogène associée est

u0 + a(t)u = 0. (H1)

Soit A(t) une primitive sur I de a(t). En multipliant cette équation par eA(t) on trouve
(eA(t) u)0 = 0. Donc eA(t)u = c est constante sur I. Mais alors, la solution générale de
l’équation homogène (H1) est u(t) = ce−A(t) . Pour trouver une solution particulière
de l’équation (E1), on peut faire appel à la méthode de variations des constantes : il
s’agit de chercher une solution de (E1) parmi les fonctions de la forme

u(t) = c(t)e−A(t) .

Un petit calcul montre qu’il faut que c0 (t) = b(t)eA(t) . En conclusion, la solution
générale de l’équation (E1) est

u(t) = c(t)e−A(t) + c e−A(t) ,

où Z Z
A(t)
c(t) = b(t)e dt, A(t) = a(t) dt, et c ∈ R.

Exemple 8.7. La solution générale sur ]0, +∞[ de l’équation différentielle

u0 + u/t = et

est, d’après l’application de la méthode ci-dessus,

(t − 1)et 1
u(t) = +c , c ∈ R.
t t
Exemple 8.8. La formule précédente permet de trouver la solution générale de systèmes
différentiels triangulaires d’ordre n (c’est-à-dire associée à une matrice A(t) triangulaire). Par
exemple, (
u0 (t) = a(t)u(t) + b(t)
v 0 (t) = c(t)u(t) + d(t)v(t) + e(t)
En effet, on commence par résoudre l’équation différentielle linéire scalaire pour u et après
substitution dans la deuxième équation on obtient une autre équation différentielle linéaire
scalaire pour v.

8.5 Équations différentielles linéaires d’ordre supérieure


Dans toute cette section nous désignons par u : I → R des fonction scalaires.

37
8.5.1 Cas général. Coefficients variables
Définition 8.5. Soient a0 (t), a1 (t), . . . ak−1 (t) et b(t) des fonctions continues sur un intervalle
I ⊂ R. Une équation différentielle linéaire est une équation de la forme
u(k) + ak−1 (t)u(k−1) + · · · + a1 (t)u0 + a0 (t)u = b(t), t ∈ I. (8.2)
Si le terme à droite vérifie b(t) ≡ 0 sur I, alors l’équation est dite homogène. L’ensemble des
solutions est appelé  solution générale .
En général, on peut réduire une équation différentielle d’ordre supérieur à un système du
premier ordre. Voici un exemple de la démarche :
Exemple 8.9. Considérons l’équation scalaire d’ordre 3
u000 (t) = 3tu00 (t) + sin t u(t) + |t|.
On introduit la fonction vectorielle U = (U1 , U2 , U3 ) := (u, u0 , u00 ). Avec ces notations on voit
que l’équation donnée équivaut au système

0
U1 = U2

U20 = U3

 0
U3 (t) = 3tU3 (t) + sin tU1 (t) + |t|.
Ce système s’écrit sous la forme vectorielle
   
0 1 0 0
U 0 (t) = A(t)U (t) + B(t), avec A(t) =  0 0 1, B(t) = 0 

sin t 0 3t |t|
En général, l’équation différentielle linéaire scalaire d’ordre k s’écrit sous la forme vectorielle
suivante :
u0 (t) = A(t)u + B(t).
Ici,  
0 1 0 ··· 0 
0

 0 0 1 ··· 0
B(t) =  ...  .

A(t) =  ,  
 ··· 
−a0 (t) −a1 (t) · · · ··· −ak−1 (t) b(t)
Nous déduisons alors des résultats de la section précédente le théorème suivant :
Théorème 8.10. La solution générale d’une équation différentielle linéaire scalaire d’ordre k
homogène est un espace vectoriel de dimension k.
Pour une équation différentielle linéaire scalaire d’ordre k non homogène, la solution générale
sera donnée par une solution particulière plus la solution générale de l’équation différentielle
homogène associée.

8.5.2 Cas particulier : coefficients constants


Une équation différentielle linéaire (scalaire) homogène à coefficients constants est une équation
de la forme
u(k) + ak−1 u(k−1) + · · · + a1 u0 + a0 u = 0, (Hk)
où ak−1 , . . . a0 sont des constantes réelles.
Introduisons le polynôme caractéristique de cette équation, qui par définition est le polynôme
P (λ) = λk + ak−1 λk−1 + · · · + a1 λ + a0 .

38
Exemple 8.10. L’équation différentielle homogène d’ordre 2

u00 − 3u0 + 2u = 0

a pour polynôme caractéristique P (λ) = λ2 − 3λ + 2, qui possède les deux racines réelles λ1 = 1
et λ2 = 2. Observons que et et e2t sont deux solutions linéarement indépendantes de l’équation
différentielle. Donc l’équation a pour solution générale

u(t) = c1 et + c2 e2t , c1 , c2 ∈ R.

Exemple 8.11. L’équation différentielle homogène d’ordre 2

u00 − 2u0 + u = 0

a pour polynôme caractéristique P (λ) = λ2 − 2λ + 1, qui possède une racine double λ = 1.


Observons que et est bien une solution de l’équation différentielle. Mais cela ne suffit pas pour
décrire la solution générale V0 , qui est un espace de dimension 2. Observons cependant que tet
est une autre solution de l’équation, indépendente de la précédente. Donc l’équation a pour
solution générale
u(t) = c1 et + c2 tet , c1 , c2 ∈ R.
Exemple 8.12. L’équation
u000 − 2u00 + 2u0 = 0
admet le polynôme caractéristique P (λ) = λ3 − 2λ2 + 2λ dont les racines sont λ = 0, λ = 1 + i
et λ = 1 − i. La fonction constante t 7→ e0λ = 1 est une solution de l’équation. Les fonctions à
valeurs complexes t 7→ e(1+i)t et t 7→ e(1−i)t sont bien deux solutions de l’équation différentielle,
mais afin d’écrire une solution générale en termes de fonctions réelles on préfère prendre leur
somme/différence. Ainsi, la solution générale est

u(t) = c1 + c2 et cos t + c2 sin t, c1 , c2 , c3 ∈ R.

Le théorème suivant résume les considérations précédentes :


Théorème 8.11. Considérons l’équation différentielle linéaire (scalaire) homogène à coeffi-
cients constants (Hk).
1. Si λ, est une racine réelle du poynôme caractéristique, de multiplicité m ≥ 1 les fonctions

eλ t , teλ t , . . . , tm−1 eλ t

sont des solutions de l’équation (Hk).


2. Si λ = α + iβ (avec α, β ∈ R), est une racine complèxe du poynôme caractéristiqueλ ∈ C
de multiplicité m ≥ 1 (au quel cas aussi λ̄ = α − iβ sera une racine complèxe conjuguée),
alors
t 7→ tj eαt cos(βt) ou t 7→ tj eαt sin(βt), j = 1, . . . , m
sont des solutions de l’équation (Hk).
Les k solutions ainsi obtenues forment une base de l’espace de solutions de l’équation (Hk).
Plus en général, on peut considérer les équations différentielles linéaires à coefficients constants
avec second membre.
u(k) + ak−1 u(k−1) + · · · + a1 u0 + a0 u = f (t). (Ek)
Les techniques vu précedemment fournissent la solution générale de l’équation homogène as-
sociée. Pour trouver la solution générale de l’équation (Ek) il ne reste qu’à trouver une solution

39
particulière de (Ek). Pour ce faire, on peut chercher d’abord des solutions qui “ressemblent” à
la fonction f (t) ∗ . Si on n’en trouve pas, il peut être utile d’appliquer la méthode de variations
des constantes.

8.6 Équations différentielles non-linéaires


Une équation différentielle scalaire

u0 = f (t, u(t)), t∈I

où f est une fonction de deux variables est non linéaire lorsque l’application u 7→ f (t, u) est
non linéaire. Nous ne présentons pas de théorie générale, et nous nous limitons à illustrer deux
exemples.

Exemple 8.13. Considérons le problème de Cauchy non-linéaire


(
u0 (t) = u(t)2
u(0) = 1,

Observons qu’au voisinage de 0 la fonction u ne s’annule pas et que u0 (t)u−2 (t) = 1. Donc,
en calculant une primitive terme-à-terme u(t)−1 = −t + c, avec c = 1 à cause de la condition
initiale u(0) = 1. Mais alors u(t) = 1/(1 − t) et on voit alors que la solution  explose  en t = 1.
Cet exemple montre qu’en général les solutions d’une équation différentielle non-linéaire ne sont
toujours pas définies globalement sur tout l’intervalle I où la fonction t 7→ f (t, u) est définie.

Exemple 8.14. Considérons le problème de Cauchy non-linéaire


(
u0 (t) = 3u(t)2/3
u(0) = 0,

Pour ce problème il n’y a pas unicité de solution. En effet, on vérifie directement que la fonction
nulle et la fonction t 7→ t3 sont deux solutions distinctes. En général la non-unicité d’un problème
de Cauchy se produit lorsque l’application u 7→ f (t, u) n’est pas lipschitzienne.

∗. Si f (t) est de la forme P (t)eλt , avec P (t) polynôme, on cherchera une solution de la forme Q(t)eλt avec Q(t)
polynôme du même degré que P (t). Si f (t) est de la forme sin(λt), ou cos(λt), on cherchera une solution de la
forme A cos t + B sin t. Cette méthode ne fonctionne pas si la solution particulière que l’on cherche de l’équation
avec second membre s’avère être une solution de l’équation homogène associée. Dans cette situation, on peut
augmenter le degré du polynôme Q.

40

Vous aimerez peut-être aussi