Cours2023 Analyse Economie2
Cours2023 Analyse Economie2
Cours2023 Analyse Economie2
Lorenzo Brandolese
Cela donne,
n n
X X Di Dj (f )
f (x0 + tv) = f (x0 ) + Di (f )(x0 )tvi + (x0 )t2 vi vj + o(t2 ) pour t → 0.
2!
i=1 i,j=1
n n
X 1 X
f (x0 + h) = f (x0 ) + Di (f )(x0 )hi + Di Dj (f )(x0 )hi hj + o(khk2 ).
2
i=1 i,j=1
C’est la formule de Taylor d’ordre 2 pour les fonctions de plusieurs variables. Le terme à droite
est le développement limité d’ordre 2 de f centré en x0 . En observer la structure typique :
F 00 (0) 2 F (k) k
F (t) = F (0) + F 0 (0)t + t + ··· + t + o(tk ), pour t → 0.
2! k!
D’autre part, en généralisant les formules pour F 0 (t) et F 00 (t) on trouve
n
X
F (k) (t) = Di1 Di2 . . . Dik (f )(x0 + tv) vi1 vi2 . . . vik .
i1 ,...ik =1
1
On obtient alors, pour x → x0 ,
n n
X 1 X
f (x0 + h) = f (x0 ) + Di f (x0 )hi + Di Dj f (x0 )hi hj + · · ·
2
i=1 i,j=1
n (1.2)
1 X
+ Di1 Di2 . . . Dik f (x0 ) hi1 hi2 . . . hik + o(khkk ).
k!
i1 ,...ik =1
Exemple 2.1.
(i) Étudions les extrema locaux et globaux de la fonction f : R → R, où f (x) = (x2 − 1)2 sur R.
(ii) Étudions les extrema locaux et globaux de même fonction f sur l’intervalle I = [ 21 , 2].
Les réponses suivantes s’obtiennent en traçant le graphe de la fonction f à l’aide d’un tableau
de variations.
(i) f possède 3 extrema locaux en 0, 1 et −1, plus précisément 0 est un point de maximum locale
(mais ce n’est pas un point de maximum globale : le maximum globale de f n’existe pas). De
plus ±1 sont deux points de minimum globaux sur R et minR f = 0.
(ii) Sur l’intervalle I, 1 est le seul point minimum global pour f On a minI f = 0 De plus, 2 est
le seul point de maximum globale pour f dans I et maxI f = 9. D’autre part 12 est un point de
maximum local (non global) de f dans I.
Observons que dans l’exemple précédent, dans le cas (i), tous les extrema locaux ont été
trouvés parmi les points où f 0 s’annule : c’est dû au fait que la fonction a été étudié sur un
intervalle ouvert. Dans le cas (ii) ce n’est plus le cas.
Dans cette section on se focalise sur la recherche de point d’extrema libres, c’est-à dire les
points de minimum ou maximum à l’intérieur de l’ensemble de définition de la fonction. Cela
revient à supposer que la fonction es définie sur un ouvert.
Dém. La fonction d’une seule variable F (t) = f (x0 + tv) est dérivable en t = 0, où elle possède
un extremum local. Par le critère de Fermat, F 0 (0) = 0. Mais alors 0 = F 0 (0) = ∂f
∂v (x0 ).
2
Un point x0 où f est différentiable et ∇f (x0 ) = 0 s’appelle un point stationnaire ou point
critique pour f .
◦
ou éventuellement parmi les points de D\ D. Ces points sont situés sur la frontière de
l’ensemble D.
Exemple 2.3. On cherche à construire un caisson de 20m3 . Le matériau pour le fond coûte 3
euros/ m2 , pour le couvercle 2 euros/m2 et pour les côtés 1 euro/m2 . Quel est le caisson le moins
cher ? Et le plus cher ?
Réponse :
Modélisation : Notons x(=longueur), y(=largeur), z(=hauteur) les mesures du casson en mètres.
Le coût de construction est C(x, y, z) = 3xy + 2xy + 2(xz + yz) = 5xy + 2xz + 2yz. Il
s’agit de résoudre les problèmes de minimisation et maximisation pour C “avec contrainte” :
min{C(x, y, z) : xyz = 20} et max{C(x, y, z) : xyz = 20}.
Élimination de la contrainte et recherche des points stationnaires : L’ensemble des points vérifiant
xyz = 20 n’est pas un ouvert, c’est pourquoi la proposition (CN1) ne s’applique pas directement
à la fonction C. On impose z = 20/(xy) et on étudie la fonction
20
f (x, y) = C(x, y, xy ) = 5xy + 40( y1 + x1 ), x > 0, y > 0.
Nous pouvons appliquer la proposition (CN1) à la fonction f , qui est bien définie dans un
ouvert. Le système ∇f (x, y) = 0 possède une seule solution pour x > 0 et y > 0. Elle est donnée
par x = y = 2 (et donc z = 5).
3
Synthèse : On construit donc un caisson de mesures 2 × 2 × 5. Ce choix correspond-t-il au
caisson de coût minimum ou maximum ? Le problème de minimisation est-il bien posé ? Et celui
de maximisation ? [Voir l’exemple ci-après].
Dans la pratique, les fonction dont on étudie les problèmes d’optimisation sont souvent
continues. Le théorème de Weierstrass est alors un outil essentiel pour garantir que des solutions
existent. Mais ce théorème ne s’applique pas toujours (comme par exemple dans l’exemple
précédent). Le théorème suivant est une variante utile.
Dém. En effet, il existe x∗ ∈ K tel que f (x∗ ) = minx∈K f (x), par le théorème de Weierstrass.
Mais f (x∗ ) ≤ f (x̄) puisque x̄ ∈ K. Si x ∈ K on a f (x) ≥ f (x∗ ) par définition de x∗ . Si x ∈ D
et x 6∈ K on a f (x) > f (x̄) ≥ f (x∗ ). En conclusion, f (x∗ ) = minx∈D f (x).
Bien entendu on peut établir un théorème analogue pour l’existence d’un maximum absolu :
il s’agit cette fois-ci de supposer que l’ensemble de “sur-niveau” {x : f (x) ≥ f (x̄)} est borné. Le
cas typique d’application est celui d’une fonction continue telle que limkxk→+∞ f (x) = −∞.
Exemple 2.4 (Retour à l’exemple 6.7). Appliquons cette variante du théorème de Weierstrass
avec (x̄, ȳ) = (1, 1) (ce choix est arbitraire). Observons que l’ensemble de sous-niveau K =
{(x, y) : f (x, y) ≤ f (1, 1)} = 5xy + 40( y1 + x1 ) ≤ 85} est compact (en effet, il est manifestement
fermé et il est borné, puisque x ≥ 40/85, y ≥ 40/85 et 5xy ≤ 85 ⇒ x ≤ 17 · 85/40 et y ≤
17 · 85/40). Mais alors le problème de minimisation de l’exemple 6.7 est bien posé, c’est-à dire
que le caisson de coût minimum existe : c’est bien le caisson de mesures 2 × 2 × 5 trouvé avant.
Le problème de maximisation est mal posé : le caisson de coût maximum n’existe pas.
Ax = 0, x = (x1 , . . . xn )T ∈ Rn .
où A est une matrice carrée n × n. Ce système possède toujours comme solutions au moins le
vecteur nul x = 0. Il est bien connu que la condition nécessaire et suffisante pour qu’il y ait
d’autres solutions x 6= 0 est que det A = 0.
Définition 2.2. Un nombre réel (ou complexe) λ est dit valeur propre d’une matrice carrée A
s’il existe w ∈ Rn \{0} tel que Aw = λw. Le vecteur w s’appelle alors vecteur propre pour A.
Observons que si λ est une valeur propre alors (A − λI)w = 0, avec w ∈ Rn \{0}. Mais cela
est possible si et seulement si
det(A − λI) = 0. (2.1)
4
Chercher les valeurs propres revient à résoudre l’équation d’inconnue λ (2.1). En général, (2.1)
est une équation polynomiale en λ, de degré n. Le terme à gauche dans (2.1) s’appelle le polynôme
caractéristique de A. Cette équation possède alors n solutions, comptées avec leur multiplicité.
Ces solutions sont éventuellement complexes.
1 2
Exemple 2.5. La matrice A = possède 2 valeurs propres λ1 et λ2 . Celles-ci sont les
3 4
deux les solutions d’une équation polynomiale de degré 2 :
h1 2
1 0 i
1−λ 2
0 = det −λ = det = λ2 − 5λ − 1.
3 4 0 1 3 4−λ
√
Donc λ1,2 = 12 (5 ± 29).
Théorème 2.3 (démonstration hors programme. Voir le cours d’algèbre.). Si A est une matrice
carrée symétrique de taille n × n, c’est-à dire aij = aji pour tout i, j = 1, . . . , n, alors les valeurs
propres de A sont toutes réelles.
Exemple 2.6. Les formes quadratiques de R2 sont toutes et seules les fonctions de la forme
r s x x
(x, y) 7→ h , i = r x2 + 2s xy + t y 2 .
s t y y
Le cas des fonctions de plusieurs variables. Les formes quadratiques apparaissent na-
turellement dans la formule de Taylor d’ordre 2. En effet, soit f une fonction de classe C 2 au
voisinage d’un point x0 . Considérons la matrice hessienne de f en x0 , c’est à dire la matrice
symétrique de taille n × n des dérivées partielles secondes
∂2f
H = Hf (x0 ) = (x0 ) .
∂xi ∂xj 1≤i,j≤n
Pour les fonctions f : R → R, la matrice hessienne est réduite au seul nombre f 00 (x0 ).
La formule de Taylor pour f d’ordre 2 s’écrit alors
5
Pour déterminer la nature du point stationnaire x0 on est amené à diviser terme-à-terme par
hH (x )h,hi
khk2 et prendre khk → 0. Cela conduit à étudier la fonction h 7→ f khk0 2 .
Plus en général, étudions alors les fonctions de type
hAh, hi
F (h) = , h 6= 0. (2.3)
khk2
avec A = (aij ) matrice symétrique de taille n × n.
Av = F (v) v.
Dém. Observons que F est une fonction telle que, pour tout λ > 0, F (λ h) = F (h). en particulier,
1 h h
en prenant λ = khk on voit que F (h) = F ( khk ). Mais alors maxh6=0 F (h) = max{F ( khk ) : h 6=
0} = max{F (h) : khk = 1}. De même, minh6=0 F (h) = min{F (h) : khk = 1}. L’ensemble
{h : khk = 1} est la sphère unité qui est compact dans Rn . La fonction F étant continue sur
{h : khk = 1}, le théorème de Weierstrass implique que F possède un maximum et un minimum
absolu sur cet ensemble. Par la discussion précédente, F possède un minimum et un maximum
absolu sur Rn \{0}.
Soit donc h∗ un point de minimum de F dans Rn \{0}. Alors h∗ est un point stationnaire et
par le lemme précédent F (h∗ ) est une valeur propre de la matrice A. De plus, Ah∗ = F (h∗ )h∗ .
Mais alors λ1 ≤ F (h∗ ) = minh6=0 F (h). Mais au valeur propre λ1 correspondent un vecteur
propre v1 ∈ Rn \{0}. et l’on a Av1 = λ1 v1 , donc F (v1 ) = λ1 . Donc minh6=0 F (h) ≤ λ1 .
Si ĥ est un point de maximum pour F , on procède de la même manière et on trouve F (ĥ) =
λn .
6
Si on divise terme-à-terme par h2 et on prend h → 0 on en déduit :
1
h2
(f (x0 + h) − f (x0 )) = 12 f 00 (x0 ) + o(1), pour h → 0.
- Pour que x0 soit un point de minimum local il est nécessaire que f 00 (x0 ) ≥ 0. (En effet,
si x0 est un point de minimum local, alors pour h assez petit le terme à gauche est ≥ 0).
- Pour que x0 soit un point de minimum local il est suffisant que f 00 (x0 ) > 0. (En effet,
si f 00 (x0 ) > 0 alors pour h assez petit f 00 (x0 ) + o(1) > 0 et donc le terme à gauche est
positif).
- Pour que x0 soit un point de maximum local il est nécessaire que f 00 (x0 ) ≤ 0.
- Pour que x0 soit un point de maximum local il est suffisant que f 00 (x0 ) < 0.
Observer que lorsque f 00 (x0 ) = 0 on ne peut rien conclure en général : on a parfois un minimum,
ou un maximum, ou un point d’inflexion (considérer par exemple les cas f (x) = x3 , avec x0 = 0).
Généralisons ces considérations aux fonctions de plusieurs variables.
Le théorème suivant établit des conditions nécessaires (CN2) et des conditions suffisantes
(CS2), faisant intervenir les dérivées d’ordre 2, pour qu’un point soit un minimiseur ou un
maximiseur local.
Dém. Si x0 est un point de minimum local, alors ∃ δ > 0 tel que pour tout khk < δ on a
(voir (2.2))
1 2
2 hHf (x0 )h, hi + o(khk ) = f (x0 + h) − f (x0 ) ≥ 0.
Mais alors, avec les notations du lemme précédent, appliqué à A = Hf (x0 ), on trouve, pour
khk < δ,
F (h) + o(1) ≥ 0.
Soit λ1 = minh6=0 F (h) = F (v1 ). Comme F (v1 ) = F (α v1 ) pour tout α > 0, en prenant α → 0
on déduit de l’inégalité précédente
λ1 = lim F (α v1 ) ≥ 0.
α→0+
Mais alors toutes les valeurs propres de Hf (x0 ) sont ≥ 0. Cela prouve la première conclusion.
Supposons maintenant que toutes les valeurs propres soient strictement positives, et donc
λ1 = minh6=0 F (h) > 0. En utilisant que
1
khk 2 f (x 0 + h) − f (x 0 ) = F (h) + o(1) ≥ λ1 + o(1), pour h → 0.
on voit que pour khk assez petit cette expression est (strictement) positive. Donc x0 est bien un
point de minimum local (strict) pour f .
Les deux conclusions restantes se démontrent de la même manière.
7
Remarque 2.7 (Points de selle). Il arrive parfois qu’un point critique ne soit ni de minimum, ni
de maximum local. C’est le cas, par exemple quand la plus petite et la plus grande valeur propre
de la matrice Hessienne vérifient λ1 < 0 < λn . On dit alors que x0 est un point de selle (ou de
col, ou de min-max ). Par exemple, pour les fonctions de 2 variables, si (x0 , y0 ) est un point de
selle, alors la fonction x 7→ f (x, y0 ) aura un minimum local en x0 et la fonction y 7→ f (x, y) un
maximum local en y0 (ou l’inverse).
Règles pratiques pour appliquer le théorème 2.6 Pour appliquer le théorème 2.6 il n’est
pas indispensable de calculer les valeurs propres de Hf (x0 ), puisque seul le signe des valeurs
propres joue un rôle. Pour une fonctions de n variables, ces valeurs propres sont les solutions de
l’équation (2.1), qui est une équation de la forme
Exercice 2.8. Démontrer que les racines de (2.5) (dont on sait qu’elles sont toutes réelles) :
(i) sont toutes strictement négatives si et seulement si tous les coefficients a1 > 0,. . . an > 0.
(ii) sont toutes strictement positives si et seulement si les coefficients vérifient a1 < 0, a2 > 0,
a3 < 0, etc.
Compte tenu du résultat de l’exercice précédent, les valeurs propres de la matrice Hessienne
sont toutes strictement positives. L’origine est alors un point de minimum local. Cet analyse ne
donne aucun renseignement sur la nature globale de ce point de minimum.
2
Exercice 2.10 (Une méthode pratique pour les fonction de 2 variables). Soit f : R → R de
2 ∂2f 2 r−λ s
classe C 2 . Il est standard de noter r = ∂∂xf2 , s = ∂x∂y et r = ∂∂yf2 . Calculer det et
s t−λ
en déduire que, en un point (x0 , y0 ) :
3 Intégrales multiples
Voir les notes de Vincent Borrelli
4 Courbes paramétrées
4.1 Courbes paramétrées
Dans tout ce chapitre kxk désigne la norme euclidienne du vecteur x ∈ Rn .
8
Une courbe dans Rn est un ensemble Γ ⊂ Rn tel qu’il existe une application continue
ϕ : [a, b] → Rn , où [a, b] est un intervalle de R, telle que
On dit aussi que ϕ est une paramétrisation de Γ, ou aussi que Γ est le support de la courbe
paramétrée ϕ. Une paramétrisation permet de définir une orientation (c’est-à-dire un sens de
parcours) sur Γ : le parcours allant du point ϕ(a) au point ϕ(b).
Interpretation cinématique. Si x(t), y(t) et z(t) sont les coordonnées d’un point materiel
mobile à l’instant t, la loi horaire du mouvement, c’est à dire l’application t 7→ (x(t), y(t), z(t))
définit une courbe paramétrée ϕ dans R3 . Dans cet interpretation cinématique, le support Γ de
la courbe est la trajectoire du point matériel. La vitesse instantanée du point est donnée par le
vecteur ϕ0 (t) = (x0 (t), y 0 (t), z 0 (t)).
Définition 4.1. - On dit qu’une paramétrisation ϕ : [a, b] → Rn d’une courbe Γ est régulière
si ϕ est de classe C 1 (c’est à dire que ses composantes ϕ1 , . . . , ϕn sont toutes des fonctions
de classe C 1 ) et si, pour tout t ∈ [a, b], le vecteur ϕ0 (t) ∈ Rn n’est pas le vecteur (0, . . . , 0).
S’il existe une partition finie a = a0 ≤ a1 ≤ a2 ≤ . . . ≤ aN = b de l’intervalle [a, b] telle
que ϕ est régulière dans tout intervalle [ai , ai+1 ] on dit que ϕ est régulière par morceaux.
Un point où ϕ0 (t0 ) s’annule est dit point singulier.
- On dit qu’une courbe paramétrée ϕ : [a, b] → Rn est fermée si ϕ(a) = ϕ(b).
- On dit qu’une courbe paramétrée ϕ : [a, b] → Rn est simple si ϕ(t) 6= ϕ(t0 ), pour tout
t 6= t0 et a < t < b, a < t0 < b. Cela signifie que la courbe n’a pas d’intersection avec elle
même.
Exemple 4.1. - Si f : [a, b] → R est une fonction de classe C 1 , on peut toujours lui associer
une courbe paramétrée dans R2 régulière, simple, non fermée, en prenant son graphe. Cela
revient à poser ϕ(t) = (t, f (t)), t ∈ [a, b].
- La fonction ϕ(t) = (cos(t), sin(t)), où t ∈ [0, 2π] définit une paramétrisation régulière,
simple, fermée. Le support de cette courbe paramétrée est le cercle de centre O et de
rayon 1.
- La courbe paramétrée ϕ(t) = (t2 , t3 ), t ∈ [−2, 2] est simple non régulière. En effet,
observons que le vecteur dérivée 0 2
ϕ 2(t) = (2t, 3t ) s’annule pour t = 0. Pour dessiner cette
x=t
courbe, on part du système et on obtient, en éliminant t (il faut distinguer t ≥ 0
y = t3
et t < 0) y = ±x2/3 , avec 0 ≤ x ≤ 4. On voit alors sans peine que le support Γ de cette
courbe présente un cusp à l’origine.
- Soit a ∈ Rn et v un vecteur de Rn . L’équation paramétrique de la droite d passant par le
point a = (a1 , . . . an ) et parallèle au vecteur v = (v1 , . . . , vn ) est l’application
ϕ(t) = a + tv t∈R
ϕ(t) = a + (t − t0 )v t ∈ R.
- Les bords des polygônes sont des exemples typiques de courbes qui admettent des pa-
ramétrisations régulières par morceaux, mais pas de paramétrisation régulières.
Droite et verseur tangent. Soit ϕ une paramétrisation régulière, définie sur un intervalle
[a, b], et soit t0 et t1 deux points de cet intervalle. La droite passant par les points ϕ(t0 ) et ϕ(t1 )
9
ϕ(t1 )−ϕ(t0 )
s’identifie à la droite passant par ϕ(t0 ) et parallèle au vecteur v = t1 −t0 . Ainsi, cette droite
est paramétrée par l’application
ϕ(t1 ) − ϕ(t0 )
t 7→ ϕ(t0 ) + (t − t0 ) , t ∈ R.
t1 − t0
En passant à la limite pour t1 → t0 on trouve
ϕ(t0 ) + ϕ0 (t0 )(t − t0 ), t ∈ R. (4.1)
qui est l’équation paramétrique de la droite tangente au support de ϕ au point ϕ(t0 ). Observons
que cette droite est parallèle au vecteur ϕ0 (t0 ). Le vecteur
ϕ0 (t0 )
T~ (t0 ) =
kϕ0 (t0 )k
qui est de norme unitaire, est donc le verseur tangent à la courbe au point ϕ(t0 ).
n’est rien d’autre que la longueur de la ligne affine par morceaux qui relie les points ϕ(ai ). Il est
alors naturel de définir la longueur de la courbe comme
Long(ϕ) = sup{L(P ) : P ∈ P}.
On peut démontrer que si ϕ est une courbe régulière par morceaux, alors la quantité ci-dessus
est toujours finie.
Théorème 4.1. Pour toute courbe paramétrée régulière par morceaux, on a
Z b
Long(ϕ) = kϕ0 (t)k dt.
a
10
La relation ∼ est une relation d’équivalence. Observons que pour un difféomorphisme h : [a, b] →
[c, d] il y a deux possibilité : soit h est strictement croissante, soit h est strictement décroissante
(c’est une conséquence de la bijectivité, de la continuité, et du théorème des valeurs intermédiaires).
Dans le premier cas on dit que ϕ et ψ ont la même orientation.
Exemple 4.3. Un quart de cercle peut être paramétrée√par t 7→ (R cos t, R sin t), t ∈ [0, π/2],
mais aussi, en tant graphe d’une fonction, par x 7→ (x, R2 − x2 ), x ∈ [0, R]. On construit le
difféomorphisme h : [0, π/2] → [0, R] en posant x = h(t) = R cos t. Les deux paramérisations
sont alors équivalentes. Observons que le sens de parcours n’est pas le même dans ce deux cas.
En effet la fonction h est décroissante.
avec le signe + si ϕ et ψ ont la même orientation et le signe − dans le cas contraire. Ce calcul
montre que la droite tangente à une courbe Γ ne dépend pas de la paramétrisation choisie.
Définition 4.3. Une paramétrisation normale, ou paramérisation par abscisse curviligne d’une
courbe Γ, est une paramétrisation ψ : [0, Long(Γ)] → Rn telle que kψ 0 (s)k = 1 pour tout 0 ≤
s ≤ Long(Γ).
Proposition 4.2. Toute courbe Γ régulière par morceaux admet une paramétrisation normale
équivalente
Dém. À partir d’une paramétrisation régulière par morceaux ϕ : [a, b] → Rn , construisons une
paramétrisation normale ψ ∼ ϕ. Pour cela il suffit de définir h : [a, b] → [0, Long(ϕ)], avec
Z t
h(t) = kϕ0 (τ )k dτ.
a
Cette application h définit bien un difféomorphisme entre [a, b] et 0, Long(ϕ)]. Ensuite il suffit
de poser ψ(s) = ϕ(h−1 (s)) (ou ϕ(t) = ψ(h(t)), de manière équivalente). Observons que ψ 0 (s) =
ϕ0 (h−1 (s))((h−1 )0 (s)). Mais, pour tout s, h(h−1 (s)) = s et en dérivant terme-à-terme cette
relation on trouve (h−1 )0 (s) = 1/h0 (h−1 (s)) (c’est la formule usuelle de la dérivée de l’application
inverse). Comme h0 (t) = kϕ(t)k, on trouve
1
ψ 0 (s) = ϕ0 (h−1 (s)) .
kϕ0 (h−1 (s))k
11
Observons que dans le cas particulier où Γ est un intervalle [a, b], en le paramétrant par
R Rb
ϕ(t) = t, on trouve que Γ f ds = a f (t) dt. L’intégrale curviligne est dont une généralisation
de l’intégrale usuelle. R
Il est facile, à l’aide du théorème de changement de variables, de prouver que Γ f ds
est indépendant de la paramétrisation choisie pour Γ. En particulier (en prenant la fonction
constante f = 1) on voit que la longueur est indépendante du choix de la paramétrisation.
Exemple 4.5. Une paroi verticale est limitée par le haut par la courbe d’équation t 7→ (t, t2 , 6t),
t ∈ [0, 1]. Quelle est l’aire de la surface de cette paroi ? Réponse. Le profil au sol de la paroi est la
courbe Γ de R2 paramétrée par t 7→ (t, t2 ),
R t ∈ [0, 1].R Considérons ensuite la fonction f (x, y) = 6x.
1√
Il s’agit de calculer l’intégrale curviligne Γ f ds = 0 1 + 4t2 6t dt = [(1+4t2 )3/2 ]t=1 t=0 = 5
3/2 −1.
4.4 La courbure
Soit ψ : [0, Long(Γ)] → R2 la paramétrisation normale d’une courbe Γ. On note par s
l’abscisse curviligne. On suppose que ϕ est de classe C 2 .
On sait que kψ 0 (s)k = 1, donc
T~ (s) = ψ 0 (s),
~ (s) le verseur normal à T~ (s), de manière
est le verseur tangent à la courbe au point ψ(s). Soit N
que (T (s), N (s)) soit une base orthonormé directe du plan ∗ .
~ ~
Proposition 4.3. Il existe une fonction continue s 7→ κ̄(s) telle que ψ 00 (s) = κ̄(s)N ~ (s). En
particulier, si la courbe est paramétrée à l’aide de l’abscisse curviligne, alors la direction normale
à la courbe au point ϕ(s) est donnée par le vecteur ϕ00 (s).
Dém. En effet ψ 0 (s) · ψ 0 (s) = T~ (s) · T~ (s) = kT~ (s)k2 = 1. En dérivant par rapport à s on trouve
~ (s).
2ψ 00 (s) · ψ 0 (s) = 0. Mais alors ψ 00 (s) est orthogonal à ψ 0 (s), et donc parallèle à N
Définition 4.5. La courbure algébrique κ̄(s) de ψ au point ψ(s) est le nombre réel
κ̄(s) = ψ 00 (s) · N
~ (s) = T~ 0 (s) · N
~ (s).
12
Dém. Considérons la paramétrisation normale ψ(s) = ϕ(t(s)) de Γ, où t(s) = h−1 (s), h étant
le difféomorphisme introduit dans la démonstration de la Proposition 4.2. Nous avons (voir la
démonstration de la Proposition 4.2) :
ϕ0 (t(s))
ψ 0 (s) = .
kϕ0 (t(s))k
En dérivant par rapport à s on trouve
ϕ00 (t(s))
ψ 00 (s) = + λ(s)ϕ0 (t(s)),
kϕ0 (t(s))k2
1
où λ(s) est la dérivée de la fonction s 7→ kϕ0 (t(s))k ,
qu’on n’aura pas besoin de calculer. Donc, en
appliquant les propriétés élémentaires du déterminant det(~a, ~b + λ~c) = det(~a, ~b) + λ det(~a, ~c) et
det(~c, ~c) = 0, on voit que
det(ϕ0 (t), ϕ00 (t))
det(ψ 0 (s), ψ 00 (s))) = .
kϕ0 (t)k3
D’autre part,
det(ϕ0 (s), ψ 00 (s)) = det(T~ (s), κ̄(s)N
~ (s)) = κ̄(s).
Exemple d’étude d’un point singulier Si ϕ : [a, b] → R2 est une paramétrisation d’une
courbe admettant un point singulier ϕ(t0 ), la formule pour la construction de la droite tan-
gente (4.1) ne s’applique plus. Certaines courbes admettent cependant une droite tangente aux
points singuliers. Si c’est le cas, la pente de cette droite est donnée par la limite
y(t) − y(t0 )
` = lim .
t→t0 x(t) − x(t0 )
La droite est alors celle d’équation y = `(x − x(t0 )) + y(t0 ).
13
Exemple 4.7. Étudions le point singulier de la courbe paramétrée par x(t) = 1 + t2 et y(t) =
y(t)−y(0)
−1 + t2 − t3 . Le point singulier est (x(0), y(0)) = (1, −1). La limite ` = limt→0 x(t)−x(0) existe et
vaut ` = 1. La droite tangente au point singulier est donc la droite d’équation y = x − 2. Pour
connaı̂tre l’allure de la courbe au voisinage du point singulier, étudions la position de la courbe
par rapport au point (1, −1) : pour cela observons que x(t) − 1 = t2 ≥ 0 et y(t) + 1 = t2 − t3 ≥ 0
au voisinage de t = 0, la courbe reste alors à la droite et en haut par rapport au point (1, −1), au
voisinage de celui-ci. Étudions ensuite la position de la courbe par rapport à sa droite tangente :
on a y(t) − x(t) + 2 = −t3 , qui change de signe en t = 0. Ainsi la courbe est à la fois au dessus
et en dessous de sa droite tangente au voisinage du point (1, −1). Ces renseignements nous
permettent de dire que la courbe présente en (1, −1) une singularité de type “cusp”.
14
La dernière égalité est l’équation cartesienne du plan passant par P̄ , de vecteurs directeurs
~a et ~b.
(φ, θ) 7→ (R sin θ cos φ, R sin θ sin φ, R cos θ), φ ∈ [0, 2π[, θ ∈ [0, π].
Le verseur normal à une surface Σ paramétrée par (u, v) 7→ ϕ(u, v), au point ϕ(u, v) est alors
donnée par la formule
(ϕu ∧ ϕv )(u0 , v0 )
~ν (u0 , v0 ) = .
k(ϕu ∧ ϕv )(u0 , v0 )k
Exemple 5.3. Le cylindre Σ de de base le disque {(x, y) : x2 + y 2 ≤ R2 } et hauteur infinie peut
être paramétrée par
(θ, z) : (cos θ, sin θ, z), θ ∈ [0, 2π], z ∈ R.
Le plan tangent au cylindre au point (cosθ0 , sin θ0 , z0 ) est le plan paramétré par
Exemple 5.4. Le graphe d’une fonction de 2 variables f peut être paramétré par
15
5.3 Aire d’une surface paramétrée et intégrale de surface
Considérons la surface Σ paramétrée par (u, v) 7→ ϕ(u, v), où (u, v) ∈ K. Considérons un
grillage de K, le subdivisant en petits rectangles d’aire du dv, et soit R0 l’un de ces rectangles,
de sommets (u0 , v0 ), (u0 + du, v0 ), (u0 , v0 + dv) et (u0 + du, v0 + dv). L’application ϕ envoie
R0 en une petite portion de la surface ϕ(R0 ). Mais en appliquant la formule de Taylor d’ordre
1 (en négligeant le reste),
ϕ(u0 + du, v0 ) ' ϕ(u0 , v0 ) + ϕu (u0 , v0 ) et ϕ(u0 , v0 + dv) ' ϕ(u0 , v0 ) + ϕv (u0 , v0 ).
s’interpréte comme un “élément infinitesimal d’aire” sur la surface. Cela conduit naturellement
à la définition suivante : Z
Aire(Σ) = k(ϕu ∧ ϕv )(u, v)k du dv.
K
Exemple 5.5. La formule précédente, appliquée à la sphère de rayon R, donne l’aire A = 4πR2 .
Définition 5.2. Soit f : Σ → R une fonction continue, définie sur une surface Σ régulière,
paramétrée par (u, v) 7→ ϕ(u, v), où (u, v) ∈ K. La quantité
Z Z
déf
f dσ = f (ϕ(u, v))k(ϕu ∧ ϕv )(u, v)k du dv
K K
F (x, y) = 0.
Le but de cette section est d’étudier les propriétés de telles courbes. À partir de l’équation
F (x, y) = 0 il est parfois possible d’exprimer une variable en fonction de l’autre, par exemple
y = f (x). Dans ce cas la courbe d’équation F (x, y) = 0 est le graphe de la fonction f . Il peut
être plus aisé d’exprimer x comme fonction de y : si l’on peut écrire x = g(y) cela signifie que
la courbe est le graphe de la fonction g.
Mais il y a des courbes qui ne sont pas (globalement) de graphes : c’est le cas, par exemple,
du cercle centré en O de rayon 1, qui correspond aux solutions de l’équation x2 + y 2 − 1 = 0.
Localement la situation est différente : si on fixe un point du cercle (x0 , y0 ) il est possible de
trouver un voisinage de ce point où le cercle est
√ bien le graphe d’une fonction y = f (x) √ et/ou
x = g(y) : il s’agit de prendre la fonction y = 1 − x 2 (si y > 0) ou la fonction y = − 1 − x2
p p0
(si y0 < 0) ; ou encore x = 1 − y 2 (si x0 > 0) ou x = − 1 − y 2 (si x0 < 0).
16
Étant donnée une courbe d’équation F (x, y) = 0, et un point (x0 , y0 ) de cette courbe, quand
est-ce qu’on peut dire que la courbe est (au moins localement) le graphe d’une fonction y = f (x) ?
La réponse est fournie par le théorème ci-dessous :
Théorème 6.1 (des fonctions implicites pour les fonctions de 2 variables). Soit U un ouvert de
R2 et F : U → R une fonction de classe C 1 . Soit (x0 , y0 ) ∈ U tel que
∂F
F (x0 , y0 ) = 0, (x0 , y0 ) 6= 0.
∂y
Alors il existe un voisinage I de x0 , un voisinage J de y0 et une fonction f : I → J tels que
Fx (x, f (x))
f 0 (x) = − , (6.1)
Fy (x), f (x))
∂F ∂F
où Fx = ∂x et Fy = ∂y .
Remarque 6.1. En échangeant les rôles des variables x et y on trouve ceci : Si (x0 , y0 ) ∈ U
est un point tel que
∂F
F (x0 , y0 ) = 0, (x0 , y0 ) 6= 0.
∂x
Alors il existe un voisinage I de x0 et un voisinage J de y0 et une fonction g : J → I tels que
Dém. du théorème. Nous pouvons supposer, par exemple Fy (x0 , y0 ) > 0. Par la continuité de Fy ,
on a Fy (x, y) > 0 dans un rectangle I × J. Posons J = [y0 − h, y0 + h]. La fonction y 7→ F (x0 , y)
étant croissante dans J on a F (x0 , y0 − h) < 0 et F (x0 , y0 + h) > 0. Considérons les fonctios
continues x 7→ F (x0 , y0 − h) et x 7→ F (x0 , y0 + h). Quitte à remplacer I par un intervalle centré
en x0 plus petit, pour x ∈ I on a : F (x, y0 − h) < 0 et F (x, y0 + h) > 0. Par le théorème des
valeures intermédiaires, appliqué à la fonction croissante y 7→ F (x, y) (avec x fixé), il existe un
et un seul y = f (x) tel que F (x, f (x)) = 0. La fonction f est ainsi construite.
Démontrons que f est de classe C 1 : Prenons x, x1 ∈ I. En appliquant le théorème des
accroissements finis à la fonction
on trouve
∃τ ∈ [0, 1] : Φ(1) − Φ(0) = Φ0 (τ ).
Considérons le point Pτ = ((1 − τ )x1 + τ x, (1 − τ )f (x1 ) − τ f (x)), qui est un point sur le ségment
de (x, f (x)) à (x1 , f (x1 )). L’égalité précédente se réécrit
F (x, f (x)) − F (x1 , f (x1 )) = Φ0 (τ ) = (x − x1 )Fx (Pτ ) + (f (x) − f (x1 ))Fy (Pτ ).
17
D’autre part, F (x, f (x)) = F (x1 , f (x1 )) = 0. Donc,
Si l’on prend x1 → x, on a Pτ → (x, f (x)). Mais comme F est de classe C 1 , on voit que f est
dérivable et
Fx (x, f (x))
f 0 (x) = − .
Fy (x, f (x))
L’expression à droite étant une fonction continue de x, on trouve que f est de classe C 1 .
Dém. En effet, au voisinage de (x0 , y0 ), la courbe est le graphe d’une fonction dérivable de la
forme y = f (x), ou éventuellement de la forme x = g(y). Traitons, par exemple, le premier cas.
Un point (x, y) appartient à la droite tangente si et seulement si y − y0 = f 0 (x0 )(x − x0 ), c’est
à dire si et seulement si (d’après (6.1)) (x − x0 )Fx (x0 , y0 ) + (y − y0 )Fy (x0 , y0 ) = 0. Cela dit
précisément que le vecteur ∇F (x0 , y0 ) est orthogonale à (x − x0 , y − y0 ), c’est à dire orthogonale
à la droite tangente.
Corollaire 6.3. Si g : U → R est une fonction de classe C 1 , où U est un ouvert de R2 , alors en
tout point (x0 , y0 ) ∈ U , ∇g(x0 , y0 ) est orthogonal à la ligne de niveau de g passant par (x0 , y0 ).
Dém. Si ∇g(x0 , y0 ) = 0 il n’y a rien à démontrer (le vecteur nul est orthogonal à tous les
vecteurs). Si ∇g(x0 , y0 ) 6= 0, considérons la fonction F (x, y) = g(x, y) − c où c = g(x0 , y0 ). On a
∇F (x0 , y0 ) = ∇g(x0 , y0 ) et la ligne de niveau de g passant par (x0 , y0 ) est l’ensemble d’équation
F (x, y) = 0. Le résultat est alors une conséquence immédiate du corollaire précédent.
F (x0 , y0 , z0 ) = 0, Fz (x0 , y0 , z0 ) 6= 0,
(−fx , −fy , 1)
ν= p ,
1 + k∇f k2
18
où toutes les dérivées sont calculées au point (x, y). Supposons maintenant, par exemple, que
Fz (x0 , y0 , z0 ) > 0. Compte tenu des formules précédentes pour fx et fy , on trouve
Fx Fy Fz ∇F
ν= , , = . (6.2)
k∇F k k∇F k k∇F k k∇F k
Observons que la formule (6.2) implique que, pour une fonction de 3 variables, le vecteur
gradient est orthogonal, en tout point, à la surface de niveau passant par ce point. Cette af-
firmation se démontre comme dans le cas des fonctions de 2 variables (voir le corollaire 6.3).
En généralisant à n variables, il n’est pas difficile de se convaincre alors de la validité de la
proposition suivante :
Au voisinage de P0 on a
( ( (
F (x, y, z) = 0 z = ϕ(x, y) z = ϕ(x, y)
⇐⇒ ⇐⇒ .
G(x, y, z) = 0 G(x, y, ϕ(x, y)) = 0 Φ(x, y) = 0
Observons que
Fy
Φy = Gy + Gz ϕy = Gy − Gz . (6.4)
Fz
Maintenant, supposons que 0 6= Φy (x0 , y0 ).
Dans ce cas nous pouvons exprimer y en fonction de x et écrire, au voisinage de (x0 , y0 ),
Φ(x, y) = 0 ⇐⇒ y = f (x).
19
Cela donne alors, au voisinage de P0 ,
(
F (x, y, z) = 0
⇐⇒ y = f (x) et z = ϕ(x, f (x)) = g(x).
G(x, y, z) = 0
∂(F, G)
Φy (x0 , y0 ) 6= 0 ⇐⇒ det 6= 0,
∂(y, z)
où
∂(F, G) Fy Fz
= .
∂(y, z) G y Gz
Théorème 6.5 (Des fonctions implicites – 3 variables). Soit F et G deux fonctions de classe
C 1 au voisinage d’un point P0 = (x0 , y0 , z0 ) ∈ R3 , tel que F (P0 ) = G(P0 ) = 0. Si la matrice
∂(F, G) Fx (P0 ) Fy (P0 ) Fz (P0 )
= .
∂(x, y, z) Gx (P0 ) Gy (P0 ) Gz (P0 )
est de rang 2, alors il existe un voisinage de P0 où le système (6.3) définit deux variables en
fonction de la troisième. L’ensemble des solutions de (6.3) dans ce voisinage est alors le support
d’une courbe régulière de R3 . ∗
Rappelons que les lignes d’une matrice 2 × 3 de rang 2 sont linéairement indépendantes. Sous
les hypothèses du théorème précédent, on voit que les vecteurs ∇F (P0 ) et ∇G(P0 ) ne sont pas
co-linéaires. Autrement dit, ∇F (P0 ) ∧ ∇G(P0 ) 6= 0. Mais le vecteur ∇F (P0 ) est orthogonal en
P0 à la surface de niveau F (x, y, z) = 0. Et le vecteur ∇G(P0 ) est orthogonal en P0 à la surface
de niveau G(x, y, z) = 0. L’hypothèse que la matrice est de rang 2 traduit alors le fait que ces
deux surfaces n’ont pas le même plan tangent. La conclusion du théorème est que l’intersection
des ces deux surfaces est bien une courbe.
20
Pour qu’une fonction f soit un difféomorphisme local en x0 il est necessaire que la matrice
jacobienne en x0 soit inversible (c’est à dire de déterminant non nul, s’agissant d’une matrice
carrée) En effet, on nous avons déjà vu que, en posant y0 = f (x0 ),
−1
Jf −1 (y0 ) = Jf (x0 ) .
21
Théorème 6.7 (des multiplicateurs de Lagrange). Soient f et g deux fonctions de classe C 1 au
voisinage de P0 ∈ Rn . Si P0 est un point tel que g(P0 ) = 0, ∇g(P0 ) 6= 0 et P0 est un minimiseur
ou un maximiseur pour f (x) sous la contrainte g(x) = 0, c’est à dire
f (P0 ) = min{f (x) : g(x) = 0}, ou f (P0 ) = max{f (x) : g(x) = 0},
Remarque 6.4. Dans le cas ∇f (P0 ) 6= 0, et pour les fonctions de 2 variables, la conclusion
s’interprète ainsi : les lignes de niveau de f (la fonction à optimiser) et de g (la fonction qui
donne la contrainte) tangentes au point P0 . En effet, ∇f (P0 ) et ∇g(P0 ) sont, respectectivement,
orthogonaux à leurs lignes de niveau. De même, pour les fonctions de trois variables, les surfaces
de niveau de f et de g sont tangentes ne P0 .
0 = Ψ0 (x0 ) = fx (x0 , φ(x0 )) + fy (x0 , φ(x0 ))φ0 (x0 ) = ∇f (x0 , y0 ) · (1, φ0 (x0 )).
Le vecteur ∇f (x0 , y0 ) est donc orthogonal au vecteur (1, φ0 (x0 )). Mais le vecteur (1, φ0 (x0 ))
est tangent en (x0 , y0 ) au graphe de la fonction φ, c’est-à-dire à la courbe {(x, y) : y =
φ(x)} = {(x, y) : g(x, y) = 0}. Ainsi, ∇f (x0 , y0 ) est orthogonal à la courbe {(x, y) : g(x, y) =
0}. Mais ∇g(x0 , y0 ) est lui même orthogonale à cette courbe par la proposition 6.4. Ainsi,
∇f (x0 , y0 ) et ∇g(x0 , y0 ) sont deux vecteurs parallèles.
- Le cas des fonctions de 3 variables. Soit P0 = (x0 , y0 , z0 ). L’hypothèse sur g est ∇g(P0 ) 6=
0. Supposons, par exemple, gz (P0 ) 6= 0. On a g(x, y, z) = 0 au voisinage de P0 si et
seulement si z = φ(x, y) dans ce voisinage, où φ est une fonction de classe C 1 . La fonction
Ψ(x, y) := f (x, y, φ(x, y)) possède alors un extremum libre en (x0 , y0 ). Mais (x0 , y0 ) est
alors un point stationnaire pour Ψ et ∇Ψ(x0 , y0 ) = 0. En appliquant à φ des formules
analogues (6.4) on trouve
0 (fx − fz gx /gz )(P0 ) 1 (fx gz − fz gx )(P0 )
= ∇Ψ(x0 , y0 ) = = .
0 (fy − fz gy /gz )(P0 ) gz (P0 ) (fx gz − fz gx )(P0 )
D’après la formule du produit vectoriel (5.1), cela implique que la première et la deuxième
composante du vecteur (∇f ∧∇g)(P0 ) s’annulent. Maintenant, si gx (P0 ) = 0 et gy (P0 ) = 0
alors la troisième composante de (∇f ∧ ∇g)(P0 ) sera nulle également. Sinon, gx (P0 ) 6= 0
ou gy (P0 ) 6= 0 et on parvient à la même conclusion en raisonnant comme ci-dessus mais
en échangeant les rôles des variables x, y et z. En conclusion ∇f ∧ ∇g s’annule au point
P0 , ce qui se produit précisément lorsque ∇f (P0 ) et ∇g(P0 ) sont parallèles.
22
Le théorème précédent admet la reformulation suivante : introduisons la Lagrangienne du
problème d’optimisation, qui est la fonction de n + 1 variables
On a (
∇f (P0 ) + λ0 ∇g(P0 ) = 0
⇐⇒ ∇L(x0 , λ0 ) = 0,
g(P0 ) = 0
∂L ∂L ∂L
où ∇x,λ L est le vecteur de n + 1 composantes ∂x1 , . . . ∂x n
et ∂λ .
Observer que ce théorème ne fournit qu’une condition nécessaire : ce théorème s’avère très
utile pour trouver les points P0 qui sont les bons candidats à être les solutions des problèmes
d’optimisation avec contrainte. Mais sous les hypothèses du théorème, il peut arriver que (P0 , λ0 )
soit un point stationnaire de L, ou que g(P0 ) = 0 et ∇g(P0 ) = 0, sans que P0 soit ni un minimum,
ni un maximum du problème d’optimisation.
Dispose-t-on de conditions suffisantes pour l’existence d’extrema avec contraintes ? La réponse
est affirmative, mais n’insistons pas sur ce point. Bien souvent, on applique le théorème de
Weierstrass pour démontrer que le minimum et/ou le maximum existent. Cela est possible no-
tamment si la contrainte Σ définit un ensemble compact. ∗
√
Exemple 6.5. Trouvons le maximum et le minimum de la fonction f (x, y, z) = x + y − 6z
sur la sphère Σ de centre O et de rayon 1. Tout d’abord, f est une fonction continue et Σ =
{(x, y, z) : x2 + y 2 + z 2 − 1 = 0} est un compact de R3 . Donc, par le théorème de Weierstrass, les
problèmes de minimisation et de maximisation posés possèdent bien des solutions. Ici, g(x, y, z) =
x2 + y 2 + z 2 − 1. Observons que la contrainte g(x, y, z) = 0 n’est jamais dégénérée, puisque le seul
∗. Rappelons aussi la variante suivante du théorème de Weierstrass, qui s’applique (parfois) quand Σ n’est pas
compact :
Le cas typique d’application est celui d’une fonction f : Rn → R telle que limkxk→+∞ f (x) = +∞. Une telle
fonction a tous les ensembles de sous-niveau bornés (pourquoi ?). Si de plus f est continue, ses ensembles de
sous-niveau sont fermés (pourquoi ?) et donc compacts. La fonction possède alors un minimum absolu.
Bien entendu on peut établir un théorème analogue pour l’existence d’un maximum absolu : il s’agit cette
fois-ci de supposer que l’ensemble de “sur-niveau” {x : f (x) ≥ f (x̄)} est borné. Le cas typique d’application est
celui d’une fonction continue telle que limkxk→+∞ f (x) = −∞.
23
point où ∇g s’annule est l’origine, mais l’origine ne vérifie pas la contrainte. Ainsi, les points
de minimum et maximum sont à chercher parmi les points stationnaires
√ de la Lagrangienne. La
Lagrangienne du système est la fonction L(x, y, z, λ) = x + y − 6z + λ(x2 + y 2 + z 2 − 1). Ses
points stationnaires sont les solutions du système
1 + 2λx = 0
1 + 2λy = 0
√
− 6 + 2λz = 0
x2 + y 2 + z 2 − 1 = 0.
√
En exprimant x, y, z en √ fonction
√ de √ λ, √la quatrième
√ équation donne λ = ± 2 et ensuite
(x0 , y0 , z0 , λ0 ) = ±(1/2 2, 1/2 2, − 6/2 2, 2). Les solutions des problèmes de minimisations
et maximisation (dont l’existence a√été établie
√ avant
√ via √ le théorème de √
Weierstrass)
√ sont
√ alors
√ à
chercher parmi les points P = (1/2 2, 1/2 2, − 6/2 2) et Q = (−1/2 2, −1/2 2, + 6/2 2).
Mais un calcul direct montre que f (P ) > f (Q). Ceci permet de dire que f atteint sur la sphère
son maximum en P et son minimum en Q.
Même si le théorème des multiplicateurs de Lagrange est un outil puissant, il convient parfois
ne pas l’utiliser, notamment s’il est possible d’éliminer la contrainte en exprimant une variable
en fonction des autres :
Exemple 6.7. On cherche à construire un caisson de 20m3 . Le matériau pour le fond coûte 3
euros/ m2 , pour le couvercle 2 euros/m2 et pour les côtés 1 euro/m2 . Quel est le caisson le moins
cher ? Et le plus cher ?
Réponse :
- Modélisation : Notons x(=longueur), y(=largeur), z(=hauteur) les mesures du casson en
mètres. Le coût de construction est C(x, y, z) = 3xy + 2xy + 2(xz + yz) = 5xy + 2xz +
2yz. Il s’agit de résoudre les problèmes de minimisation et maximisation pour C “avec
contrainte” : min{C(x, y, z) : xyz = 20} et max{C(x, y, z) : xyz = 20}.
- Élimination de la contrainte et recherche des points stationnaires : On pourrait introduire
la Lagrangienne et en déterminer les points stationnaires (cela conduit à resoudre un
système de 4 équations et 4 inconnues). Mais il est plus aisé de poser z = 20/(xy) et
d’étudier la fonction
20
f (x, y) = C(x, y, xy ) = 5xy + 40( y1 + x1 ), x > 0, y > 0.
La fonction f étant définie sur un ouvert, il s’agit d’en trouver les points stationnaires :
Cela conduit à résoudre le système (de deux équations et 2 inconnues) ∇f (x, y) = 0. Ce
système possède une seule solution pour x > 0 et y > 0. Elle est donnée par x = y = 2
(et donc z = 5).
24
- Synthèse : On construit donc un caisson de mesures 2 × 2 × 5. Ce choix correspond-t-il au
caisson de coût minimum, maximum, ou ni l’un ni l’autre ? Le problème de minimisation
est-il bien posé ? Et celui de maximisation ? Pour répondre à ces questions appliquons
la variante du théorème de Weierstrass avec (x̄, ȳ) = (1, 1) (ce choix est arbitraire).
Observons que l’ensemble de sous-niveau K = {(x, y) : f (x, y) ≤ f (1, 1)} = 5xy + 40( y1 +
1
x ) ≤ 85} est compact (en effet, il est manifestement fermé et il est borné, puisque
x ≥ 40/85, y ≥ 40/85 et 5xy ≤ 85 ⇒ x ≤ 17 · 85/40 et y ≤ 17 · 85/40). Mais alors
le problème de minimisation de l’exemple 6.7 est bien posé, c’est-à dire que le caisson
de coût minimum existe : c’est bien le caisson de mesures 2 × 2 × 5 trouvé avant. Le
problème de maximisation est mal posé : le caisson de coût maximum n’existe pas. On
le voit en observant que des cassons de mesures x, x, 20/x2 ont un coût qui tend à l’infini
si x → +∞.
min{f (x) : g1 (x) = 0, g2 (x) = 0}, ou max{f (x) : g1 (x) = 0, g2 (x) = 0} (x ∈ Rn , n ≥ 3).
On peut démontrer que les points x0 de minimum ou maximum de f sous les contraintes g1 (x) =
g2 (x) = 0 sont à chercher parmi les points x ∈ Rn tels que (x, λ1 , λ2 ) est un point stationnaires
de la Lagrangienne. Ainsi, pour trouver ces points (ou du moins des points candidats à être des
solutions du problème d’optimisation), on commence par trouver les solutions du système de
n + 2 équations
∇x,λ1 ,λ2 L(x, λ1 , λ2 ) = 0. (6.6a)
Mais comme on l’a vu avant, un autre cas de figure est possible : celui où la contrainte g1 (x) =
g2 (x) = 0 est dégénérée : ainsi les solutions du problèmes d’optimisation sont aussi à chercher
parmi les éventuelles solutions des systèmes
( (
∇ g1 (x) = 0 ∇ g2 (x) = 0
ou (6.6b)
g1 (x) = g2 (x) = 0 g1 (x) = g2 (x) = 0
Dans la plupart des cas la contrainte ne sera pas dégénérée et les systèmes (6.6b) n’ont pas de
solution.
Bien entendu, ces considérations se généralisent à un nombre arbitraire de contraintes.
i) d(x, y) = 0 ⇐⇒ x = y, ii) d(x, y) = d(y, x), iii) d(x, y) ≤ d(x, z) + d(z, y).
25
— Pour r > 0 et x ∈ X, la boule centrée en x et de rayon r > 0 est l’ensemble B(x, r) =
{y ∈ X : d(x, y) < r}. Dans un espace métrique, un ensemble U est dit ouvert si, pour
tout x ∈ U , il existe r > 0 tel que. B(x, r) ⊂ U . Un ensemble est dit fermé si sont
complémentaire dans X est u ensemble ouvert.
— Une suite dans un espace métrique X est une application N → X. Elle est notée
généralement (xn )n∈N ou simplement (xn ).
Soit (xn ) une suite d’un espace métrique (X, d) et x ∈ X. On dit la suite (xn ) converge
vers x, et on écrit xn → x ou encore limn→+∞ xn = x si, pour tout > 0 il existe n0 ∈ N
tel que pour tout n ≥ n0 on a xn ∈ B(x, ) (autrement dit, d(xn , x) < ). Si la suite
ne converge vers aucun point, on dit qu’elle diverge. Dans le cas général on voit que
xn → x ⇐⇒ d(xn , x) → 0.
Le “théorème d’unicité de la limite” affirme que si on a une suite telle que xn → x et
xn → y, alors x = y.
— L’adhérence A d’une partie A d’un espace métrique X est le plus petit fermé contenant
A. Un point x ∈ A si et seulement s’il existe une suite (xn ) ⊂ A telle que xn → x.
— Une application f : (X, dX ) → (Y, dY ) est continue en x si et seulement si, pour tout
> 0, il existe δ > 0 tel que : dX (x, x0 ) < δ ⇒ dY (f (x), f (x0 )) < . La continuité peut se
caractériser par les suites : f est continue en x si et seulement si pour toute suite (xn )
convergente vers x on a f (xn ) convergente vers f (x).
— Une application f : (X, dX ) → (Y, dY ) entre deux espaces métriques est dite k-lipschitzienne
(où k ≥ 0) si et seulement si, pour tout x, x0 ∈ X on a dY (f (x), f (x0 )) ≤ k dX (x, x0 ). Elle
est dite lipschitzienne s’il existe k ≥ 0 telle qu’elle est k-lipschitzienne. Les applications
lipschitziennes sont continues.
Proposition 7.1. 1. Si (xn ) converge, alors (xn ) est une suite de Cauchy.
2. Toute suite de Cauchy est bornée.
Dém. 1.) Si x = limn→∞ xn et > 0, il existe un n0 tel que d(xn , x) < /2 si n ≥ n0 . Si
m, n ≥ n0 , on trouve alors d(xn , xm ) ≤ d(xn , x) + d(xm , x) < .
2.) Pour la démonstration de la seconde affirmation, il suffit d’applique la définition de suite
de Cauchy avec = 1. On trouve qu’il existe n0 tel que, pour tout m ≥ n0 on a d(xm , xn0 ) ≤ 1.
Mais alors, pour tout m ∈ N, d(xm , xn0 ) ≤ R, où R = max0≤i≤n0 d(xi , xn0 )} + 1.
Exemple 7.1. Dans l’espace métrique (Q, d), où√ d(x, y) = |x − y| est la distance euclidienne,
considérons la suite (xn ) définie par xn = E(2n 2)/2n (où E(α) désigne la partie entière du
nombre réel α, c’est à dire le plus grand entier inférieur ou égale
√ à α). Il s’agit bien d’une suite
de nombres rationnels. Cette suite converge vers l’irrationnel 2. On conclut que la suite (xn )
est de Cauchy dans (Q, d), et qu’elle est divergente dans (Q, d).
Définition 7.2. Un espace métrique (X, d) est complet si et seulement si toute suite de Cauchy
(xn ) ⊂ X est convergente dans X.
Un espace normé (E, k · k) est de Banach si et seulement si E est complet pour la distance
associée à k · k.
Exemple 7.2. Q muni de la distance usuelle dans R n’est donc pas complet, comme l’exemple
précédent le montre. L’intervalle ]0, +∞[ est un autre exemple d’espace métrique non complet
(considérer la suite (1/n)n∈N∗ , qui est de Cauchy, pour le voir).
26
Théorème 7.2. R est complet.
Dém. ∗ Soit (xn ) une suite réelle de Cauchy. Soient An = {xn , xn+1 , . . . , }, an = inf An , bn =
sup An . On a an , bn ∈ R, car An est borné. Clairement, an ≤ bn , (an ) est croissante, (bn )
décroissante. Soit > 0. Il existe un n0 tel que |xn − xm | < /2 si n, m ≥ n0 . Pour n ≥ n0 ,
on a donc An ⊂ [xn0 − /2, xn0 + /2], ce qui implique xn0 − /2 ≤ an ≤ bn ≤ xn0 + /2 ; d’où
bn − an ≤ . Il s’ensuit que les suites (an ), (bn ) sont adjacentes. Par conséquent, il existe un
a ∈ R tel que an → a, bn → a. Comme an ≤ xn ≤ bn , on trouve xn → a.
Il n’est pas difficile de voir que Cb (X, R) est un espace vectoriel normé, pour la norme du sup.
On définit une distance δ sur l’ensemble Cb (X, R) (dite “distance du sup”), par
∀ f, g ∈ Cb (X, R) : δ(f, g) = sup |f (x) − g(x)|.
x∈X
La norme k · k∞ induit bien entendu la distance δ par la relation usuelle δ(f, g) = kf − gk∞ .
∗. Cette démonstration suppose connu le fait que deux suites réelles adjacentes convergent. Par définition,
deux suites (an ) et (bn ) sont adjacentes lorsque an ≤ bn , (an ) croissante, (bn ) décroissante et bn − an → 0.
27
Exemple 7.3. Si X = [0, 1], les fonctions f (x) = exp(x) et g(x) = exp(2x) appartiennent à
Cb ([0, 1], R) = C([0, 1], R). Calculons la distance entre ces deux fonctions f et g : on a
δ
Si une suite de fonctions (fn ) ⊂ Cb (X, R) converge vers f ∈ Cb (X, R), c’est à dire fn → f ,
on dit que (fn ) converge uniformément vers f . Plus explicitement, cela signifie que
Exemple 7.4. Soit X = [0, 1] et fn (x) = ex/n . Pour tout x ∈ [0, 1], fn (x) → 1. Soit f la fonction
constante égal à 1. On a, pour tout x ∈ [0, 1], |fn (x) − f (x)| = |ex/n − 1| ≤ e1/n − 1. Donc
supx∈[0,1] |fn (x) − f (x)| ≤ e1/n − 1 → 0. On conclut que δ(fn , f ) → 0.
Observons que, parfois, l’on a limn→+∞ fn (x) = f (x) pour tout x ∈ X (autrement dit, on a
convergence simple de (fn ) vers f ) sans qu’il y ait convergence uniforme.
Proposition 7.6.
1. La limite uniforme de fonctions continues et bornées est continue et bornée : autrement
δ
dit, si (fn ) ⊂ Cb (X, R) et f : X → R est telle que fn → f , alors f ∈ Cb (X, R).
2. Cb (X, R) est un espace métrique complet pour la distance du sup. Il s’agit donc d’un
espace de Banach.
δ
Dém. (1). Soit fn → f et x ∈ X. Pour démontrer que f est continue en x on considère > 0.
On sait alors qu’il existe n0 tel que δ(f, fn ) < /3 pour tout n ≥ n0 . On a
|f (x) − f (x0 )| ≤ |f (x) − fn (x)| + |fn (x) − fn (x0 )| + |fn (x0 ) − f (x0 )|
≤ 2δ(f, fn ) + |fn (x) − fn (x0 )|
≤ 2/3 + |fn (x) − fn (x0 )|.
En appliquant l’inégalité ci-dessus avec n = n0 et le fait que fn0 est continue en x, on trouve
qu’il existe η > 0 tel que, si d(x, x0 ) < η, alors δ(f, fn ) < /3 et donc |f (x) − f (x0 )| < . Ceci
assure que f : X → R est bien continue.
De plus, en appliquant la définition de convergence avec = 1, on voit qu’il existe n0 ∈ N
tel que
puisque fn0 est une fonction bornée et donc f est elle même bornée.
(2). Si (fn ) est une suite de Cauchy dans Cb (X, R), alors, pour tout x ∈ X, (fn (x)) est une
suite de Cauchy dans R. On pose f (x) = limn→∞ fn (x). Soit > 0. Il existe un n0 tel que, si
n, m ≥ n0 , alors δ(fn , fm ) < /2. Pour tout x ∈ X, on a donc alors |fn (x) − fm (x)| < /2 si
n ≥ n0 . Passons à la limite dans cette inégalité pour m → +∞. Ceci donne |fn (x) − f (x)| ≤ /2
δ
pour n ≥ n0 . Mais alors δ(fn , f ) ≤ /2 < pour n ≥ n0 . Il s’ensuit fn → f .
28
Comme application immédiate de la proposition précédente (avec X = [a, b]), nous avons
que l’ensemble C([a, b], R) des applications continues sur un intervalle [a, b] et à valeurs réelles
est complet pour la distance du sup.
Une autre application intéressante est fournie par la proposition suivante.
Proposition 7.7. On désigne avec `∞ l’espace vectoriel de toutes les suites réelles bornées :
`∞ = {x = (xn ) ⊂ R ; (xn ) bornée}. On munit `∞ de la norme kxk∞ = supn∈N |xn |. Alors `∞
est un espace de Banach pour la distance induite de la norme k · k∞ .
Dém. On a `∞ = Cb (N, R) : en effet, on peut voir une suite (bornée) comme une fonction
: N → R (bornée) et réciproquement. D’autre part, toute fonction : N → R est continue (il
suffit d’appliquer la définition de continuité avec < 1/2 pour s’en convaincre). Mais alors le
résultat de cette proposition est une conséquence immédiate de celle de la proposition précédente
avec X = N.
Dém. a) Soit 0 < k < 1 tel que f soit k-lipschitzienne. Montrons que f a au plus un point
fixe : si, par l’absurde, a et b sont des points fixes et a 6= b, on aboutit à la contradiction
0 < d(a, b) = d(f (a), f (b)) ≤ kd(a, b) < d(a, b).
L’existence de a suit de b) : si la suite (xn ) converge et si a est tel que xn → a, alors xn+1 =
f (xn ) → f (a) (puisque toute fonction lipschitzienne est continue), d’où f (a) = a.
b) On a, pour tout n, d(xn+1 , xn ) ≤ k n d(x1 , x0 ) (par récurrence sur n). Par conséquent, si
m ≥ n, alors
kn
(1) d(xm , xn ) ≤ d(xn , xn+1 ) + d(xn+1 , xn+2 ) + . . . + d(xm−1 , xm ) ≤ d(x1 , x0 ) = Ck n .
1−k
Comme Ck n → 0, pour tout > 0 il existe un n0 tel que Ck n < si n ≥ n0 . Il s’ensuit que
d(xm , xn ) < si m, n ≥ n0 . La suite (xn ) étant de Cauchy, elle converge vers un a ∈ X. De ce
qui précède, a est l’unique point fixe de f .
29
8 Équations différentielles linéaires
8.1 Fonctions vectorielles et matricielles
Introduisons quelques notations. Pour x = (x1 , . . . , xn ) ∈ Rn on note dans ce chapitre |x| la
norme euclidienne de x, à savoir
Xn
|x| = ( |xi |2 )1/2 .
i=1
Cette notation est compatible avec celle de valeur absolue, lorsque n = 1. Si A ∈ Mn (R) est
une matrice réelle carrée n × n, on peut l’identifier à un vecteur de Rn×n . Il est alors cohérent
de noter, si A = (ai,j ),
Xn
|A| = ( |ai,j |2 )1/2 .
i,j=1
kf k∞ = sup |f (t)|.
t∈I
Aussi, si A ∈ Cb (I, Mn (R)) est une fonction matricielle bornée, on notera alors
cos t sin t
Exemple 8.1. Si A ∈ Cb (R, M2 (R)) est la fonction matricielle définie par A(t) = ,
√ 4 0
on a kAk∞ = 17.
Proposition 8.1.
1. Si A une matrice n × n et x ∈ Rn . Alors, |Ax| ≤ |A| |x|.
2. Si A ∈ Cb (I, Mn (R)) et f ∈ Cb (I, Rn ), alors Af ∈ Cb (I, Rn ) et kAf k∞ ≤ kAk∞ kf k∞ .
Dém. En effet, si on note Ai les vecteurs ligne de la matrice A
n
X 1/2
|Ax| = |(A1 · x, . . . , An · x)| = |Ai · x|2
i=1
n
X 1/2
≤ |Ai |2 |x|2 (Cauchy-Schwarz)
i=1
Xn 1/2
= |ai,j |2 |x| = |A| |x|.
i,j=1
Pour la seconde affirmation il suffit d’écrire, pour tout t ∈ I, |A(t)f (t)| ≤ |A(t)| |f (t)| et passer
au sup sur la variable t.
30
En appliquant à la norme euclidienne la remarque ??, on voit que si f est une fonction vectorielle
Riemann-intégrable, alors la fonction scalaire |f | l’est aussi et
Z b Z b
f ≤ |f |.
a a
où l’inconnue U : I → Rn est une fonction dérivable. Si B(t) = 0 pour tout t ∈ I on dit que
le système est homogène . Si la fonction matricielle A est indépendente de t on dit que le
système est à coefficients constants .
Il serait plus correct d’appeler affines ces systèmes différentiels, mais ce n’est pas la
terminologie couramment adoptée.
admet comme solutions (par exemple) les fonction u(t) = r cos(t) et v(t) = r sin(t), r ∈ R. Ici le
u(t)
système est de la forme vectorielle (E), avec U (t) = v(t) , A(t) = 01 −1
0 et B(t) = ( 00 ).
Un problème de Cauchy linéaire est la donnée d’un système différentiel linéaire et d’une
condition initiale : (
U 0 (t) = A(t)U (t) + B(t)
(P)
U (t0 ) = U0 .
Ici t0 ∈ I et U0 ∈ Rn est donnée.
Définition 8.2. Une équation de Volterra linéaire est une équation de la forme
Z t
U (t) = U0 + [A(s)U (s) + B(s)] ds, t ∈ I. (V)
t0
Il est parfois utile de ramener l’étude d’un problème de Cauchy à une équation intégrale.
Ceci est toujours possible, puisqu’un problème de Cauchy est équivalent à l’équation de Volterra
correspondante :
31
Proposition 8.2. Soit I un intervalle et t0 ∈ I. Soit U0 ∈ Rn . Alors
1 n
U ∈ C (I, R )
U ∈ C(I, Rn )
0
U (t) = A(t)u(t) + B(t) ∀t ∈ I ⇐⇒
Z t
U (t) = U 0 + [A(s)U (s) + B(s)] ds ∀t ∈ I.
U (t0 ) = U0
t0
Dém. Pour l’implication ⇒ il suffit d’intégrer terme-à-terme l’équation différentielle. Pour l’im-
plication ⇐, on observe d’abord que s 7→ A(s)U (s) + B(s) est une application continue, donc sa
fonction intégrale est de classe C 1 . Mais alors U est de classe C 1 et la conclusion s’obtient en
dérivant terme-à-terme.
Φ : C(I, Rn ) → C(I, Rn ),
En conclusion
1 n
U ∈ C (I, R )
(
U ∈ C(I, Rn )
U 0 (t) = A(t)u(t) + B(t) ∀t ∈ I ⇐⇒
U = Φ(U ) (c’est à dire, U point fixe pour Φ).
U (t0 ) = U0
Lemme 8.3. Soit a < b et I = [a, b]. Sous les hypothèses précédentes sur A et B, pour tout
U, V ∈ C(I, Rn ),
kΦ(U ) − Φ(V )k∞ ≤ |b − a| kAk∞ kU − V k∞ .
Dém. En effet, pour tout t ∈ [a, b],
Z t
|Φ(U )(t) − Φ(V )(t)| ≤ |A(s)| |U (s) − V (s)| ds ≤ |b − a| kAk∞ kU − V k∞ .
t0
En particulier, grâce au théorème des contractions nous pouvons déjà établir le résultat
suivant. (Nous ferons mieux un peu plus loin).
Corollaire 8.4. Soit a < b et t0 ∈ [a, b]. Supposons A ∈ C([a, b], Mn (R)) et B ∈ C([a, b], Rn ).
On suppose |b − a| kAk∞ < 1. Le problème de Cauchy linéaire
(
U 0 (t) = A(t)U (t) + B(t),
(P)
U (t0 ) = U0
32
Proposition 8.5. Si ~v et w
~ sont deux solutions définies sur I d’un même problème de Cauchy
(P), alors ~v = w.
~
Dém. Si ~v et w~ sont deux solutions du même problème de Cauchy linéaire (P), définies sur un
intervalle I (compact ou non), alors le corollaire précédent garantit que ~v et w ~ coı̈ncident au
moins sur un petit intervalle centré en t0 . Montrons qu’en réalité ~v et w
~ coı̈ncident sur tout
l’intervalle I.
Posons
t1 = sup{t ≥ t0 , t ∈ I : ~v (t) = w(t)}.
~
On doit avoir t1 = sup I. En effet, si t1 < sup I, alors ~v (t1 ) = w(t ~ 1 ) =: U1 par la continuité
de ~v et w.
~ Donc par l’unicité du problème de Cauchy (P) avec condition initiale U (t1 ) = U1 ,
sur un petit intervalle de type [t1 − δ, t1 + δ], nous avons que ~v et w ~ coı̈ncident sur [t0 , t1 + δ].
~ coı̈ncident pour t ≥ t0 . On
C’est absurde, puisque cela contredit la définition de t1 . Ainsi ~v et w
prouve de même qu’elles coı̈ncident pour t ≤ t0 .
Prolongement des solution. Traitons le cas d’un intervalle I général (éventuellement illi-
mité) et considérons le problème de Cauchy (P). On se propose de prolonger la solution (définie
a priori seulement dans un petit intervalle centré en t0 , à une solution définie globalement sur
I. Détaillons d’abord le problème du prolongement à droite .
Considérons l’intervalle J ⊂ I défini par
J = λ ∈ I tels qu’il existe Uλ : [t0 , λ] → Rn solution de (P) sur [t0 , λ]
Soit
λ∗ = sup J
Démontrons que λ∗ = sup I. Par contradiction, supposons que λ∗ < sup I. Il existe b tel que
t0 < λ∗ < b < sup I. (Le fait que t0 < λ∗ est une conséquence du Corollaire 8.4). Soit δ > 0 tel
que
2δ sup |A(t)|∞ < 1.
t∈[t0 ,b]
La solution de (P) Uλ∗ −δ , définie sur [t0 , λ∗ −
δ], est unique. Considérons alors le problème de
Cauchy (
U 0 (t) = A(t)U (t) + B(t)
U (λ∗ − δ) = Uλ∗ −δ (λ∗ − δ).
D’après le corollaire, ce problème possède une solution Û qui est définie, au moins, sur l’intervalle
[λ∗ − δ, λ∗ + δ] ∩ I. Nous pouvons utiliser cette solution Û pour prolonger la solution Uλ∗ −δ du
problème (P) à droite, au delà de l’instant λ∗ . Mais, par définition de λ∗ , aucune solution de
(P) n’est prolongeable au delà de λ∗ . C’est absurde, donc λ∗ = sup I.
Le prolongement à gauche se fait de la même manière. En conclusion, il existe une solution
du problème (P) qui est définie sur I tout entier.
Nous avons alors démontré le théorème suivant.
Théorème 8.6. Si I est un intervalle arbitraire et A ∈ C(I, Mn (R)), B ∈ C(I, Rn ), alors le
problème de Cauchy linéaire (P) possède une et une seule solution u ∈ C(I, Rn ).
Exemple 8.3. Soit f, g : R → R continues. Le problème de Cauchy linéaire
u0 (t) = ln(1 + t) u(t) + v(t) + f (t)
v 0 (y) = et u(t) + 1 v(t) + g(t)
t−2
u(0) = u 0
v(0) = v
0
33
Trajectoires et courbes intégrales
Définition 8.3 (Trajectoires). Si ~v : I → Rn est une solution du système différentiel linéaire (E),
l’ensemble de Rn {~v (t) : Rn : t ∈ I} est dite trajectoire du système.
Par exemple, pour le système différentiel de l’exemple 8.2, les cercles de rayon r > 0 sont
des trajectoires su systèmes.
L’unicité des solutions implique que deux trajectoires distinctes ne s’intersectent pas. Dans
le cas n = 1, pour visualiser la dynamique d’une équation différentielle scalaire, plutôt que
de dessiner les ensembles {v(t) : t ∈ I} (qui ne seraient que des intervalles de R), on préfère
représenter dans R2 , les graphes des fonctions t 7→ v(t). Ces graphes, où v : I → R est une
solution de l’équation différentielle, sont appelés courbes intégrales .
- Si v est une solution de (E), et u est une solution du système homogène associé, alors
v + U est aussi une solution de (E).
Donc :
La solution générale de (E) est donnée par la solution générale de (H) plus une solution
particuliere de (H)
Théorème 8.7. Soit A ∈ C(I, Mn (R)). La solution générale du système différentiel linéaire
homogène
U 0 (t) = A(t)u(t), t∈I (H)
est un espace vectoriel de dimension n.
Dém. Si w et w sont deux solutions et λ ∈ R, alors (v + λw)0 = v 0 (t) + λw0 (t) = A(t)(v + λw)(t).
Donc v + λw est solution. Ceci montre que la solution générale est bien un espace vectoriel.
Soit {e1 , . . . , en } la base canonique de Rn , où e1 = (1, 0, . . .), . . ., en = (0, . . . , 0, 1). Considérons
les problemes de Cauchy
(
U 0 (t) = A(t)U (t)
(k = 1, . . . , n). (Pk )
U (t0 ) = ek
Pour tout k = 1, . . . , n, le problème (Pk ) possède une et une solution ~vk . Montrons que {~v1 , . . . , ~vn }
forme une base de l’espace des solutions.
34
Les solutions ~v1 , . . . , ~vn sont linéairement indépendantes, puisque
n
X n
X n
X
λk~vk = 0 ⇒ λk~vk (t0 ) = 0Rn ⇒ λk ek = 0Rn ⇒ λ1 = · · · = λn = 0.
k=1 k=1 k=1
En effet, les deux membres à gauche et droite sont solutions sur I du même problème de Cauchy
(
U 0 (t) = A(t)U (t),
U (t0 ) = U0
Proposition 8.8. Soit A ∈ Mn (R) une matrice. Considérons le système différentiel homogène
à coefficients constants
U 0 (t) = AU (t).
Si ~v ∈ Rn est un vecteur propre de A et λ la valeur propre correspondante, alors la fonction
t 7→ eλt~v
est une solution du système différentiel. En particulier, si A diagonalisable sur R, A admet une
base de vecteurs propres ~vi ∈ Rn (i = 1, . . . , n). Une base de l’espace des solutions est donnée
par les fonctions
t 7→ eλi t~vi , i = 1, . . . , n,
où λi est la valeur propre associée au vecteur propre ~vi .
Dém. En effet
(eλt~v )0 = eλt λ~v = eλt A~v = A(eλt~v ).
35
Exemple 8.5. Soit le système différentiel
1 4 −4
U 0 (t) = 3 2 −4 U (t).
3 −3 1
Les valeurs propres sont λ1 = 1, λ2 = −2 et λ3 = 5 et les vecteurs propres
1 0 1
~v1 = 1 ,
~v2 = 1 ,
~v3 = 1 .
1 1 0
La solution générale du système différentiel est alors
t 5t
e 0 e
t 7→ a et + b e−2t + c e5t , a, b, c ∈ R.
et e−2t 0
Exponentiel d’une matrice carrée. L’espace Mn (R) est un espace de Banach pour la
norme euclidienne
P de matrice A 7→ |A| définie dans la section 8.1.
P Par conséquent, toute série de
matrices Ak normalement convergente (c’est à dire telleP∞ que |Ak | converge) est convergente :
il existe alors une matrice S ∈ Mn (R) telle que S = k=0 Ak .
P |A|k
Considérons maintenant une matrice A. La séries k! étant convergente, nous pouvons
définir une nouvelle matrice
∞
X Ak
exp(A) := ∈ Mn (R)
k!
k=0
Ici A0
désigne la matrice identité.
Exemple 8.6. Si A = 00 ab , b 6= 0, on calcule par récurrence, pour k ≥ 1, Ak = 0 abk−1
0 bk
. Mais
P∞ bk b
k=0 k! = e . Donc
0 a + ab eb
exp(A) = .
0 eb
Des algorithmes d’algèbre linéaire (diagonalisation, décomposition de Dunford, etc.) permettent
de calculer, un peu laborieusement, l’exponentiel d’une matrice réelle n × n.
Théorème 8.9. L’unique solution du problème de Cauchy linéaire homogène à coefficients
constants (
U 0 (t) = AU (t)
U (0) = U0
est la fonction t 7→ exp(tA)U0 .
tk Ak
Dém. Considérons la fonction matricielle t 7→ exp(tA) = ∞
P
k=0 k! . Le théorème de dérivation
d’une série, établi pour le fonctions scalaires (Theorème ??) reste vrai pour les fonctions matri-
cielles. Mais alors,
∞ ∞
d X tk−1 Ak X tk−1 Ak
exp(tA) = k = = A exp(tA).
dt k! (k − 1)!
k=0 k=1
Observons maintenant que (c’est un cas particulier de (8.1)) :
d
exp(tA)U0 = A exp(tA)U0 .
dt
Donc u(t) := exp(tA)u0 vérifie l’équation différentielle. De plus on a clairement
U (0) = IU0 = U0 .
36
8.4 Systèmes différentiels triangulaires
Commençons par traiter le cas des fonctions u : I → R scalaires. La théorie précédente
s’applique, mais on peut aussi facilement expliciter les solutions.
u0 + a(t)u = 0. (H1)
Soit A(t) une primitive sur I de a(t). En multipliant cette équation par eA(t) on trouve
(eA(t) u)0 = 0. Donc eA(t)u = c est constante sur I. Mais alors, la solution générale de
l’équation homogène (H1) est u(t) = ce−A(t) . Pour trouver une solution particulière
de l’équation (E1), on peut faire appel à la méthode de variations des constantes : il
s’agit de chercher une solution de (E1) parmi les fonctions de la forme
u(t) = c(t)e−A(t) .
Un petit calcul montre qu’il faut que c0 (t) = b(t)eA(t) . En conclusion, la solution
générale de l’équation (E1) est
où Z Z
A(t)
c(t) = b(t)e dt, A(t) = a(t) dt, et c ∈ R.
u0 + u/t = et
(t − 1)et 1
u(t) = +c , c ∈ R.
t t
Exemple 8.8. La formule précédente permet de trouver la solution générale de systèmes
différentiels triangulaires d’ordre n (c’est-à-dire associée à une matrice A(t) triangulaire). Par
exemple, (
u0 (t) = a(t)u(t) + b(t)
v 0 (t) = c(t)u(t) + d(t)v(t) + e(t)
En effet, on commence par résoudre l’équation différentielle linéire scalaire pour u et après
substitution dans la deuxième équation on obtient une autre équation différentielle linéaire
scalaire pour v.
37
8.5.1 Cas général. Coefficients variables
Définition 8.5. Soient a0 (t), a1 (t), . . . ak−1 (t) et b(t) des fonctions continues sur un intervalle
I ⊂ R. Une équation différentielle linéaire est une équation de la forme
u(k) + ak−1 (t)u(k−1) + · · · + a1 (t)u0 + a0 (t)u = b(t), t ∈ I. (8.2)
Si le terme à droite vérifie b(t) ≡ 0 sur I, alors l’équation est dite homogène. L’ensemble des
solutions est appelé solution générale .
En général, on peut réduire une équation différentielle d’ordre supérieur à un système du
premier ordre. Voici un exemple de la démarche :
Exemple 8.9. Considérons l’équation scalaire d’ordre 3
u000 (t) = 3tu00 (t) + sin t u(t) + |t|.
On introduit la fonction vectorielle U = (U1 , U2 , U3 ) := (u, u0 , u00 ). Avec ces notations on voit
que l’équation donnée équivaut au système
0
U1 = U2
U20 = U3
0
U3 (t) = 3tU3 (t) + sin tU1 (t) + |t|.
Ce système s’écrit sous la forme vectorielle
0 1 0 0
U 0 (t) = A(t)U (t) + B(t), avec A(t) = 0 0 1, B(t) = 0
sin t 0 3t |t|
En général, l’équation différentielle linéaire scalaire d’ordre k s’écrit sous la forme vectorielle
suivante :
u0 (t) = A(t)u + B(t).
Ici,
0 1 0 ··· 0
0
0 0 1 ··· 0
B(t) = ... .
A(t) = ,
···
−a0 (t) −a1 (t) · · · ··· −ak−1 (t) b(t)
Nous déduisons alors des résultats de la section précédente le théorème suivant :
Théorème 8.10. La solution générale d’une équation différentielle linéaire scalaire d’ordre k
homogène est un espace vectoriel de dimension k.
Pour une équation différentielle linéaire scalaire d’ordre k non homogène, la solution générale
sera donnée par une solution particulière plus la solution générale de l’équation différentielle
homogène associée.
38
Exemple 8.10. L’équation différentielle homogène d’ordre 2
u00 − 3u0 + 2u = 0
a pour polynôme caractéristique P (λ) = λ2 − 3λ + 2, qui possède les deux racines réelles λ1 = 1
et λ2 = 2. Observons que et et e2t sont deux solutions linéarement indépendantes de l’équation
différentielle. Donc l’équation a pour solution générale
u(t) = c1 et + c2 e2t , c1 , c2 ∈ R.
u00 − 2u0 + u = 0
eλ t , teλ t , . . . , tm−1 eλ t
39
particulière de (Ek). Pour ce faire, on peut chercher d’abord des solutions qui “ressemblent” à
la fonction f (t) ∗ . Si on n’en trouve pas, il peut être utile d’appliquer la méthode de variations
des constantes.
où f est une fonction de deux variables est non linéaire lorsque l’application u 7→ f (t, u) est
non linéaire. Nous ne présentons pas de théorie générale, et nous nous limitons à illustrer deux
exemples.
Observons qu’au voisinage de 0 la fonction u ne s’annule pas et que u0 (t)u−2 (t) = 1. Donc,
en calculant une primitive terme-à-terme u(t)−1 = −t + c, avec c = 1 à cause de la condition
initiale u(0) = 1. Mais alors u(t) = 1/(1 − t) et on voit alors que la solution explose en t = 1.
Cet exemple montre qu’en général les solutions d’une équation différentielle non-linéaire ne sont
toujours pas définies globalement sur tout l’intervalle I où la fonction t 7→ f (t, u) est définie.
Pour ce problème il n’y a pas unicité de solution. En effet, on vérifie directement que la fonction
nulle et la fonction t 7→ t3 sont deux solutions distinctes. En général la non-unicité d’un problème
de Cauchy se produit lorsque l’application u 7→ f (t, u) n’est pas lipschitzienne.
∗. Si f (t) est de la forme P (t)eλt , avec P (t) polynôme, on cherchera une solution de la forme Q(t)eλt avec Q(t)
polynôme du même degré que P (t). Si f (t) est de la forme sin(λt), ou cos(λt), on cherchera une solution de la
forme A cos t + B sin t. Cette méthode ne fonctionne pas si la solution particulière que l’on cherche de l’équation
avec second membre s’avère être une solution de l’équation homogène associée. Dans cette situation, on peut
augmenter le degré du polynôme Q.
40