Mfepoly PDF
Mfepoly PDF
MATHEMATICS FOR
ECONOMISTS
Guillaume CARLIER
Contents
I
Topology
1 Metric spaces
1.1 Basic definitions . . . . . . . . . . .
1.2 Topology of metric spaces . . . . .
1.3 Cauchy sequences, complete spaces
1.4 Compactness . . . . . . . . . . . .
1.5 Continuity . . . . . . . . . . . . . .
1.6 Banach fixed-point Theorem . . . .
1.7 Baires Theorem . . . . . . . . . . .
1.8 Set-valued maps . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Normed spaces
2.1 Basic definitions . . . . . . . . . . . . . . . .
2.2 Finite dimensional spaces . . . . . . . . . . .
2.3 Banach Spaces . . . . . . . . . . . . . . . .
2.3.1 Definitions and properties . . . . . .
2.3.2 Examples of Banach Spaces . . . . .
2.4 Hilbert Spaces . . . . . . . . . . . . . . . . .
2.5 Continuous linear and bilinear maps . . . . .
2.6 Characterization . . . . . . . . . . . . . . .
2.6.1 Spaces of linear continuous maps . .
2.6.2 Bilinear continuous maps . . . . . . .
2.6.3 A useful isomorphism . . . . . . . . .
2.6.4 Linear maps in Banach Spaces . . . .
2.7 One has to be cautious in infinite dimensions
3 Convexity
3.1 Convex sets and convex functions .
3.2 Projection on a closed convex set of
3.3 Separation of convex sets . . . . . .
3.4 The Farkas-Minkowksi Lemma . . .
5
.
a
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
9
10
14
15
20
23
24
25
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
26
26
28
29
29
30
33
36
36
38
40
42
44
45
. . . . . . . .
Hilbert space
. . . . . . . .
. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
49
49
51
54
56
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Fixed-point theorems
59
4.1 Preliminaries . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2 Brouwer, Kakutani and Schauder Theorems . . . . . . . . . . 60
4.3 Existence of Nash equilibria . . . . . . . . . . . . . . . . . . . 64
II
Differential calculus
66
. . . .
. . . .
. . . .
. . . .
matrix
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
67
67
72
73
78
79
82
.
.
.
.
.
83
83
84
86
88
91
III
Static Optimization
101
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
111
112
114
118
120
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
124
124
125
127
129
IV
Dynamic Optimization
136
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13 Calculus of variations
13.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . .
13.2 Existence . . . . . . . . . . . . . . . . . . . . . . . . .
13.3 Euler-Lagrange equations and transversality conditions
13.4 An economic example . . . . . . . . . . . . . . . . . . .
14 Optimal control
14.1 Introduction . . . . . . . . . . . . . . . . .
14.2 Controlled differential equations . . . . . .
14.3 Pontryagins principle . . . . . . . . . . . .
14.4 Dynamic Programming and HJB equations
14.5 Hamilton-Jacobi-Bellman equations . . . .
14.6 Feedback control and sufficient condition .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
137
137
137
139
139
140
141
143
144
144
146
147
147
149
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
150
. 150
. 151
. 152
. 154
.
.
.
.
.
.
156
. 156
. 156
. 158
. 164
. 164
. 166
Part I
Topology
Chapter 1
Metric spaces
1.1
Basic definitions
D
efinition 1.1 Soit E un ensemble non vide. On appelle distance sur E
toute application d : E E R+ verifiant les proprietes:
1. (symetrie) d(x, y) = d(y, x) pour tout (x, y) E E,
2. d(x, y) = 0 x = y
3. (inegalite triangulaire) d(x, z) d(x, y) + d(y, z) pour tout (x, y, z)
E E E.
On appelle espace metrique la donnee dun couple (E, d) o`
u d est une distance
sur E.
Bien noter que dans la definition precedente on a d 0. Noter egalement
que la definition precedente implique aussi |d(x, z) d(y, z)| d(x, y), pour
tout (x, y, z) E E E.
Exemple 1.1 Pour E = R, d(x, y) := |x y| est la distance usuelle. Pour
E = Rn , x = (x1 , ..., xn ) et y = (y1 , ..., yn ) on consid`ere souvent les distances:
d1 (x, y) :=
n
X
i=1
et la distance euclidienne:
d2 (x, y) := (
n
X
i=1
(xi yi )2 ) 2 .
1.2
10
Autrement dit, un ensemble est ouvert ssi il est voisinage de chacun de ses
points. Lensemble des ouverts de (E, d) sappelle la topologie de E induite
par la distance d. On verifie aisement quune boule ouverte (resp. fermee)
est ouverte (resp. fermee).
Proposition 1.1 Soit (E, d) un espace metrique, on a alors:
1. E et sont ouverts,
2. une reunion (quelconque) douverts est ouverte,
3. une intersection FINIE douverts est ouverte.
La demonstration est elementaire et laissee au lecteur qui sentraienera
ainsi a` se familiariser avec les definitions...
Par passage au complementaire, on obtient les enonces correspondant aux
fermes:
1. E et sont fermes,
2. une reunion FINIE de fermes est fermee,
3. une intersection (quelconque) de fermes est fermee.
Exemple 1.3 Il est a
` noter limportance du mot FINIE dans les enonces
precedents. En effet, soit pour n N , lintervalle ouvert In :=] 1/n, 1/n[,
lintersection de ces ouverts est {0} qui nest pas ouverte. La reunion des
intervalles fermes Jn := [0, 1 1/n] est lintervalle [0, 1[ qui nest ni ouvert
ni ferme.
D
efinition 1.4 Soit (E, d) un espace metrique, A une partie de E et x E
on dit que:
` A ssi r > 0 tel que B(x, r) A (autrement
1. x est un point interieur a
dit A est un voisinage de x),
2. x est un point adherent a
` A ssi r > 0, B(x, r) rencontre A.
3. x est un point fronti`ere de A ssi r > 0, B(x, r) rencontre A et E \ A.
On appelle interieur de A et lon note int(A) lensemble des points interieurs
de A. On appelle adherence de A et lon note A, lensemble des points
adherents a
` A. On appelle fronti`ere de A et lon note A lensemble des
points fronti`ere de A. Enfin on dit que A est dense dans E ssi A = E.
11
1.3
D
efinition 1.6 Soit (E, d) un espace metrique et (xn )n une suite delements
de E, on dit que (xn )n est de Cauchy ssi: > 0, N N t.q. pour tout
(p, q) N2 avec p N et q N on a: d(xp , xq ) .
La definition precedente peut aussi sexprimer en disant que (xn )n est de
Cauchy ssi
sup d(xp , xq ) 0 quand N +.
pN, qN
1.4
Compactness
D
efinition 1.10 On dit que lespace metrique (E, d) est compact ssi toute
suite delements de E admet une sous-suite convergente. On dit quune partie
A de lespace metrique (E, d) est compacte ssi toute suite delements de A
admet une sous-suite convergente dans A.
Proposition 1.6 Soit (E, d) un espace metrique. Si A est une partie compacte de E alors A est fermee et borne.
Preuve:
Soit (xn )n AN une suite convergente, notons x E sa limite. Comme
A est compacte, (xn )n admet une sous suite qui converge dans A, une telle
sous-suite converge necessairement vers x (sen persuader...) do`
u x A ce
qui montre que A est fermee.
Supposons que A ne soit pas bornee on a alors diam(A) = + et donc il
existe deux suites (xn ) AN , et (yn ) AN telles que
lim d(xn , yn ) = +.
n
(1.1)
Comme A est compacte on peut trouver des sous suites (x(n) ) et (y(n) )
convergeant respectivement vers les elements x et y de A, on a donc
d(x(n) , y(n) ) d(x(n) , x) + d(x, y) + d(y, y(n) ) d(x, y)
ce qui contredit (1.1).
2
Attention: un ferme borne nest pas necessairement compact, nous aurons
loccasion de revenir sur ce point.
Les parties compactes dun metrique compact sont faciles a` caracteriser
puisque:
Proposition 1.7 Soit (E, d) un espace metrique compact et A une partie de
E alors A est une partie compacte de E ssi A est ferme dans E.
Preuve:
Si A est compacte alors A est fermee dans E dapr`es la proposition precedente.
Supposons A fermee et soit (xn ) AN , par compacite de E, (xn ) admet une
sous-suite qui converge vers une limite x E, A etant ferme x A et donc
la sous suite converge aussi vers x dans A ce qui prouve que A est compacte.
2
Notons que la notion de compacite est plus forte que celle de completude:
Proposition 1.8 Tout espace metrique compact est complet.
16
Preuve:
Soit (E, d) un espace metrique compact et (xn )n une suite de Cauchy dans E.
Comme E est compact, (xn ) admet une valeur dadherence x E. Montrons
que (xn ) converge vers x: soit > 0 , comme la suite est de Cauchy, il existe
N1 tq pour tous entiers p, q N1 on a: d(xp , xq ) /2. Comme x est valeur
dadherence, il existe N2 N1 tel que d(xN2 , x) /2. Ainsi pour tout
p N2 on a: d(xp , x) d(xp , xN2 ) + d(xN2 , x) . Ce qui montre que (xn )
converge vers x et donc que (E, d) est complet.
2
Bien noter que la reciproque est fausse: R est complet mais pas compact
(car non borne!). Remarquons aussi au passage que dans la demonstration
precedente nous avons etabli le resultat:
Lemme 1.1 Soit (E, d) un espace metrique et (xn )n une suite d elements
de E alors (xn )n converge ssi (xn )n est de Cauchy et admet une valeur
dadherence.
Th
eor`
eme 1.1 Dans R muni de sa distance usuelle, tout ferme borne est
compact.
Preuve:
Soit F un ferme borne de R, puisque F est borne, F est inclus dans un
segment [a, b] de R, sans perte de generalite, nous pouvons supposer que
F [0, 1]. Soit (xn )n F N [0, 1]N , on va montrer que (xn ) admet une
sous-suite qui est de Cauchy en procedant comme suit. Pour tout p N , on
decompose [0, 1] en 2p segments de longueur 2p :
[0, 1] =
p 1
2[
k=0
Pour p = 1 lun des deux intervalles I11 et I21 que lon notera J1 est tel que
lensemble {n N : xn J1 } est infini. On ecrit ensuite
[
Ik2
J1 =
k{0,..,4} : Ik2 J1
et comme precedemment k {0, ..., 4} tq lun des intervalles I12 , ..., I42 que
lon notera J2 verifie:
J2 J1 , et lensemble {n N t.q. xn J2 } est infini.
On construit ainsi par recurrence une suite decroissantes dintervalles fermes
J1 J2 .... Jp tel que Jp est de longueur 2p et pour tout p, lensemble
{n N : xn Jp } est infini.
17
1.5
Continuity
D
efinition 1.11 Soit (E1 , d1 ) et (E2 , d2 ) deux espaces metriques, f une application de E1 dans E2 et x E1 . On dit que f est continue en x ssi > 0,
> 0 t.q. d1 (x, y) d2 (f (x), f (y)) . On dit que f est continue sur
E1 ssi f est continue en chacun de ses points.
Exemple 1.7 Soit (E, d) un espace metrique, x0 E et definissons x E,
f (x) := d(x, x0 ). On a alors |f (x) f (y)| d(x, y) et donc (en prenant
simplement = dans la definition precedente) f est continue sur E.
Proposition 1.11 Soit (E1 , d1 ) et (E2 , d2 ) deux espaces metriques, f une
application de E1 dans E2 . Alors les assertions suivantes sont equivalentes:
1. f est continue sur E1 ,
2. pour tout ouvert O de E2 , f 1 (O) est un ouvert de E1 ,
3. pour tout ferme F de E2 , f 1 (F ) est un ferme de E1 ,
4. pour toute suite (xn ) delements de E1 on a:
lim xn = x dans E1 lim f (xn ) = f (x) dans E2 .
n
Preuve:
On va montrer 1) 2) 3) 4) 1).
1) 2): soit O un ouvert de E2 , x f 1 (O) et y := f (x) O, comme
O est ouvert, > 0 tq B(y, ) O. Par continuite de f en x, > 0 tq
pour tout x0 E1 , x0 B(x, ) f (x0 ) B(f (x), ) = B(y, ) O, ainsi
B(x, ) f 1 (O) donc f 1 (O) est un voisinage de x, comme x est un point
arbitraire de f 1 (O) on en deduit que f 1 (O) est ouvert.
2) 3): (par passage au complementaire), soit F ferme de E2 , et soit O
louvert O := E2 \F , dapr`es 2), f 1 (O) est ouvert mais f 1 (O) = E1 \f 1 (F )
donc f 1 (F ) = E1 \ f 1 (O), ainsi f 1 (F ) est ferme.
3) 4): soit (xn ) E N une suite convergente de limite x E1 et
supposons par labsurde que f (xn ) ne converge pas vers f (x). Alors > 0
tq N N, nN N tq
d2 (f (xnN ), f (x)) .
(1.2)
Posons F := E2 \ B(f (x), ), F est ferme (complementaire dune boule ouverte) et donc par 3), f 1 (F ) est ferme. Notons que (1.2) signifie que xnN
20
|x|+
21
Exercice 1.9 Soit A une partie compacte dun espace metrique (E, d), on
definit:
dA (x) := inf{d(x, a), a A}.
Montrer que linf precedent est atteint. Montrer que dA (.) est continue sur
E.
D
efinition 1.12 Soit (E1 , d1 ) et (E2 , d2 ) deux espaces metriques, f une application de E1 dans E2 . On dit que f est uniformement continue sur E1 ssi
> 0, > 0 t.q. pour tout (x, y) E12 , d1 (x, y) d2 (f (x), f (y)) .
Attention: il convient de bien distinguer la definition precedente de celle
de continuite (dans la definition de la continuite en un point, depend de
et du point considere, alors que dans la definition de luniforme continuite
ne depend que de , cest precisement pour cela que lon parle duniformite).
Exercice 1.10 Trouvez une fonction de R dans lui meme qui soit uniformement
continue. Trouvez une fonction de R dans lui meme qui soit continue et non
uniformement continue.
Rappelons la definition des applications Lipschitziennes:
D
efinition 1.13 Soit (E1 , d1 ) et (E2 , d2 ) deux espaces metriques, f une application de E1 dans E2 et k R+ . On dit que f est k-Lipschitzienne (ou Lipschitzienne de rapport k) ssi pour tout (x, y) E1 E1 on a d2 (f (x), f (y))
kd1 (x, y). On dit enfin que f est Lipschitzienne ssi k 0 tel que f soit
k-Lipschitzienne.
Exercice 1.11 Soit (E, d) un espace metrique. Montrer que:
1. Pour tout x0 E, lapplication x 7 d(x, x0 ) est 1-Lipschitzienne.
2. Pour toute partie non vide A de E lapplication
x 7 dA (x) := inf{d(x, a), a A}
est 1-Lipschitzienne.
Exercice 1.12 Montrer que les applications lipschitziennes de (E 1 , d1 ) dans
(E2 , d2 ) sont uniformement continues. Trouver une application uniformement
continue de R dans R qui nest pas Lipschitzienne.
Exercice 1.13 Montrer quune fonction continue et periodique de R dans R
est uniformement continue.
22
1.6
Th
eor`
eme 1.3 Soit (E, d) un espace metrique complet et f une contraction
de E, cest a
` dire une application de E dans E telle quil existe k ]0, 1[ tel
que:
d(f (x), f (y)) kd(x, y), (x, y) E E.
Alors f admet un unique point fixe: il existe un unique x E tel que f (x) =
x. De plus, pour tout x0 E, si on definit par recurrence la suite xn par
xn+1 = f (xn ), pour n 0, la suite xn converge vers x quand n +.
Preuve:
On commence dabord par montrer lunicite, supposons que f admette deux
points fixes x1 et x2 . Comme f (x1 ) = x1 et f (x2 ) = x2 , on a alors d(x1 , x2 ) =
d(f (x1 ), f (x2 ) kd(x1 , x2 ) et comme k < 1, il vient d(x1 , x2 ) = 0 donc
x1 = x2 do`
u lunicite.
Montrons maintenant lexistence. Soit x0 E, definissons la suite xn
comme dans lenonce et montrons que celle-ci est de Cauchy. On commence
par remarquer que pour tout n N on a d(xn+1 , xn ) = d(f (xn ), f (xn1 ))
kd(xn , xn1 ) en iterant largument on a donc aussi:
d(xn+1 , xn ) k n d(x1 , x0 )
23
(1.3)
Pour q p N on a donc:
d(xp , xq ) d(xp , xp+1 ) + ... + d(xq1 , xq ) d(x1 , x0 )(k p + .... + k q1 )
kN
d(x1 , x0 )
1k
comme k ]0, 1[, k N tend vers 0 quand N +, linegalite precedente
implique donc que (xn ) est de Cauchy et donc admet une limite x dans E
puisque (E, d) est complet. On verifie aisement que f est continue donc
xn+1 = f (xn ) converge vers f (x) on a donc x = f (x). 2
Il faut bien retenir que le theor`eme precedent indique tr`es simplement
comment trouver le point fixe dune contraction f : on part de x0 ARBITRAIRE (cest assez remarquable) et on calcule les iterees x1 = f (x0 ),
x2 = f (x1 )... cette suite converge vers le point fixe de f (noter aussi que
la vitesse de convergence est geometrique: d(x, xn ) k n d(x, x0 )).
Noter que dans le theor`eme precedent lhypoth`ese de contraction (k < 1)
est fondamentale. Pour sen convaincre considerer f (x) = x + 1 dans R...
1.7
Baires Theorem
1.8
Set-valued maps
D
efinition 1.14 Soit X et Y deux espaces metriques et soit F une correspondance a
` valeurs compactes non vides de X dans Y , et soit x X on
dit que:
1. F est hemi-continue superieurement (h.c.s.) en x si pour toute suite
xn convergeant vers x dans X et pour toute suite yn F (xn ), la suite
yn admet une valeur dadherence dans F (x).
2. F est hemi-continue inferieurement (h.c.i.) en x si pour tout y F (x)
et pour toute suite xn convergeant vers x dans X, il existe yn F (xn )
telle que yn converge vers y dans Y .
3. F est continue si F hemi-continue superieurement et inferieurement
en chaque point de X.
Dans le cas o`
u X et Y sont des metriques compacts, dire que F est h.c.s.
revient simplement a` dire que son graphe:
graph(F ) := {(x, y) : x X, y F (x) }
est ferme. Noter que dans ce cas F est automatiquement a` valeurs compactes.
Remarquons que dans le cas univoque i.e. F (x) = {f (x)} on a equivalence
entre F est h.c.s., F est h.c.i et f est continue. Si X = Y = R et
F (x) = [f (x), g(x)] avec f et g deux fonctions continues telles que f g alors
F est une correspondance continue. Pour fixer les idees, il est bon davoir en
memoire les exemples suivants:
La correspondance F de R dans R definie par:
si x < 0
0
F (x) =
[0, 1] si x = 0
1
si x > 0
est h.c.s. mais pas h.c.i. en 0.
La correspondance G de R dans R definie par:
0
si x 0
G(x) =
[1, 1] si x > 0
est quant a` elle h.c.i. mais pas h.c.s. en 0.
25
Chapter 2
Normed spaces
2.1
Basic definitions
D
efinition 2.1 Soit E un R-espace vectoriel, on appelle norme sur E toute
application : k.k: E R+ verifiant:
1. kxk = 0 x = 0,
2. kx + yk kxk + kyk, (x, y) E 2 ,
3. kxk = ||kxk , (, x) R E.
On appelle espace vectoriel norme (evn) la donnee dun couple (E, k.k)
avec E un espace vectoriel reel et k.k une norme sur E.
Une norme definit une distance sur E (et donc une topologie, des fermes,
des compacts...) donnee par:
d(x, y) := kx yk, (x, y) E 2 .
Bien noter ici que les evn ne sont quun cas particulier des espaces metriques
etudies au chapitre precedent. En particulier une norme definit une distance
mais une distance nest pas necessairement associee a` une norme (prendre
lexemple de la distance grossi`ere).
Notons aussi que kxk = k xk et |kxk kyk| kx yk.
Exemple 2.1 Pour E = Rn , nous avons deja rencontre les normes:
kxk := max(|x1 |, .., |xn |), kxk1 :=
n
X
i=1
26
|xi |, kxk2 := (
n
X
i=1
|xi |2 )1/2
(2.1)
i=1
Exemple 2.3 E = l
D
efinition 2.2 Soit E un R-ev, k.k1 et k.k2 deux normes sur E on dit que
ces deux normes sont equivalentes ssi il existe deux constantes strictement
positives a et b telles que pour tout x E on ait:
akxk1 kxk2 bkxk1 .
La notion de normes equivalentes est importante car deux normes equivalentes
ont les memes ouverts, les memes fermes, les memes bornes, les memes compacts, les memes suites convergentes etc... autrement dit elles definissent la
meme topologie (.... et le meme calcul differentiel) .
Exemple 2.4 Sur Rn , les normes k.k1 et k.k sont equivalentes: en effet,
on a clairement pour tout x Rn , kxk1 kxk et kxk1 nkxk . Nous
verrons au paragraphe 2.2 que sur Rn , en fait, TOUTES les normes sont
equivalentes.
Exemple 2.5 Considerons sur E := C 0 ([0, 1], R) les normes k.k1 et k.k
comme dans lexemple 2.2. Il est facile de voir que pour tout f E on
a: kf k1 kf k mais ces 2 normes ne sont pas equivalentes pour autant.
En effet, considerons la suite de fonctions fn (t) := max(0, n(1 nt)), on a
kfn k = n et kfn k1 = 1/2, il ne peut donc exister de constante positive a
telle que kfn k akfn k1 pour tout n N .
27
2.2
En dimension finie, nous allons voir que toute les normes sont equivalentes, ce
qui signifie en pratique que lon peut utiliser sur Rn nimporte quelle norme
sans changer de topologie, on parle alors simplement de la topologie de Rn
sans preciser la norme.
Th
eor`
eme 2.1 Les parties compactes de (Rk , k.k ) sont ses parties fermees
bornees. En particulier toute suite bornee de (Rk , k.k ) admet une sous-suite
convergente.
Preuve:
Soit F une partie fermee bornee de Rk pour la norme k.k . Il existe alors
M > 0 telle que F B(0, M ) = [M, M ]k . Soit (xn )n F N ([M, M ]k )N ,
en vertu du theor`eme 1.1, [M, M ] est un compact de R, on peut donc
extraire une sous-suite1 (x(n) )n telle que pour i = 1, ..., k la suite des i`emes composantes (xi,(n) )n converge vers une limite xi R. Notons x =
(x1 , ..., xk ), pour tout i on a |xi,(n) xi | 0 quand n + et donc
lim kx(n) xk = 0.
n
Ainsi (xn ) converge vers x, enfin x F car F est ferme ce qui ach`eve la
preuve.
2
Th
eor`
eme 2.2 Si E est un espace vectoriel reel de dimension finie alors
toutes les normes sur E sont equivalentes.
Preuve:
Sans perte de generalite supposons E = Rn . Soit N une norme sur Rn , nous
allons montrer que N est equivalente a` la norme k.k de Rn (si toutes les
normes sont equivalentes a` une norme donnee alors par transitivite elles
sont toutes equivalentes entre elles). Soit P
(e1 , ..., en ) une base de Rn et soit
x Rn que lon ecrit dans cette base x = ni=1 xi ei , on a:
N (x) = N (
n
X
i=1
xi e i )
n
X
|xi |N (ei ) (
i=1
n
X
N (ei ))kxk
i=1
En realite, il faut effectuer plusieurs extractions successives, les details sont laisses au
lecteur...
28
2.3
2.3.1
Banach Spaces
Definitions and properties
p
X
k=q+1
29
kxk k
(2.3)
P+
k=n
Preuve:
P
Il suffit de montrer que la suite des sommes partielles Sn := kn xk est de
Cauchy, or on a pour p q:
kSp Sq k
p
X
kxk k
k=q+1
+
X
kxk k
(2.4)
k=q+1
2.3.2
Evidemment tout R-ev de dimension finie muni dune norme quelconque est
un espace de Banach:
Proposition 2.2 RN muni de nimporte quelle norme est un espace de Banach.
Preuve:
Soit (xn )n (RN )N une suite de Cauchy pour la norme k.k (le choix dune
norme nimporte pas ici puisquen dimension finie toutes les normes sont
equivalentes). Il est clair que chaque suite formee par les composantes: (x1n )n ,
..., (xN
n )n est de Cauchy dans R et comme R est complet, ces suites convergent
respectivement vers des limites x1 , ..., xN . Il est alors clair que (xn )n converge
dans RN vers x = (x1 , ..., xN ). 2
30
Exercice 2.3 Prouver que RN est complet comme suit. Soit (xn )n une suite
de Cauchy dans Rk , montrer que
1. (xn )n est bornee et admet une sous-suite convergente,
2. en deduire que (xn )n converge et conclure.
Passons maintenant a` quelques exemples despaces de Banach de dimension infinie. Soit X un ensemble, (E, k.k) un espace de Banach et B(X, E)
lensemble des applications bornees de X dans E:
B(X, E) := {f : X E tq sup kf (x)k < +}
(2.5)
xX
(2.6)
xX
(2.7)
Nous allons prouver que (fn )n converge dans (B(X, E), k.k ) en passant
par trois etapes.
Etape 1: identification dune limite ponctuelle
Soit x X (fixe), (2.7) implique en particulier que la suite (fn (x))n E N
est de Cauchy et comme (E, k.k) est un Banach, elle converge: soit f (x) sa
limite.
31
Etape 2: f B(X, E)
Dapr`es (2.7), il existe N tel que pour tout p, q N , et pour tout x X
on a:
kfp (x) fq (x)k 1.
(2.8)
Pour x X fixe, prenons p = N , faisons tendre q vers + dans (2.8), comme
fq (x) converge vers f (x) on obtient kfN (x) f (x)k 1 mais comme x X
est arbitraire dans linegalite precedente, nous obtenons:
sup kf (x) fN (x)k 1 (f fN ) B(X, E)
xX
(2.9)
Notons au passage que si (X, d) est compact alors toute application f continue de
(X, d) dans (E, k.k) est bornee puisque f (X) est compact donc borne.
32
Preuve:
Soit (fn )n une suite de Cauchy de (Cb0 (X, E), k.k ), dapr`es le theor`eme
2.4, nous savons que (fn )n converge vers une limite f B(X, E) dans
(B(X, E), k.k ), il nous suffit donc de montrer que f est continue pour pouvoir conclure.
Soit > 0 et soit N tq pour tout n N on ait:
kfn f k
(2.10)
(2.11)
Pour x B(x0 , ) on a:
kf (x) f (x0 )k kf (x) fN (x)k + kfN (x) fN (x0 )k + kfN (x0 ) f (x0 )k
kf fN k + /3 + kf fN k
(avec (2.10))
ce qui montre que f est continue en x0 .
2
Exercice 2.4 Soit (E1 , N1 ),...(EK , NK ) des espaces de Banach et soit E :=
E1 ... EK montrer que sur E:
N (x1 , .., xK ) :=
K
X
i=1
sont des normes equivalentes et que E muni dune de ces normes est un
espace de Banach.
2.4
Hilbert Spaces
D
efinition 2.5 Soit E un R-ev, on appelle produit scalaire (ps) sur E toute
application h., .i : E E R qui est:
1. bilineaire: pour tout x E (fixe) y 7 hx, yi est lineaire, et pour tout
y E (fixe) x 7 hx, yi est lineaire,
2. symetrique: hx, yi = hy, xi, (x, y) E E,
33
(2.12)
D
efinition 2.6 On appelle espace prehilbertien la donnee dun couple (E, h., .i)
avec E un R-ev et h., .i un produit scalaire sur E.
La donnee dun produit scalaire permet de definir une norme sur E, et
ce grace a` linegalite de Cauchy-Schwarz:
Proposition 2.3 Soit (E, h., .i) un espace prehilbertien.
1. pour tout (x, y) E E on a linegalite de Cauchy-Schwarz:
| hx, yi | (hx, xi)1/2 (hy, yi)1/2 .
(2.13)
34
2): Notons kxk := (hx, xi)1/2 , comme h., .i est un ps, on a kxk = 0 ssi
x = 0. La bilinearite implique clairement kxk = ||kxk. Reste a` montrer
linegalite triangulaire: soit (x, y) E E on a
kx + yk2 =kxk2 + kyk2 + 2 hx, yi
kxk2 + kyk2 + 2kxkkyk (dapr`es Cauchy-Schwarz)
=(kxk + kyk)2
ce qui ach`eve de montrer que k.k est une norme sur E. 2
Notons k.k la norme associee au ps h., .i remarquons que la connaissance
de cette norme permet de retrouver le produit scalaire par lidentite suivante (identite de polarisation):
1
hx, yi = (kx + yk2 kxk2 kyk2 ).
2
Mentionnons aussi lidentite du parallelogramme:
kx + yk2 + kx yk2 = 2(kxk2 + kyk2 ).
(2.14)
(2.15)
est un Hilbert mais C ([0, 1], R) muni de la meme structure est seulement
prehilbertien.
35
Etant donne un espace prehilbertien (H, h., i), on dit que deux vecteurs
u et v sont orthogonaux ssi hu, vi = 0. Pour A H on appelle orthogonal
de A lensemble:
A := {x H : hx, yi = 0, y A}.
On verifie sans peine que A est un sev ferme de H car intersection de sev
fermes.
2.5
Dans ce qui suit etant donnes (E, k.kE ) et (F, k.kF ) deux e.v.n, on notera
L(E, F ) (resp. Lc (E, F )) lespace vectoriel des applications lineaires (resp.
lineaires continues) de E dans F . Pour E = F , on notera simplement L(E)
(resp. Lc (E, F )) lespace vectoriel des endomorphismes (resp. endomorphismes continus) de E.
2.6
Characterization
Th
eor`
eme 2.6 Soit (E, k.kE ) et (F, k.kF ) deux e.v.n, et f L(E, F ), les
assertions suivantes sont equivalentes:
1. f Lc (E, F ),
2. f est continue en un point,
3. f est bornee sur la boule unite fermee de E, B E (0, 1),
4. il existe une constante M 0 tq kf (x)kF M kxkE x E,
5. f est Lipschitzienne sur E.
Preuve:
1) 2) est evident.
2) 3): supposons f continue en x0 E, alors r > 0 telle que pour
tout x B E (x0 , r) on ait:
kf (x) f (x0 )kF 1.
(2.16)
(2.17)
(2.18)
kf (x)kF
M kf (x)kF M kxkE .
kxkE
(2.19)
(2.20)
|f (t)|dt
1
et la norme uniforme:
kf k := max{|f (t)|, t [1, 1]}.
Soit enfin pour tout f E, T (f ) := f (0). T est clairement une forme
lineaire sur E (i.e. T L(E, R)) et pour tout f E:
|T (f )| kf k
si bien que T est continue lorsque E est muni de la norme uniforme.
Nous allons voir que T nest PAS continue lorsque E est munie de la
norme k.k1 . Pour cela, considerons la suite de fonctions:
fn (t) := max(0, n(1 n|t|)), t [1, 1], n N .
Un calcul elementaire montre que kfn k1 = 1 pour tout n et T (fn ) = n +.
Ainsi T nest pas bornee sur la boule unite fermee de (E, k.k1 ) et donc T nest
pas continue.
37
S(f ) := (
t2 f (t)dt,
f (t)dt,
et f (t)dt)
n
X
xi f (ei )kF
i=1
n
X
i=1
n
X
kf (ei )kF
i=1
2.6.1
Th
eor`
eme 2.8 Soit (E, k.kE ) et (F, k.kF ) deux e.v.n.
1. Sur Lc (E, F ) lapplication:
f 7 kf kLc (E,F ) := sup{kf (x)kF : kxkE 1}
definit une norme.
2. Si (F, k.kF ) est un espace de Banach, Lc (E, F ) muni de la norme
definie precedemment est un espace de Banach.
38
Preuve:
Lassertion 1. est evidente et sa preuve laissee au lecteur.
Soit (fn ) une suite de Cauchy de (Lc (E, F ), k.kLc (E,F ) ), soit gn la restriction de fn a` B E (0, 1). On a gn Cb0 (B E (0, 1), F ) car fn est continue et:
kgn k = kfn kLc (E,F ) .
(2.21)
(2.22)
Ceci implique que (gn ) est de Cauchy dans (Cb0 (B E (0, 1), F ), k.k), donc,
grace au theor`eme 2.5, gn converge vers une limite g dans (Cb0 (B E (0, 1), F ), k.k).
Definissons alors f par f (0) = 0 et:
f (x) = kxkg(
x
).
kxk
(2.23)
x
x
) = kxkfn (
) = fn (x) = gn (x)
kxk
kxk
Dans ce qui suit, on fera un leger abus de notation, en posant kxkgn (x/kxk) = 0 pour
x = 0.
39
(2.24)
Evidemment (2.24) est aussi verifiee par x = 0. Il faut retenir (2.24) qui
sav`ere tr`es utile dans la pratique.
Remarque.
Notons que dans le theor`eme precedent (comme dans le
theor`eme 2.5) cest lespace darrivee qui doit etre un Banach (lespace de
depart est un evn quelconque).
D
efinition 2.8 Soit (E, k.k) un R-evn, on appelle dual topologique de E et
lon note E 0 lespace vectoriel des formes lineaires continues sur E: E 0 :=
Lc (E, R)
On munit E 0 de la norme duale de la norme de E:
f E 0 , kf kE 0 := sup{|f (x)| : kxkE 1}
(2.25)
2.6.2
Pn
i=1
xi y i .
41
2.6.3
(2.26)
A useful isomorphism
Nous allons voir ici que lon peut identifier L(E, L(F, G)) (respectivement
Lc (E, Lc (F, G))) a` L2 (E F, G) (respectivement L2,c (E F, G)). Cette
identification est particuli`erement utile en calcul differentiel d`es lors que lon
consid`ere des differentielles dordre 2 ou plus.
Plus precisement, soit v L(E, L(F, G)) et definissons pour tout (x, y)
E F:
av (x, y) := (v(x))(y)
il est immediat de verifier que av est bilineaire: av L2 (E F, G). Soit alors
lapplication:
L(E, L(F, G)) L2 (E F, G)
:
v
7
av
Il est clair que est lineaire (donc si on veut absolument utiliser des notations, L(L(E, L(F, G)), L2 (E F, G))).
Soit maintenant a L2 (E F, G), alors pour tout x E, lapplication
a(x, .) appartient a` L(F, G) (a(x, .)(y) := a(x, y) pour tout y F ). Par
ailleurs par bilinearite on a pour tout (x1 , x2 , ) E 2 F :
a(x1 + x2 , .) = a(x1 , .) + a(x2 , .).
Ce qui signifie que lapplication:
E
L(F, G)
Aa :
x 7 Aa (x) := a(x, .)
42
2.6.4
In Banach spaces, there are additional properties that follow from Baires
Theorem. The first one is the Banach-Steinhaus theorem, or principle of
uniform boundedness:
Theorem 2.1 Let E be a Banach Space and F be a normed vector space
and let (fi )iI be a family of Lc (E, F ). If,
x E, sup kfi (x)kF < +
iI
then
sup kfi kLc (E,F ) < +.
iI
Proof:
Set En := {x E : kfi (x)kF n i I}, then each En is closed and by
assumption n En = E. It then follows from Baires theorem that En0 has
nonempty interior for some n0 and then there exists r > 0 and x0 E such
that
kfi (x0 + ru)kF n0 , i E, u B E (0, 1)
so that for all u B E (0, 1) and all j I, one has
1
n0 + sup kfi (x0 )kF .
kfj (u)kF
r
iI
2
Another consequence of Baires Theorem is the following open mapping
principle:
Theorem 2.2 Let E and F be two Banach Spaces and f Lc (E, F ) be
continuous and surjective. Then f is an open mapping in the sense that
f (U ) is open in F for every U open in E.
Proof:
Due to the linearity of f it is enough to prove that there exists r0 > 0 such
that BF (0, r0 ) f (BE (0, 1)). Let Fn := nf (BE (0, 1)), since f is surjective, F = n Fn and it follows from Baires Theorem that there exists n0
such that Fn0 has nonempty interior. There exists then y0 E and > 0
such that BF (y0 , ) f (BE (0, n0 )), by linearity, we also have BF (y0 , )
f (BE (0, n0 )) and then BF (0, ) = y0 + BF (y0 , ) f (BE (0, 2n0 )). By
homogeneity, we then have BF (0, r) f (BE (0, 1)) with r = /2n0 .
44
Let us now prove that BF (0, r) f (B E (0, 2)). Let y BF (0, r), there
exists x1 BE (0, 1) such that y f (x1 ) BF (0, r/2), since BF (0, r/2)
f (BE (0, 1/2)), there exists x2 BE (0, 1/2) such that y f (x1 ) f (x2 )
BF (0, r/4). Iterating the argument, we find a sequence (xn )n in E such
that kxn kE 1/2n1 and ky f (x1 + .... + xn )kF r/2n for every n.
Since x1 + .... + xn is a Cauchy sequence, it converges to some x B E (0, 2)
and by continuity y = f (x), which proves that BF (0, r) f (B E (0, 2))
f (BE (0, 5/2)) and then BF (0, r0 ) f (BE (0, 1)) with r0 = 2r/5.
2
We deduce from the previous Theorem the following automatic continuity
result due to Banach:
Theorem 2.3 Let (E, k.kE ) and (F, k.kF ) be two Banach spaces and f
Lc (E, F ), if f is invertible then f 1 Lc (F, E).
We end this section by the following useful result
Theorem 2.4 Let E be a Banach space and let f Lc (E) be such that
kf kLc (E) < 1 then id + f is invertible with
(id + f )
(1)k f k
k=0
Proof:
Since Lc (E) is a Banach Space and kf kLc (E) < 1,
Sn :=
n
X
(1)k f k
k=0
2.7
Il sagit dans ce paragraphe dattirer votre attention sur le fait que certaines
proprietes bien commodes des evn de dimension finie sont fausses en dimension infinie:
45
dans un evn de dimension infinie, un ferme borne nest pas automatiquement compact ou, ce qui revient au meme, il peut exister des suites
bornees sans sous-suite convergente,
en dimension infinie, toutes les normes ne sont pas equivalentes (je vous
renvoie a` lexemple 2.5),
en dimension infinie, le choix dune norme a de limportance: muni de
la norme uniforme C 0 ([0, 1], R) est un espace de Banach mais muni de la
norme k.k1 , il nest pas complet, comme nous allons le voir. Autrement
dit, en dimension infinie il nest pas automatique quun evn soit un
Banach.
Bref, un certain nombre de proprietes topologiques automatiques en dimension infinie (completude, compacite des fermes bornes, continuite des
applications lineaires...) sont en defaut d`es que lon passe a` la dimension
infinie.
Passons maintenant en revue quelques exemples.
Une suite born
ee sans valeur dadh
erence dans (Cb0 (R, R), k.k ):
Posons pour x R, f0 (x) := max(0, 1 |x|) et pour tout n N, fn (x) :=
f (x n). La suite (fn ) est bornee dans (Cb0 (R, R), k.k ), en effet: kfn k =
kf0 k = 1. Supposons par labsurde que la suite (fn ) admette une sous suite
(f(n) )n qui converge vers une limite f dans (Cb0 (R, R), k.k). Notons dabord
que fn = 0 sur ] , n 1] on doit donc avoir f = 0 sur ] , (n) 1]
pour tout n et donc f = 0 sur R. Mais si (f(n) ) converge vers 0 (dans
(Cb0 (R, R), k.k)), alors kf(n) k tend vers 0, ce qui est absurde puisque
kf(n) k = 1.
Une suite born
ee sans valeur dadh
erence dans (C 0 ([0, 1], R), k.k):
Soit pour tout n N et tout t [0, 1], fn (t) := t1/n . On a kfn k = 1
pour tout n. Supposons par labsurde quune sous-suite (f(n) )n converge vers
une limite f dans (C 0 ([0, 1], R), k.k). En particulier pour tout t [0, 1],
f(n) (t) converge vers f (t). Comme fn (0) = 0 pour tout n on doit alors avoir
f (0) = 0. Pour t ]0, 1], fn (t) converge vers 1 donc f (t) = 1 pour t ]0, 1]
mais avec f (0) = 0 ceci contredit la continuite supposee de f .
Une suite de Cauchy de (C 0 ([1, 1], k.k1 ) qui ne converge pas:
Pour n N et t [1, 1] definissons
1 si t [1, 1/n]
nt si t [1/n, 1/n]
fn (t) =
1
si t [1/n, 1]
46
Montrons dabord que (fn ) est de Cauchy dans (C 0 ([1, 1], k.k1 ). Pour
cela definissons la fonction (discontinue en 0):
1 si t [1, 0[
0
si t = 0
f (t) =
1
si t ]0, 1].
Un calcul immediat donne:
Z
|fn f | =
1
|fp f | +
1
1
n
(2.27)
|fq f |
1
2
N
(2.28)
47
Proof:
Let us assume that B is compact and let us prove that E is finite dimensional.
By the Bolzano-Weierstrass Theorem, since B is compact it can be covered
by finitely many balls of radius 1/2: B ki=1 B(xi , 1/2) for some x1 , ..., xk
in B. We shall prove that E = F with F the vector space spanned by
x1 , ..., xk . By homogeneity, it is enough to prove that B F . Let then
x B, there is some i0 {1, ...k} and 0 B such that x = xi0 + 0 /2.
Then there exists i1 {1, ...k} and 1 B such that 0 = xi1 + 1 /2 so that
x = xi1 + xi2 /2 + 1 /4. Iterating the argument, at step n, we can write
x = x i0 +
xi 1
xi
n
+ .... + nn + n+1 , with n B
2
2
2
for some indices il all in {1, ..., k}. Put differently, we have
x = yn +
xi
xi
n
, yn = xi0 + 1 + .... + nn F.
n+1
2
2
2
48
Chapter 3
Convexity
3.1
In what follows, E will denote a real vector space. Let us recall the basic
definitions:
Definition 3.1 A subset C of E is convex if and only for every x and y in
C and every [0, 1], x + (1 )y C.
Basic examples of convex sets are subspaces, half spaces, balls etc... Let
us also remark that intersections or convex sets are convex.
Let us remark that an intersection of convex sets is convex. Let us also
remark that C is convex iff for every P
p N , every x1 , ...., xp C p and every
1 , ...., p such that each i 0 and pi=1 i = 1 one has
p
X
i xi C.
i=1
Pp
Any vector that can be written in the form
i=1 i xi with nonnegative
weights i that sum to 1 is called a convex combination of the vectors xi .
If A is a nonempty subset of E, the intersection of all convex sets containing A is the smallest convex set containing A, it is called the convex hull
of A and denoted co(A). It is easy to check that co(A) is the set of all convex
cobinations of elements of A:
( p
)
p
X
X
co(A) =
i = 1 .
i xi , p N , xi A, i 0,
i=1
i=1
i=1
We omit the proof of this result that we give only for the sake of completeness.
Definition 3.2 Let C a convex subset of E and f : C R, then f is said
to convex iff for all x and y in C and [0, 1], one has f (x + (1 y))
f (x) + (1 )f (y). One says that f is concave if f is convex.
Note that f is a convex function iff its epigraph
Epi(f ) := {(x, ) C R : f (x) }
is a convex subset of E R.
Note also thatPf is convex in C iff for every p N , x1 , ...., xp in C and
i 0 such that pi=1 i = 1, one has:
!
p
p
X
X
i f (xi ).
f
i xi
i=1
i=1
50
3.2
Theorem 3.2 Let (H, h., .i) be a Hilbert space and C be a nonempty closed convex subset
of H. For every x H, there exists a unique element of C called projection
of x on C and denoted pC (x) s.t.:
kx pC (x)k = inf{kx yk , y C}.
Moreover pC (x) is characterized by: pC (x) C and the variational inequalities:
hx pC (x), y pC (x)i 0, y C.
(3.1)
Proof:
Let us denote d2 (x, C) the squared distance of x to C:
d2 (x, C) := inf{kx yk2 , y C}.
Let us recall the following parallelogram identity:
k
u+v 2 1
uv 2
k +k
k = (ku2 k + kvk2 ) , (u, v) H 2 .
2
2
2
(3.2)
Uniqueness
Suppose y1 and y2 belong to C and satisfy:
kx y1 k2 = kx y2 k2 = d2 (x, C).
(3.3)
(3.4)
(3.5)
(3.6)
(3.7)
(3.8)
1
1
+ 2.
2
2p
2q
(3.9)
It follows from (3.9) that (yn ) is a Cauchy sequence thus converges to some
limit denoted pC (x). Since C is closed, pC (x) C and passing to the limit
in (3.6) yields kx pC (x)k2 = d2 (x, C).
Variational characterization
Let y C and t [0, 1], since (1 t)pC (x) + ty C, we have
kx pC (x)k2 kx ((1 t)pC (x) + ty)k2 = kx pC (x) t(y pC (x))k2
= kx pC (x)k2 + t2 ky pC (x))k2 2t hx pC (x), y pC (x)i
(3.10)
Dividing by t and letting t go to 0+ we deduce that pC (x) satisfies (3.1).
Conversely, assume that z C satisfies:
hx z, y zi 0, y C.
(3.11)
52
(3.12)
(3.14)
Preuve:
Lunicite est evidente et laissee au lecteur. Si f = 0, on prend x = 0,
supposons donc f 6= 0, dans ce cas F := ker(f ) est un hyperplan ferme
de H. Soit x0 H tel que f (x0 ) = 1. En appliquant la proposition 3.2,
definissons y0 la projection orthogonale de x0 sur F , on a alors x0 6= y0
puisque x0
/ F et y0 est caracterise par:
y0 F = ker(f ), et (x0 y0 ) F .
(3.15)
(3.16)
x0 y 0
x0 y 0
=
2
kx0 y0 k
hx0 y0 , x0 i
(3.17)
Definissons alors:
x :=
3.3
Th
eor`
eme 3.2 Soit (H, h., .i un espace de Hilbert, x0 H, C un convexe ferme
tel que x0
/ C, alors il existe p H, p 6= 0 et > 0 tels que
hp, x0 i hp, yi , y C.
54
(3.18)
Preuve:
Posons K := C x0 = {y x0 , y C}, K est un convexe ferme et 0
/ K.
Soit p := pK (0) la projection de 0 sur K, comme O
/ K on a p 6= 0, par
ailleurs p verifie les inequations variationnelles:
(h0 p, z pi 0, z K) hp, zi kpk2 > 0, z K .
(3.19)
De (3.19) et K = C x0 , il vient donc:
(3.20)
2
Il faut bien comprendre geometriquement ce que signifie le theor`eme
precedent: la separation de x0 et C exprime le fait que x0 et C se situent de
part et dautre dun hyperplan affine (parall`ele a` p ) cest a` dire dans deux
demi-espaces distincts. Le theor`eme precedent est un resultat de separation
stricte (presence du > 0), autrement dit C est inclus dans le demi-espace
ouvert {x H : hp, x x0 i > /2} tandis que x0 est evidemment dans
{x H : hp, x x0 i < /2}.
Remarque. La convexite de C est une hypoth`ese fondamentale : dans R2
/ C et on ne peut pas
soit C = B((0, 0), 1) \ B((0, 1), 1/2), x0 := (0, 3/4)
separer x0 de C.
Soit A et B deux parties non vides dun ev, lensemble A B est defini
par:
A B := {a b, (a, b) A B}.
Lemme 3.1 Soit (H, h., .i) un espace de Hilbert, A et B deux parties non
vides de H. On a:
1. Si A et B sont convexes, alors A B est convexe,
2. Si A est compact et B est ferme, alors A B est ferme.
Preuve:
La preuve de lassertion 1. est immediate et laissee au lecteur. Prouvons 2.,
supposons que la suite xn = an bn ((an , bn ) AB) converge vers une limite
x. Comme A est compact, (an ) admet une sous suite (a(n) ) qui converge
vers un element a de A. On en deduit que b(n) = a(n) x(n) converge vers
a x, comme B est ferme b := a x est dans B donc x A B.
2
55
(3.21)
Preuve:
Posons D := K C, D est un convexe ferme de H dapr`es le lemme 3.1 et
0
/ D puisque K C = . En appliquant le theor`eme 3.2, on peut separer
(strictement) 0 de D et donc il existe p H, p 6= 0 et > 0 tels que
0 hp, zi , z D.
(3.22)
(3.23)
2
Remarque. Il existe des theor`emes de separation valables dans des cadres
beaucoup plus generaux que celui des espaces de Hilbert. Les ingredients de
demonstration sont cependant plus delicats et depassent le cadre de ce cours.
3.4
Alors K est un c
one convexe ferme de E.
56
Preuve:
Le fait que K soit un cone convexe est evident. Pour montrer quil est ferme,
faisons une recurrence sur q. Pour q = 1, le resultat est evident. Faisons
donc lhypoth`ese au rang q 1 que pour tout (a1 , ..., aq ) E q , le cone:
)
( q
X
i ai , (1 , ...., q ) Rq+
i=1
est ferme. Soit maintenant, (a1 , ..., aq+1 ) E q+1 , il sagit de montrer que le
cone:
( q+1
)
X
q+1
K :=
i ai , (1 , ...., q+1 ) R+
i=1
(3.24)
Montrons que K est ferme. Rappelons dabord que par hypoth`ese de recurrence
le cone suivant est ferme:
)
( q
X
.
i ai , (1 , ...., q+1 ) Rq+1
K0 :=
+
i=1
q
X
i=1
(3.25)
P
( zn := qi=1 i,n ai K0 ). Montrons que n est bornee : sinon il existerait
une sous suite que nous noterons encore n tendant vers +, en divisant
(3.25) par n , en passant a` la limite, et en utilisant le fait que K0 est ferme,
on obtiendrait:
zn
aq+1 = lim
K0
n n
ce qui contredirait (3.24). Comme n bornee on peut, a` une sous-suite pr`es,
supposer que n converge vers 0. Comme yn = zn +n aq+1 converge vers
y on en deduit que zn converge vers z = y aq+1 , en utilisant a` nouveau
que K0 est ferme on a z K0 et donc y = z + aq+1 appartient a` K.
2
Le lemme de Farkas senonce comme suit:
57
Proposition 3.3 Soit (H, h., .i) un espace de Hilbert, q N et (a, a1 , ...., aq )
H q+1 , alors les proprietes suivantes sont equivalentes:
1. pour tout x H, si hai , xi 0 pour i = 1, ..., q alors ha, xi 0,
P
2. il existe (1 , ...., q ) Rq+ tels que a = qi=1 i ai .
Preuve:
Limplication 2. 1. est evidente. Remarquons que 2. signifie simplement
que a K avec
)
( q
X
q
i ai , (1 , ...., q ) R+ .
K :=
i=1
(3.26)
pK
(3.27)
pK
Ceci implique enfin que hai , xi 0 pour i = 1, ..., q et ha, xi > 0 ce qui
contredit 1.. 2
Une consequence immediate du lemme de Farkas est la variante suivante:
Corollaire 3.1 Soit (H, h., .i) un espace de Hilbert, (p, q) N N et
(a1 , ...., ap , ap+1 , ..., ap+q , a) H p+q+1 , alors les proprietes suivantes sont equivalentes:
1. pour tout x H, si hai , xi 0 pour i = 1, ..., p et hai , xi = 0 pour
i = p + 1, ..., p + q alors ha, xi 0,
P
2. il existe (1 , ...., p ) Rp+ et (p+1 , ...., p+q ) Rq tels que a = p+q
i=1 i ai .
58
Chapter 4
Fixed-point theorems
4.1
Preliminaries
d
Theorem 4.1 There does not exist any C 1 map f : B S d1 such that
f (x) = x for all x S d1 .
Proof:
d
Assume by contradiction that f : B S d1 is C 1 and such that f (x) = x
for all x S d1 . For t (0, 1) and x B, let us set
ft (x) := (1 t)x + tf (x).
d
4.2
Now let us assume that f is a continuous function from B into itself and
let us assume by contradiction that f has no fixed point so that
d
(4.1)
Since (4.1) continues to hold for functions that are uniformly sufficiently close
to f and by a suitable regularization argument (by convolution say) we may
d
d
assume that in addition f C 1 (B ). Now for all x B let g(x) be the
intersection of S d1 with the half-line {x + (f (x) x), 0}. Because
of (4.1), g is well-defined and easily seen to be seen to be C 1 . Moreover, by
d
construction, g maps B into S d1 and g(x) = x for every x S d1 , which,
thanks to Theorem 4.1, yields the desired contradiction. 2
One can deduce from Brouwers fixed point Theorem two important generalizations: an extension to infinite dimensions (Schauders Theorem) and
an extension to set-valued maps (Kakutanis Theorem). Schauders theorem
reads as:
Theorem 4.3 Let C be a closed and bounded convex subset of some Banach
space E and f : C C be continuous and such that f (C) is relatively
compact (i.e. has compact closure), then f possesses (at least) a fixed point:
there exists x C such that f (x) = x.
Proof:
Since f (C) is relatively compact, for every > 0, it can be covered by finitely
c
j=1 d(f (x), B (f (xj ), ))
so that i (x) > 0 iff f (x) B(f (xi ), ). Now let C := C E and for every
x C , let us set
N
X
i (x)f (xi )
f (x) :=
i=1
61
Nn
X
(4.2)
i=1
In the previous sum, there are only terms such that kf (xn ) f (xi n )k < n ,
so that
kf (x) fn (xn )k kf (x) f (xn )k + n .
This proves that fn (xn ) converges to f (x). We thus deduce that f (x) = x
by passing to the limit in the relation fn (xn ) = xn .
2
In the previous proof we have used the following Lemma.
Lemme 4.1 Let E be a Banach space and let K be a relatively compact
subset of E, then co(K) is compact.
Proof:
By Theorem 1.2, it is enough to prove that co(K) is precompact (it is complete since it is closed and E is a Banach space). Let > 0, we have
to prove that co(K) can be covered by finitely many balls of radius .
Since K is relatively compact, there exist p and x1 , ..., xp in K such that
K pi=1 B(xi , /3). Let C := co{x1 , ..., xp }, C is actually compact hence
there is some l and some y1 , ...., yl in C such that C lj=1 B(yj , /3). Now
let z co(K), i.e.
m
X
z=
k a k
k=1
62
We then have
m
m
X
k vk B(0, 1).
z=
k xik + v, v :=
3
k=1
k=1
Now we remark that
x=
m
X
k xi k C
k=1
so that there is some j such that x B(yj , /3) and then z B(yj , 2/3).
This proves that co(K) lj=1 B(yj , 2/3) and then co(K) lj=1 B(yj , ).
2
Kakutanis theorem, stated below, gives sufficient conditions for a setvalued map to have a fixed-point:
Theorem 4.4 Let C be a convex compact subset of Rd and F : C 2C
be a convex-valued set-valued map with a closed graph then F possesses (at
least) a fixed point: there exists x C such that x F (x).
Proof:
Since C is compact, for every > 0, C can be covered by finitely many balls
of radius , C N
i=1 B(xi , ) with xi in C. Let us denote by B (xi , ) the
complement of B(xi , ) and set for every x C and i:
d(x, B c (xi , ))
i (x) := PN
c
j=1 d(x, B (xj , ))
so that i (x) > 0 iff x B(xi , ). Now let yi F (xi ) and set
f (x) :=
N
X
i (x)yi , x C.
i=1
(4.3)
We claim, that there is some r > 0 such that for every x B(x, r), one has
p x < < inf p y.
yF (x)
63
(4.4)
choosing n large enough so that d(xn , x) < r/2 and n < r/2, all the indices
in the previous sum are such that xi n B(x, r). Taking the inner product
with p we have
X
p xn =
in (xn )p yin .
i : d(xn ,xi n )<n
For n large enough, with (4.4), the right hand side of the previous equality
is larger than which contradicts the fact that the left hand side converges
to p x < .
2
4.3
64
65
Part II
Differential calculus
66
Chapter 5
First-order differential calculus
5.1
Dans ce qui suit on se donne (E, k.kE ) et (F, k.kF ) deux R-evn, un ouvert
de E et f une application definie sur a` valeurs dans F . Si x alors il
existe r > 0 tel que B(x, r) en particulier si h E et t R est assez
petit (tel que |t|khkE < r) alors x + th . On a alors une premi`ere notion
de derivabilite : celle de derivabilite dans la direction h:
D
efinition 5.1 Soit x et h E, on dit que f est derivable en x dans la
direction h ssi la limite suivante existe (au sens de la topologie de (F, k.k F )):
1
lim
(f (x + th) f (x)).
t0, t6=0 t
Si cette limite existe, on lappelle derivee directionnelle de f en x dans la
direction h et on la note Df (x; h).
Notons que f est derivable en x dans la direction h ssi les limites (`a droite
et a` gauche) suivantes (au sens de la topologie de (F, k.kF )):
1
1
lim+ (f (x + th) f (x)) et lim (f (x + th) f (x)).
t0 t
t0 t
existent et sont egales. Ceci conduit a` la definition:
D
efinition 5.2 Soit x et h E, on dit que f est derivable a
` droite en
x dans la direction h ssi la limite suivante existe (au sens de la topologie de
(F, k.kF )):
1
lim+ (f (x + th) f (x)).
t0 t
Si cette limite existe, on lappelle derivee a
` droite de f en x dans la direction
h et on la note D + f (x; h).
67
(5.1)
Sous forme quantifiee, (5.1) signifie exactement : > 0, > 0 tel que
pour tout h E, on a:
khkE kf (x + h) f (x) L(h)kF khkE
Remarque. (importante) La definition de la (Frechet)-differentiabilite depend
du choix des normes sur E et F . Il est cependant facile de voir que le choix
de normes equivalentes sur E et F conduit a` la meme definition (sen convaincre a` titre dexercice facile). En particulier, si E et F sont de dimension
finie, le choix de normes particuli`eres est sans incidence sur la definition 5.4.
Remarque. Si f est derivable en x alors f est continue en x (noter la
difference avec la Gateaux differentiabilite).
On ecrit aussi usuellement (5.1) sous la forme synthetique:
f (x + h) = f (x) + L(h) + o(h)
(5.2)
la notation o(h) designant une fonction qui tend vers 0 (dans F ) plus vite
que h lorsque h tend vers 0 (dans E), cest a` dire:
ko(h)kF
= 0.
h6=0 khkE
lim
h0,
(5.3)
On a alors le:
Th
eor`
eme 5.1 Si f est G
ateaux-differentiable sur et DG f C 0 (, Lc (E, F ))
alors f est de classe C 1 sur .
Nous prouverons ce resultat au chapitre suivant. Le theor`eme 5.1 est tr`es
utile car il permet de proceder comme suit pour montrer en pratique que f
est de classe C 1 :
Etape 1: On calcule Df (x; h) pour (x, h) E.
Etape 2: On montre que h 7 Df (x; h) est lineaire continue donc f
est Gateaux-differentiable en x et Df (x; h) = DG f (x)(h).
Etape 3: On montre que DG f : x 7 DG f (x) est continue de dans
Lc (E, F ).
Concernant les applications bijectives, on a les definitions:
D
efinition 5.7 Soit un ouvert de E, 0 un ouvert de F et f une bijection
de sur 0 on dit que:
f est un homeomorphisme de sur 0 si f C 0 (, 0 ) et f 1
C 0 (0 , ),
f est un C 1 -diffeomorphisme (ou diffeomorphisme de classe C 1 ) de
sur 0 si f C 1 (, 0 ) et f 1 C 1 (0 , ).
Lorsque lespace de depart E est un espace de Hilbert et que lespace
darrivee est R, alors la derivee etant une forme lineaire continue sur E, on
peut en utilisant le theor`eme de Riesz identifier la derivee a` un element de
E, cela conduit a` la notion de vecteur gradient:
D
efinition 5.8 Soit (E, h., .i) un espace de Hilbert, un ouvert de E, f
une application definie sur E a
` valeurs reelles et x . Si f est G
ateauxdifferentiable en x, on appelle gradient de f en x et lon note f (x) lunique
element de E tel que:
DG f (x)(h) = hf (x), hi pour tout h E.
Dans le cas particulier E = Rn (muni de son ps usuel), nous verrons par la
suite que le gradient de f en x est le vecteur forme par les derivees partielles
par rapport aux n coordonnees de f en x.
71
5.2
Calculus rules
Th
eor`
eme 5.2 Soit E, F et G trois evn, un ouvert de E, U un ouvert de
F , f une application definie sur a
` valeurs dans F , g une application definie
sur U a
` valeurs dans G et x . Si f est differentiable en x, f (x) U et g
est differentiable en f (x) alors g f est differentiable en x et lon a:
(g f )0 (x) = g 0 (f (x)) f 0 (x).
Corollaire 5.1 Si, en plus des hypoth`eses du theor`eme precedent, on suppose que f est de classe C 1 sur , que f () U et que g est de classe C 1
sur U alors g f est de classe C 1 sur .
Sur la derivabilite dun produit (scalaire vecteur), on a:
Proposition 5.4 Soit E, et F et deux evn, un ouvert de E, f une application definie sur a
` valeurs dans F , u une application definie sur a
`
valeurs dans R et x . Si f et u sont est differentiables en x, alors u f
est differentiable en x et lon a:
(u f )0 (x)(h) = (u0 (x)(h)) f (x) + u(x) f 0 (x)(h) pour tout h E.
Enfin, nous admettrons le resultat suivant sur la derivabilite de linverse.
Retenez que le resultat qui suit nest valable que dans le cadre complet car
sa demonstration utilise le theor`eme de Banach 2.3.
Th
eor`
eme 5.3 Soit E, F deux espaces de Banach, un ouvert de E, U
un ouvert de F , f un homeomorphisme de dans U (f 1 : U ) et
x . Si f est differentiable en x et si f 0 (x) est inversible alors f 1 est
differentiable en f (x) et:
(f 1 )0 (f (x)) = [f 0 (x)]1 .
5.3
Commencons par des rappels sur le cas reel. Rappelons dabord le theor`eme
de Rolle:
Th
eor`
eme 5.4 Soit a < b deux reels et f C 0 ([a, b], R). Si f (a) = f (b) et
f est derivable sur ]a, b[ alors il existe c ]a, b[ tel que f 0 (c) = 0.
Le theor`eme des accroissements finis (TAF en abrege) senonce alors
comme suit
73
Th
eor`
eme 5.5 Soit a < b deux reels et f C 0 ([a, b], R). Si f est derivable
sur ]a, b[ alors il existe c ]a, b[ tel que:
f 0 (c) =
f (b) f (a)
.
ba
lim
h0,
(5.4)
Preuve:
Nous allons nous limiter au cas o`
u F est un espace de Hilbert et admettrons
le resultat dans le cas general. Soit p F et pour t E, definissons:
g(t) := hp, f (a + t(b a)i
alors g (`a valeurs reelles) verifie les hypoth`eses du theor`eme 5.5 : il existe
t ]0, 1[ (noter que t depend de p) tel que:
hp, f (b) f (a)i = g(1) g(0) = g 0 (t) = hp, Df (c; b a)i
(5.5)
(o`
u lon a pose c = a + t(b a) ]a, b[). Si f (b) = f (a), le resultat cherche,
est evident, on suppose donc f (b) 6= f (a), en appliquant (5.5) a` p = (f (b)
f (a))/kf (b) f (a)k et en utilisant linegalite de Cauchy-Schwarz il vient
alors:
f (b) f (a)
f (b) f (a),
= kf (b) f (a)k = hp, Df (c; b a)i
kf (b) f (a)k
kpkkDf (c; b a)k = kDf (c; b a)k.
2
Si f est Gateaux-derivable sur , alors la conclusion du theor`eme 5.7
implique quil existe c ]a, b[ tel que:
kf (b) f (a)k kDG f (c)(b a)k kDG f (c)kkb ak.
(5.6)
On en deduit donc
75
(5.9)
en particulier:
kf (b) f (a) DG f (a)(b a)k sup kDG f (c) DG f (a)kkb ak
c]a,b[
Preuve:
Appliquer le corollaire 5.2 a` la fonction x 7 f (x) DG f (z)(x).
2
Nous sommes desormais en mesure de prouver le theor`eme 5.1 que nous
rappelons:
Th
eor`
eme 5.8 Si f est G
ateaux-differentiable sur et DG f C 0 (, Lc (E, F ))
alors f est de classe C 1 sur .
Preuve:
Si nous montrons que pour tout x , et tout > 0, il existe > 0 tel que
pour tout h E tel que khk , on a:
kf (x + h) f (x) DG f (x)(h)k khk
alors nous aurons montre que f est differentiable et f 0 (x) = DG f (x) pour
tout x et donc que f est de classe C 1 sur puisque DG f C 0 (, Lc (E, F )).
Soit r > 0 tel que B(x, r) , soit ]0, r[ et h B(x, ), alors [x, x + h]
B(x, ) et le corollaire 5.2 donne:
kf (x + h) f (x) DG f (x)(h)k
76
cB(x, )
5.4
Partial derivatives
(5.10)
f (x)(h) =
p
X
k=1
78
k f (x)(hk ).
(5.11)
Le fait detre differentiable implique donc dadmettre des derivees partielles, la reciproque est fausse (cf remarque sur les derivees directionnelles).
En revanche si f admet des derivees partielles et que celles ci dependent
contin
ument de x alors f est de classe C 1 , cest lobjet du:
Th
eor`
eme 5.10 Si pour tout k {1, ..., p} et tout x , f admet une
derivee partielle par rapport a
` la k-i`eme variable en x et si lapplication
x 7 k f (x) (definie sur et a
` valeurs dans Lc (Ek , F )) est continue sur
alors f est de classe C 1 sur et la formule (5.11) est satisfaite.
Ce theor`eme tr`es utile en pratique sera demontre au prochain chapitre.
5.5
x1
x=
.
xn
et f , sous la forme:
f1 (x)
.
.
.
.
fp (x)
f (x) =
n
X
j fi (x)hj
j=1
et donc:
0
f (x)(h) =
f10 (x)(h)
.
.
.
.
0
fp (x)(h)
Pn
j f1 (x)hj
.
.
.
.
Pn
j=1 j fi (x)hj
1 f1 (x) . . n f1 (x)
.
. .
.
.
. .
.
f 0 (x)(h) =
.
.
.
.
.
. .
.
1 fp (x) . . n fp (x)
j=1
h1
.
.
.
.
hn
Ainsi lapplication lineaire f 0 (x) L(Rn , Rp ) est representee dans les bases
canoniques de Rn et Rp par la matrice de format p n de terme general
j fi (x) que lon appelle matrice jacobienne de f en x et que lon note Jf (x):
1 f1 (x) . . n f1 (x)
.
. .
.
.
.
.
.
Jf (x) :=
.
. .
.
.
. .
.
1 fp (x) . . n fp (x)
ainsi, sous forme matricielle lexpression de la differentielle de f en x est
donnee par:
h1
.
0
Rn
f (x)(h) = Jf (x)h, pour tout h =
.
hn
80
Notons que les r`egles de calcul (composition, inverse...) se traduisent matriciellement. Si f est differentiable en x et si g est une application definie
sur un voisinage de f (x) dans Rp a` valeurs dans Rk et si g est differentiable
en f (x), alors g f est differentiable en x et lon a:
J(g f )(x) = Jg(f (x)) Jf (x).
Prenons par exemple n = p = 2 et k = 1, en appliquant lexpression matricielle precedente de la derivee dune composee, il vient:
1 (g f )(x1 , x2 ) = 1 g(f (x1 , x2 ))1 f1 (x1 , x2 ) + 2 g(f (x1 , x2 ))1 f2 (x1 , x2 ),
2 (g f )(x1 , x2 ) = 1 g(f (x1 , x2 ))2 f1 (x1 , x2 ) + 2 g(f (x1 , x2 ))2 f2 (x1 , x2 ).
De meme, si f est un homeomorphisme dun voisinage de x sur un voisinage
de f (x) et si la matrice Jf (x) est inversible (ce qui implique que n = p) alors
f 1 est differentiable en f (x) et lon a:
Jf 1 (f (x)) = [Jf (x)]1 .
Dans le cas du but reel c est a` dire F = R, Jf (x) est le vecteur ligne:
Jf (x) := (1 f1 (x), ..., n f1 (x))
ainsi:
0
f (x)(h) = hf (x), hi =
j f (x)hj =
j=1
n
X
1 f (x)
.
.
.
.
n f (x)
h1
.
.
.
.
hn
1 f (x)
.
.
f (x) =
.
n f (x)
pour tout h Rn
5.6
Calculus
x
, x 6= 0.
kxk
Given a Rn and g : Rn Rn
f3 (x) = a g(x), f3 (x) = Jg (x)T a.
Given f : Rn R and u0 Rn :
f4 (t) = f (x + tu0 ), f40 (t) := f (x + tu0 ) u0 .
Given g : Rn Rn and h : Rn R
(h g)(x) = Jg (x)T h(g(x)).
82
Chapter 6
Second-order differential
calculus
6.1
Definitions
6.2
Une propriete importante des derivees secondes est leur symetrie, cest lobjet
du theor`eme de Schwarz. Dabord un resultat preliminaire:
Proposition 6.1 Si f est deux fois differentiable en x alors la quantite:
1
(f (x + h + k) f (x + k) f (x + h) + f (x) f 00 (x)(h, k))
(khk + kkk)2
tend vers 0 quand (h, k) tend vers (0, 0), (h, k) E E \ {(0, 0)}.
84
Preuve:
Par definition pour tout > 0, il existe > 0 tel que B(x, ) et pour
tout v B(0, ) :
(6.1)
Soit r > 0 tel que B(x, r) et f soit differentiable sur B(x, r), definissons
pour (h, k) E E tels que khk + kkk r:
(h, k) := f (x + h + k) f (x + k) f (x + h) + f (x) f 00 (x)(h, k)
est differentiable, (h, 0) = 0 avec linegalite des accroissements finis on a
alors:
k(h, k)k = k(h, k) (h, 0)k sup k2 (h, u)kkkk.
(6.2)
u[0,k]
On a par ailleurs:
2 (h, u) = f 0 (x + h + u) f 0 (x + u) f 00 (x)(h)
par linearite de f 00 (x) on a f 00 (x)(h) = f 00 (x)(h + u) f 00 (x)(u) et donc:
2 (h, u) = (f 0 (x+h+u)f 0 (x)f 00 (x)(h+u))(f 0 (x+u)f 0 (x)f 00 (x)(u)).
Si khk + kkk , on a aussi pour tout u [0, k], kuk khk + kuk
khk + kkk , et en utilisant (6.1) on a donc:
k2 (h, u)k
S est symetrique (S(h, k) = S(k, h)) et dapr`es la proposition 6.1, pour tout
> 0 il existe > 0 tel que si khk + kkk on a:
6.3
f (x)(h) =
p
X
k=1
Pour i {1, ..., p}, et j {1, ..., p}, on peut sinteresser a` la derivee
partielle de j f par rapport a` sa i-`eme variable, do`
u la:
D
efinition 6.3 Soit x , et (i, j) {1, ..., p}2 , on dit que f admet une
derivee partielle seconde dindice (i, j) en x si:
il existe un voisinage ouvert U de x dans sur lequel f admet une
derivee partielle par rapport a
` sa j-`eme variable,
lapplication y U 7 j f (y) admet une derivee partielle par rapport a
`
sa i-`eme variable en x.
86
Dans ce cas, la derivee partielle seconde dindice (i, j) en x, notee ij2 f (x)
est donnee par:
ij2 f (x) := i (j f )(x).
Comme j f (x) Lc (Ej , F ), on a ij2 f (x) Lc (Ei , Lc (Ej , F )). En utilisant a`
nouveau les resultats du paragraphe 2.6.3, on peut identifier Lc (Ei , Lc (Ej , F ))
a` L2,c (Ei Ej , F ), ceci permet didentifier ij2 f (x) a` lapplication bilineaire
continue que nous notons aussi ij2 f (x):
ij2 f (x)(hi , kj ) = (ij2 f (x)(hi ))(kj ) pour tout (hi , kj ) Ei Ej .
Nous ferons systematiquement cette identification par la suite.
Les relations entre derivee seconde et derivees secondes partielles nous
sont fournies par la:
Proposition 6.2 Si f est deux fois derivable en x alors pour tout (i, j)
{1, ..., p}2 , f admet une derivee partielle seconde dindice (i, j) en x, ij2 f (x)
L2,c (Ei Ej , F ) et pour tout (hi , kj ) Ei Ej on a:
ij2 f (x)(hi , kj ) = f 00 (x)((0, ....0, hi , 0, ....0), (0, ....0, kj , 0, ....0))
(6.3)
(6.4)
(6.5)
1i,jp
Preuve:
Si f est deux fois derivable en x, alors f est derivable sur un voisinage ouvert
U de x et donc admet des derivees partielles sur U , soit y U et kj Ej ,
on a:
j f (y)(kj ) = f 0 (y)(0, ...., 0, kj , 0, ...., 0)
le membre de droite est derivable en x:
(j f (.)(kj ))0 (x)(h) = f 00 (x)(h)(0, ...., 0, kj , 0, ...., 0) pour tout h E
il admet donc en particulier une derivee partielle par rapport a` sa i-`eme
variable. Ainsi f admet une derivee partielle seconde dindice (i, j) en x et
87
2
11 f (x) . . 1n
f (x)
.
. .
.
.
.
.
.
2
.
D f (x) :=
.
. .
.
.
. .
.
2
2
n1 f (x) . . nn f (x)
f 00 (x)(h, k) = D 2 f (x)(h), k ==
ij2 f (x)hi kj .
1i,jn
6.4
Taylor formula
Th
eor`
eme 6.2 Si f est deux fois derivable en x, on a:
1
f (x + h) = f (x) + f 0 (x)(h) + f 00 (x)(h, h) + o(khk2 )
2
avec:
(6.6)
o(khk2 )
0 quand h 0, h 6= 0.
khk2
Preuve:
Il sagit de montrer que pour tout > 0, il existe tel que si khk alors
1
kf (x + h) f (x) f 0 (x)(h) f 00 (x)(h, h)k khk2 .
2
(6.7)
Definissons donc
1
R(h) := f (x + h) f (x) f 0 (x)(h) f 00 (x)(h, h)
2
R est bien definie et de classe C 1 sur un voisinage de 0 dans E, R(0) = 0 et:
1
R0 (h) = f 0 (x + h) f 0 (x) (f 00 (x)(h, .) + f 00 (x)(., h))
2
et comme f 00 (x) est symetrique, on a:
R0 (h) = f 0 (x + h) f 0 (x) f 00 (x)(h).
Donc il existe tel que pour tout u tel que kuk , on a:
kR0 (u)k kuk
Si khk , linegalite des accroissements finis implique:
kR(h)k = kR(h) R(0)k sup kR0 (u)kkhk
u[0,h]
khk2 .
on a donc etabli (6.7). 2
Si f est deux fois differentiable au voisinage sur (ou simplement sur un
voisinage de x) on a:
Th
eor`
eme 6.3 Si h E est tel que [x, x+h] et f est deux fois derivable
en chaque point de alors on a:
1
kf (x + h) f (x) f 0 (x)(h) f 00 (x)(h, h)k sup kf 00 (z) f 00 (x)kkhk2 .
2
z[x,x+h]
(6.8)
89
Preuve:
On definit R(h) comme dans la preuve precedente, il sagit alors de montrer
que:
kR(h)k sup kf 00 (z) f 00 (x)kkhk2 .
(6.9)
z[x,x+h]
(6.10)
u[0,h]
Comme, on a:
R0 (u) = f 0 (x + u) f 0 (x) f 00 (x)(u)
si u [0, h], en appliquant linegalite des accroissements finis du corollaire
5.4 a` f 0 entre x et x + u, il vient donc:
kR0 (u)k
sup
kf 00 (z) f 00 (x)kkuk
z[x,x+u]
sup
kf 00 (z) f 00 (x)kkhk
z[x,x+h]
(6.12)
Preuve:
Comme on veut montrer lidentite (6.12) composante par composante, on
peut poser f = fi et supposer que p = 1. Posons pour t [0, 1],
g(t) := f (x + th)
90
2
Remarque. Lhypoth`ese F = Rp dans le theor`eme precedent nous a uniquement servi pour la definition de lintegrale. Si lon peut generaliser de mani`ere
satisfaisante la construction de lintegrale a` des fonctions a` valeurs dans F
evn de dimension infinie, alors on pourra generaliser la formule de Taylor
avec reste integral a` des fonctions a` valeurs dans F . Cette generalisation est
possible lorsque F est un espace de Banach mais elle depasse largement le
cadre de ce cours.
6.5
La convexite est une notion cle comme nous lavons deja souligne (theor`emes
de projection et de separation dans un espace de Hilbert) qui joue un role
fondamental en optimisation. Rappelons la definition basique:
D
efinition 6.4 Soit E un R-ev, C une partie convexe de E et f une application definie sur C a
` valeurs relles, on dit que f est convexe sur C ssi
2
(x, y) C et t [0, 1], on a:
f (tx + (1 t)y) tf (x) + (1 t)f (y).
On dit que f est strictement convexe sur C ssi (x, y) C 2 avec x 6= y et
t ]0, 1[, on a:
f (tx + (1 t)y) < tf (x) + (1 t)f (y).
Notons que dans la definition precedente, puisque est convexe tx+(1t)y
(x, y) C 2 et t [0, 1], ainsi f (tx + (1 t)y) est bien defini.
91
(6.13)
Preuve:
Supposons que f soit convexe, soit (x, y) 2 pour t [0, 1] definissons
g(t) := f (tx + (1 t)y) tf (x) (1 t)f (y)
par convexite g(t) 0 pour tout t [0, 1] et g(0) = 0 on a donc:
g(t) g(0)
0 pour tout t ]0, 1]
t
92
(6.14)
On definit, pour t [0, 1], g(t) comme precedemment. Pour etablir la convexite de f il faut montrer que g 0 sur [0, 1]. On a g(0) = g(1) = 0, g est
derivable sur ]0, 1[:
g 0 (t) = f 0 (tx+(1t)y)(xy)f (x)+f (y) = f 0 (y+t(xy))(xy)f (x)+f (y)
Soit 1 > t > s > 0 on a alors, en appliquant (6.14) a` z1 = y + t(x y) et
z2 = y + s(x y) (z1 z2 = (t s)(x y))
g 0 (t) g 0 (s) = (f 0 (y + t(x y)) f 0 (y + s(x y))) (x y) 0
do`
u lon deduit que g 0 est croissante sur ]0, 1[. Soit t ]0, 1[, on deduit de la
formule des accroissements finis quil existe ]0, t[ et 0 ]t, 1[ tels que:
g(t) = g(0) + g 0 ()t = g 0 ()t et g(1) g(t) = g(t) = g 0 ( 0 )(1 t)
Comme 0 > t > on a g 0 ( 0 ) g 0 () et donc:
g(t)
g(t)
1t
t
(6.15)
95
Chapter 7
Local invertibility and implicit
functions theorems
7.1
Local invertibility
96
Pour x a, posons:
(x) := x g(x).
Comme 0 (0) = 0, il existe r > 0 tel que pour tout x B(0, r) on a1 :
k0 (x)k 1/2.
(7.1)
(7.2)
97
1
< 1,
2
(7.3)
(7.4)
kxk xk
.
2k[g 0 (x)]1 k
(7.5)
Si kkk /2 alors (7.4) entraine que kxk xk , en utilisant (7.5) et a`
nouveau (7.4), il vient donc:
kg 1 (y + k) g 1 (y) [g 0 (x)]1 kk = kxk x [g 0 (x)]1 (g 0 (x)(xk x) + k )k
kxk xk
= k[g 0 (x)]1 k k k[g 0 (x)]1 kkk k k[g 0 (x)]1 k
kkk.
2k[g 0 (x)]1 k
on a donc etabli (7.3) ce qui ach`eve la preuve. 2
One can immediately deduce from the inverse function theorem the following result which is of global nature in the case where f 0 (a) is invertible
for every a :
2
Rappelons ici que si u Lc (E) verifie kid uk < 1 alors u est inversible dinverse
continue (voir le poly dexercices).
98
7.2
Implicit functions
Le theor`eme des fonctions implicites permet localement de passer dune condition implicite entre les variables x et y du type f (x, y) = c a` une relation
explicite du type y = g(x).
Th
eor`
eme 7.2 Soit E, F et G trois espaces de Banach, A et B deux ouverts
respectivement de E et F , (a, b) AB, f C 1 (AB, G) et c := f (a, b). Si
2 f (a, b) est inversible (dans Lc (F, G)) alors il existe U un voisinage ouvert
de a, V un voisinage ouvert de b et g C 1 (U, V ) tel que:
{(x, y) U V : f (x, y) = c} = {(x, g(x)) : x U }.
Ce qui implique en particulier : g(a) = b et f (x, g(x)) = c x U .
Preuve:
Soit (x, y) := (x, f (x, y)), (x, y) AB; on a alors C 1 (AB, E G).
Soit (h, k) E F , 0 (a, b)(h, k) = (h, 1 f (a, b)h+2 f (a, b)k). Pour (u, v)
E G, comme 2 f (a, b) est inversible, on a:
0 (a, b)(h, k) = (u, v) (h, k) = (u, [2 f (a, b)]1 (v 1 f (a, b)u)).
Ainsi 0 (a, b) est inversible, avec le theor`eme de linversion locale, nous en
deduisons quil existe M voisinage ouvert de (a, b) dans A B et N voisinage
ouvert de (a, b) = (a, c) tel que realise un diffeomorphisme de classe C 1 de
M sur N . Sans perte de generalite, on peut supposer que M = Ma Mb , avec
Ma (resp. Mb ) voisinage ouvert de a dans A (resp. de b dans B). Notons
alors 1 : N Ma Mb sous la forme 1 (x, z) =: (u(x, z), v(x, z)) =
(x, v(x, z)). Posons alors
U := {x Ma : (x, c) N et v(x, c) Mb }, V := Mb .
Par construction U est un voisinage ouvert de a et V un voisinage ouvert de
b. Pour tout x U , definissons g(x) := v(x, c) on a alors g C 1 (U, V ). Soit
(x, y) U V , on alors (x, c) N , g(x) = v(x, c) V et donc:
f (x, y) = c (x, y) = (x, c) (x, y) = 1 (x, c)
(x, y) = (x, v(x, c)) (x, y) = (x, g(x)).
2
99
100
Part III
Static Optimization
101
Chapter 8
Generalities and unconstrained
optimization
Soit E un ensemble et f une fonction definie sur E a` valeurs reelles. Resoudre
le probl`eme de minimisation:
inf f (x)
(8.1)
xE
xE
(8.2)
xE
(8.3)
8.1
Existence theorems
La premi`ere question a` se poser dans un probl`eme doptimisation est : existet-il (au moins) une solution? Nous allons rappeler quelques crit`eres simples
qui assurent lexistence dune telle solution. Rappelons dabord le theor`eme
classique de Weierstrass (voir chapitre 1):
Th
eor`
eme 8.1 Soit (E, d) un espace metrique compact et f C 0 (E, R)
alors il existe x E tel que:
f (x ) = inf {f (x), x E} .
Preuve:
Nous avons deja etabli ce resultat, on se propose ici den donner une preuve
(leg`erement) differente reposant sur la notion de suite minimisante: ce type
de preuve est le point de depart de ce quon appelle la methode directe du
calcul des variations. Soit donc (xn )n E N une suite minimisante de f sur
E:
lim f (xn ) = inf f (x).
(8.4)
n
xE
Comme E est compact, on peut, quitte a` extraire une sous-suite que nous
continuerons a` noter (xn )n , supposer que (xn )n converge vers un element
x E. Comme f est continue, f (xn ) converge vers f (x ), en utilisant (8.4),
il vient donc:
f (x ) = inf {f (x), x E} .
2
En pratique, les hypoth`eses de continuite et surtout celle de compacite
sont assez restrictives et comme nous allons le voir, peuvent etre (un peu)
affaiblies.
Intuitivement, comme on sinteresse ici a` minimiser f , la situation o`
uf
na des sauts que vers le bas nest pas genante (considerer par exemple
f (0) = 0, f (x) = 1 pour x R \ {0}). Cette intuition conduit naturellement
a` la notion de semi-continuite inferieure:
D
efinition 8.2 Soit (E, d) un espace metrique, f une application definie sur
E a
` valeurs reelles et x0 E, on dit que:
1. f est semi-continue inferieurement (s.c.i. en abrege) en x0 ssi:
> 0, r > 0 tq x E, d(x, x0 ) r f (x) f (x0 ) .
(8.5)
(8.6)
Preuve:
1. 2. : soit (xn )n E N convergeant vers x0 et (x(n) )n une sous-suite telle
que
lim f (x(n) ) = liminf n f (xn )
n
Supposons par labsurde que liminf n f (xn ) < f (x0 ) et soit > 0 tel que
lim f (x(n) ) = liminf n f (xn ) f (x0 ) .
n
(8.7)
Puisque f est s.c.i. en x0 il existe r > 0 tel que pour tout x B(x0 , r) on
a : f (x) f (x0 ) /2. Pour n assez grand, on a x(n) B(x0 , r) et donc :
f (x(n) ) f (x0 ) /2 en passant a` la limite on a donc:
lim f (x(n) ) f (x0 ) /2
n
Comme Epi(f )) est ferme, on en deduit que (x0 , liminf n f (xn )) Epi(f )) ce
qui signifie exactement:
liminf n f (xn )) f (x0 ).
2
Le theor`eme de Weierstrass setend aux fonctions qui sont seulement s.c.i:
Th
eor`
eme 8.2 Soit (E, d) un espace metrique compact et f une fonction
s.c.i. de E dans R alors il existe x E tel que:
f (x ) = inf {f (x), x E} .
Preuve:
Soit (xn )n E N une suite minimisante de f sur E:
lim f (xn ) = inf f (x).
n
xE
(8.8)
Comme E est compact, on peut, quitte a` extraire une sous-suite que nous
continuerons a` noter (xn )n , supposer que (xn )n converge vers un element
x E. Comme f est s.c.i en x , on a:
lim f (xn ) = liminff (xn ) f (x ),
n
106
xE , kxk+
f (x) = +
(8.9)
xE
(8.10)
Montrons dabord que (xn )n est bornee: si tel netait pas le cas, il existerait
une sous-suite (x(n) )n verifiant:
lim kx(n) k = +,
n
ce qui contredirait (8.10). On a montre que (xn )n est bornee dans E, ferme
dun R-ev de dimension finie, il existe donc une sous-suite (x(n) ) convergeant
vers un element x E. Comme f est s.c.i en x , on a:
liminff (x(n) ) f (x ),
en utilisant (8.10), il vient donc:
f (x ) = inf {f (x), x E} .
1
Rappelons que (8.9) signifie que M > 0, r > 0 tel que pour tout x E, kxk r
f (x) M .
107
2
En dimension infinie, la corecivite ne suffit pas pour conclure (les suites
minimisantes sont bornees mais ca ne suffit plus pour en extraire une sous
suite convergente). Neanmoins, en recourant a` la topologie faible on a le
resultat suivant dans les Hilbert (valable plus generalement dans les Banach
reflexifs):
Theorem 8.1 Soit E un espace de Hilbert, f : E R convexe s.c.i et
coercive alors il existe x E
f (x ) = inf {f (x), x E} .
La convexite est fondamentale dans le theor`eme prededent. On renvoie
par exemple a` [3] pour une demonstration ainsi que la definition et les proprietes des topologies faibles.
8.2
Optimality conditions
(8.11)
1
f (x + h) f (x ) = D 2 f (x )h h + khk2 (h)
2
avec tendant vers 0 quand h tend vers 0. En utilisant le Lemme ci dessous,
on deduit quil existe une constante c > 0 telle que D 2 f (x )h h ckhk2 , et
donc pour h 6= 0 suffisament petit pour que c + 2(h) > 0 on a
c
Lemme 8.1 Soit A une matrice definie positive alors il existe c > 0 telle
que
Ah h ckhk2 ; h
Proof:
Soit c := inf{Ah h : khk = 1}, alors c > 0 et on deduit le resultat cherche
par homogeneite. 2
109
110
Chapter 9
Problems with equality
constraints
Dans ce chapitre nous nous interessons a` des probl`emes doptimisation sous
contraintes degalite dans Rn . Etant donnes un ouvert de Rn , f et g1 , ...., gm
des fonctions definies sur a` valeurs reelles et (c1 , ..., cm ) Rm , on consid`ere
donc le probl`eme:
inf f (x)
(9.1)
A := {x : gj (x) = cj , j = 1, ...., m}
(9.2)
xA
avec:
La fonction f a` minimiser sappelle fonction objectif ou co
ut. Les fonctions
gj et les reels cj definissent les contraintes degalite de (9.1), les elements de
A sappellent les elements admissibles, on supposera evidemment dans ce qui
suit que A 6= . Comme precedemment, on distingue les solutions locales et
globales, strictes et larges:
D
efinition 9.1 .
1. On dit que x est une solution globale de (9.1) ou un point de minimum
global de f sur A ssi f (x ) f (x) pour tout x A.
2. On dit que x est une solution locale de (9.1) ou un point de minimum
local de f sur A ssil existe r > 0 tel que f (x ) f (x) pour tout x A
tel que kx x k < r.
3. On dit que x est un point de minimum global strict de f sur A ssi
f (x ) < f (x) pour tout x A \ {x }.
111
9.1
Avant daller plus avant, rappelons quelques resultats dalg`ebre lineaire. Tout
dabord, rappelons que si E est un R-ev et E1 et E2 deux sev de E, on dit que
E1 et E2 sont supplementaires (ce que lon note E = E1 E2 ) ssi pour tout
x E il existe un unique (x1 , x2 ) E1 E2 tel que x = x1 + x2 . Autrement
dit E = E1 E2 ssi:
E1 E 2
E
:
(x1 , x2 ) 7 x1 + x2
est un isomorphisme entre E1 E2 et E. Cet isomorphisme permet didentifier
E au produit E1 E2 , dans ce cas on fera lidentification x = x1 + x2 =
1 (x) = (x1 , x2 ). Notons enfin que si E est de dimension finie alors
et 1 sont continues, dans ce cas lidentification precedente x = 1 (x)
nalt`ere en rien les considerations topologiques et differentielles.
Proposition 9.1 Soit E et F deux R-ev, v L(E, F ), E1 := ker(v) et E2
un supplementaire de E1 alors la double restriction de v a
` E2 et Im(v) est
un isomorphisme.
Preuve:
Notons w la double restriction de v a` E2 et Im(v), soit y Im(v), il existe
x E tel que y = v(x). Comme E1 E2 = E, il existe un unique (x1 , x2 )
112
j uj (x) = 0, x E.
j=1
m
X
j=1
113
j uj .
Preuve:
Tout dabord, il est evident que 2. implique 1.. Supposons maintenant que
1. ait lieu, il sagit de montrer que v F := vect(u1 , ...., um ). F est un
sev de lev de dimension finie G := vect(u1 , ...., um , v). On identifie G a` Rp
(p = dim(G)) et on le munit de la structure hilbertienne usuelle de Rp . Ainsi
on identifie aussi G a` son dual. Si v
/ F , comme F est un sev ferme de G
on peut separer v de F : il existe x Rp et > 0 tels que:
v(x) inf p(x) .
pF
(9.3)
Comme G est un sev, nous deduisons de (9.3) que p(x) = 0 pour tout p F
(voir la demonstration du lemme de Farkas pour les details), en particulier
ceci implique que x m
j=1 ker uj et donc 1. implique que v(x) = 0. Or avec
(9.3), on a v(x) < 0 ce qui constitue la contradiction recherchee. 2
9.2
(9.4)
Preuve:
Il sagit de montrer que:
0
0
E1 := ker(g 0 (x )) = m
j=1 ker(gj (x )) ker(f (x )) = f (x ) .
(9.5)
(9.6)
115
m
X
j gj (x ).
(9.7)
j=1
Preuve:
Il resulte du lemme 9.1 que g 0 (x ) est surjective et donc que les hypoth`eses de
0
0
la proposition 9.2 sont satisfaites. Ainsi on a m
j=1 ker(gj (x )) ker(f (x ))
ce qui est equivalent a`:
m
j=1 gj (x ) f (x ) .
Ainsi le lemme 9.2 (ou le lemme de Farkas) permet den deduire quil existe
(1 , ...., m ) Rm tels que:
f (x ) =
m
X
j gj (x ).
j=1
2
Les reels 1 , ...., m intervenant dans (9.7) sont appeles des multiplicateurs
de Lagrange associes aux contraintes de (9.1) au point de minimum local x .
Remarque. Lhypoth`ese que la famille g1 (x ), ....., gm (x ) est libre implique que les multiplicateurs 1 , ....m associes a` x sont uniques. La conclusion du theor`eme 9.1 signifie simplement que le gradient de la fonction
objectif en x appartient a` lespace vectoriel engendre par les gradients des
contraintes en x .
Exemple 9.1 Cherchons a
`Pminimiser f (x1 , ....., xn ) = x1 + .... + xn sous
la contrainte g(x1 , ...xn ) = ni=1 x2i = 1. Tout dabord, par compacite de la
sph`ere il existe au moins une solution. Ensuite notons que g(x) = 2x ainsi
les conditions du th`eor`eme de Lagrange sont remplies. Ainsi si x est un
minimiseur il existe R tel que 1 = xi pour i = 1, ..., n ce qui implique
que les composantes de x sont egales. Avec la contrainte cela laisse les deux
possibilites:
x = (n1/2 , ....., n1/2 ) ou x = (n1/2 , ....., n1/2 ).
Le premier cas correspond au point de maximum de f sur la sph`ere et le
second au point de minimum de f sur la sph`ere.
116
Remarque. Attention a` lhypoth`ese g 0 (x ) surjective (equivalente, rappelons le, au fait que la famille g1 (x ), ....., gm (x ) est libre). Cette hypoth`ese ne peut etre affaiblie pour que la conclusion du theor`eme de Lagrange
reste valide (voir exemple ci-dessous). Par ailleurs, cette hypoth`ese porte sur
x , qui est en pratique ce que lon cherche et donc a priori inconnu! Enfin,
remarquons que si g1 (x ), ....., gm (x ) est libre alors m n cest a` dire
quil y a moins de contraintes que de variables....
Exemple 9.2 Il est facile de construire des contre exemples a
` (9.7) si lhypoth`ese
0
g (x ) surjective nest pas verifiee. Cherchons a
` minimiser f (x, y) = x
sous la contrainte x2 + y 2 = 0: il ny a quun point admissible (0, 0) et
f (0, 0) = (1, 0) 6= g(0, 0) = 0, dans ce cas, a
` cause de la degenerescence
g(0, 0) = (0, 0), il ny a pas de multiplicateur de Lagrange.
Remarque. Nous verrons au paragraphe suivant comment en introduisant
u g 0 (x )
un Lagrangien generalise, on peut aussi traiter les cas degeneres o`
f (x ) =
m
X
j gj (x ).
(9.8)
j=1
Preuve:
Soit x A, par convexite de f , on a:
f (x) f (x ) f (x ) (x x )
avec (9.8), il vient donc:
f (x) f (x )
m
X
j gj (x ).(x x ).
j=1
(9.9)
9.3
m
X
j (gj (x) cj ).
(9.10)
j=1
et
(9.12)
(9.13)
118
(9.14)
m
X
j (gj (x) cj ).
(9.15)
j=1
0 f (x ) =
m
X
j gj (x ).
(9.16)
j=1
Preuve:
Definissons pour tout x , H(x) := (f (x), g(x)) Rm+1 . Par hypoth`ese,
H est differentiable en x : H 0 (x ) = (f 0 (x ), g 0 (x )). Distinguons alors deux
cas:
Premier cas: H 0 (x ) est surjective. Ceci implique que g 0 (x ) est
surjective on peut alors appliquer le theor`eme 9.1 et prendre 0 = 1 dans
(9.16).
Deuxi`
eme cas: H 0 (x ) nest pas surjective. Puisque
0
H 0 (x ) = (f 0 (x ), g10 (x ), ..., gm
(x )),
0 f (x ) =
m
X
j=1
2
119
j gj (x ).
9.4
x L(x , ) = f (x )
m
X
j gj (x ) = 0 et
(9.17)
j=1
2
xx
L(x , )(h, h) 0 pour tout h ker(g 0 (x ))
(9.18)
Preuve:
Il resulte du theor`eme de Lagrange 9.1 quil existe Rm tel que x L(x , ) =
0, autrement dit:
m
X
0
f (x ) =
j gj0 (x ).
(9.19)
j=1
2 f (x ) =
m
X
j 2 gj (x ).
(9.20)
j=1
(9.21)
(9.22)
(9.23)
(9.24)
(9.25)
(9.26)
et
121
(9.27)
j=1
m
X
2
j 11
gj (x )(h, h).
j=1
m
X
2
j 11
gj (x ) (h, h) 0 pour tout h E1 = ker(g 0 (x ))
j=1
or pour h E1 , on a:
2
11
f (x )
m
X
2
j 11
gj (x )
j=1
00
(h, h) =(f (x )
m
X
j gj00 (x ))(h, h)
j=1
2
2
L(x , )
xx
00
= f (x )
m
X
j=1
122
j gj00 (x )
x L(x , ) = f (x )
m
X
j gj (x ) = 0 et
(9.28)
j=1
2
xx
L(x , )(h, h) > 0 pour tout h ker(g 0 (x )), h 6= 0
(9.29)
(x1 )
= 0, 1 g(x ) = 0 et 1 f (x ) =
m
X
j 1 gj (x ) = 0
j=1
Ainsi par (9.29), F 00 (x1 ) est une forme quadratique definie positive sur E1 .
On deduit alors de la proposition 8.6 que x1 est un point de minimum local
strict de F et donc un point de minimum local strict de f sur A .
2
123
Chapter 10
Problems with equality and
inequality constraints
10.1
Notations
xA
(10.1)
avec:
A := {x : gj (x) = cj , j = 1, ...., m, , ki (x) di , i = 1, ...., p}
(10.2)
10.2
Preliminaries
(10.3)
(10.4)
(10.5)
(10.6)
(10.7)
(10.8)
Par construction, notons que x(0) = x et avec (10.4), g(x(t)) = c pour t > 0
assez petit. On a alors:
Lemme 10.1 Sous les hypoth`eses precedentes soit x(t) U1 U2 defini par
(10.8) pour t > 0 assez petit, on a:
x(t) = x + t(h + h0 ) + o(t)
et x(t) A pour t > 0 assez petit.
126
Preuve:
On a x1 (t) = x + t(h + h0 ), posons x2 (t) = (x1 (t)) comme x1 (0) = x1 et
est derivable en x1 avec 0 (x1 ) = 0, x2 est derivable en 0 avec:
x 2 (t) = 0 (x1 )(h + h0 ) = 0
donc x2 (t) = o(t) et comme x(t) = (x1 (t), x2 (t)), il vient:
x(t) = (x1 + t(h + h0 ), x2 + o(t)) = x + t(h + h0 ) + o(t).
(10.9)
On sait deja que g(x(t)) = c, il sagit de montrer que x(t) satisfait aussi
les contraintes dnegalite pour t > 0 assez petit, pour cela distinguons les
contraintes saturees des contraintes non saturees en x . Si i
/ I(x ) alors
ki (x ) < di et puisque ki est continue en x = x(0) et x(.) est continue en
t = 0, on a par continuite ki (x(t)) < di pour t > 0 assez petit. Si i I(x )
alors on a ki (x ) = ki (x(0)) = di et avec(10.9) on a:
ki (x(t)) = di + tki (x ) (h + h0 ) + o(t)
par hypoth`ese ki (x ) h 0 et ki (x ) h0 < 0 donc ki (x(t)) di pour
t > 0 assez petit.
2
10.3
127
f (x ) =
m
X
j gj (x )
j=1
i ki (x ).
(10.10)
iI(x )
Preuve:
Soit h verifiant (10.6) et x(t) defini pour t > 0 assez petit par (10.8), dapr`es
le lemme 10.1, on a x(t) A, comme x(0) = x et x(.) est continu en 0 on a
donc pour t > 0 assez petit:
1
(f (x(t)) f (x(0)) 0.
t
(10.11)
(10.12)
(10.13)
Comme (10.13) a lieu pour tout h verifiant (10.6), on deduit (10.10) du lemme
de Farkas. 2
Les reels j et i sont appeles des multiplicateurs de Kuhn et Tucker
associes aux contraintes de (10.1) au point de minimum local x .
Il faut retenir les remarques importantes et utiles en pratique:
si toutes les contraintes sont lineaires, les hypoth`eses de qualification
4. et 5. sont superflues (reprendre la preuve : on na plus besoin du
h0 !)
de meme, si les contraintes dinegalite sont lineaires, lhypoth`ese 5. est
superflue,
si les gradients des contraintes degalite et des contraintes dinegalite
saturees an x forment une famille libre, les conditions de qualification
4. et 5. sont satisfaites (utiliser le lemme 9.2).
Lorsque le probl`eme (10.1) est convexe, la condition (10.10) est suffisante
et assure que le minimum est global.
128
m
X
j gj (x )
j=1
i ki (x ).
(10.14)
iI(x )
f (x) f (x )
i ki (x ).(x x ) +
m
X
j gj (x ).(x x ). (10.15)
j=1
iI(x )
(10.16)
iI(x )
(10.17)
10.4
Lagrangian
On peut aussi formuler les conditions doptimalite KKT, au moyen du lagrangien associe a` (10.1). Lidee est dintroduire des multiplicateurs pour
toutes les contraintes dinegalite dans (10.10), pour tout i on a:
129
soit i
/ I(x ) et i = 0 dans (10.10),
soit i I(x ) et donc ki (x ) di .
ce quon peut resumer par la condition de complementarite entre multiplicateurs et contraintes qui exprime que si une contrainte nest pas saturee le
multiplicateurs associe est nul:
i (ki (x ) di ) = 0 pour tout i {1, ...., p}.
(10.18)
m
X
j (gj (x) cj ) +
p
X
i (ki (x) di ).
(10.19)
i=1
j=1
m
X
j gj (x) +
p
X
i ki (x).
(10.20)
i=1
j=1
j L(x, , ) = cj gj (x)
(10.21)
i L(x, , ) = ki (x) di
(10.22)
et
Ainsi le fait que x A i.e. verifie la contrainte g(x ) = c peut sexprimer
par:
L(x , , ) = 0.
(10.23)
Avec (9.11) et (10.18), la condition de Kuhn et Tucker se traduit par:
x L(x , , ) = 0.
Le theor`eme 10.10 peut donc se reformuler comme suit:
Th
eor`
eme 10.2 Soit x A une solution locale de (10.1) telle que:
1. f est differentiable en x ,
2. g est de classe C 1 au voisinage de x ,
3. ki est differentiable en x pour tout i I(x ),
4. la famille g1 (x ), ....., gm (x ) est libre,
130
(10.24)
x L(x , , ) = 0.
(10.25)
L(x , , ) = 0.
(10.26)
131
Chapter 11
Problems depending on a
parameter
11.1
Comme F est h.c.s., quitte a` extraire a` nouveau, on peut supposer que znj
converge vers une limite z F (x), ainsi g(x) f (x, z) et par continuite de
f , on a:
lim sup g(xn ) = lim f (xnj , znj ) = f (x, z) g(x).
j
Soit maintenant y F (x) tel que g(x) = f (x, y), comme F est h.c.i., il existe
yn F (xn ) telle que yn converge vers y, comme g(xn ) f (xn , yn ), il vient:
lim inf g(xn ) lim inf f (xn , yn ) = f (x, y) = g(x).
n
11.2
Envelope Theorems
133
1
lim inf (v(xt ) v(x)) x f (x, y0 ) h.
t
(11.2)
Similarly
1
1
1
(v(xt ) v(x)) = (f (xt , yt ) f (x, y0 )) (f (x + th, yt ) f (x, yt ))
t
t
t
by the mean-value Theorem, there exists t0 (0, 1) (depending on t) such
that f (x + th, yt ) f (x, yt ) = tx f (xt0 , yt ) h, hence
1
lim sup (v(xt ) v(x)) lim supx f (xt0 , yt ) h.
t
By continuity of x f we thus have
1
lim sup (v(xt ) v(x)) x f (x, y0 ) h.
t
(11.3)
Now let us consider the constrained case, and more precisely let us define
v(x) := max{f (x, y) : g(x, y) = 0}
yRk
where f and g are of class C 1 , g = g1 , ...., gm and the gradients (with respect
to y) of the constraints are linearly independent so that optimal ys satisfy
the Lagrange conditions:
y f (x, y) =
m
X
i y gi (x, y)
i=1
for some (unique) Lagrange multipliers 1 , ...., m . Let us also assume for
simplicity that in a neighbourhood of some x there is an optimal y(x) and
that the optimal mapping x y(x) is of class C 1 . We denote by 1 , ...., m
the Lagrange multipliers for the value x of the parameter
Theorem 11.2 Under the assumptions above, v is differentiable at x and
one has
m
X
i x gi (x, y(x)).
v(x) = x f (x, y(x))
i=1
Proof:
We differentiate v(x) = f (x, y(x)) to get first
v 0 (x) = fx0 (x, y(x)) + fy0 (x, y(x)) y 0 (x)
P
0
by the Lagrange relation fy0 (x, y(x)) =
i giy
(x, y(x)) we then get
X
0
i giy
v 0 (x) = fx0 (x, y(x)) +
(x, y(x)) y 0 (x).
(11.4)
(11.5)
(11.6)
0
i gix
(x, y(x)).
2
In the special case f (x, y) = f (y) and g(x, y) = g(y)x (think of a budget
constraint), the previous result gives xi v(x) = i : the multiplier gives the
marginal impact of xi (an increase on the budget, say) on the value. The
theory of convex duality (see [6]) gives more general results of this kind and
nice interpretations of multipliers in the framework of convex programming.
135
Part IV
Dynamic Optimization
136
Chapter 12
Problems in discrete time
12.1
Examples
12.1.1
138
12.1.2
On consid`ere une economie dans laquelle a` chaque periode un seul bien est
produit servant a` la fois a` la consommation et a` linvestissement. On note
respectivement ct , it , kt , et yt la consommation, linvestissement, le capital et
la production de periode t. On suppose que yt = F (kt ), F etant la fonction
de prodution, et que le capital se deprecie au taux [0, 1]. On a alors;
ct + it = yt = F (kt ), et kt+1 = (1 )kt + it
do`
u lon tire (en posant f (k) := F (k) + (1 )k):
ct = f (kt ) kt+1 .
On impose evidemment a` ct et kt detre positifs do`
u la contrainte:
0 kt+1 f (kt ).
Finalement on suppose que leconomie maximise lutilite intertemporelle:
t u(ct ).
t=0
12.1.3
t=0
139
12.2
Finite horizon
t=0
12.2.1
(x
),
x
=
x
t t
t+1
t+1
t t
0
t=0
nP
o
T 1
v(1, x) := sup
V
(x
,
x
)
:
x
(x
),
x
=
x
t t
t+1
t+1
t t
1
t=1
.
.
.
.
.
.
v(T 1, x) :=
sup {VT 1 (x, xT ) : xT T 1 (x)} .
et enfin v(T, x) = VT (x) = 0.
Dans ce qui suit nous dirons quune suite (x, x1 , ...., xT ) = (x0 , x1 , ..., xT )
est solution du probl`eme v(0, x) si cette suite est admissible (i.e. verifie les
contraintes du probl`eme) et
v(0, x) :=
T 1
X
Vt (xt , xt+1 ).
t=0
T 1
X
Vt (xt , xt+1 ).
(12.2)
t=0
Supposons que pour une date {1, ..., T 1}, la suite (x , ..., xT ) nest pas
solution du probl`eme v(, x ) alors il existe (z , z +1 , ....zT ) = (x , z +1 , ....zT )
admissible pour le probl`eme v(, x ) telle que:
T 1
X
t=
T 1
X
Vt (zt , zt+1 ).
t=
En definissant alors la suite (admissible pour v(0, x)) (y0 , ..., yT ) par (y0 , ..., yT ) =
(x, x1 , ..., x , z +1 , ..., zT ), on obtient avec (12.2):
v(0, x) <
T 1
X
Vt (yt , yt+1 )
t=0
141
(12.3)
(12.4)
Preuve:
Evidemment, il suffit detablir (12.3). Soit y 0 (x) et (y1 , ..., yT ) =
(y, ..., yT ) telle que yt+1 t (yt ) pour t 1, la suite (x, y1 , ..., yT ) etant
admissible pour v(0, x) il vient:
v(0, x) V0 (x, y) +
T 1
X
Vt (yt , yt+1 )
t=1
T 1
X
Vt (xt , xt+1 )
t=0
On a ainsi:
sup{V0 (x, y) + v(1, y) : y 0 (x)} V0 (x, x1 ) + v(1, x1 )
T 1
X
t=0
12.2.2
Backward induction
(12.5)
yt (xt )
Preuve:
Application immediate des propositions 12.1 et 12.2. 2
Notons quen pratique pour resoudre les equations de Bellman, on a souvent deja calcule les solutions des probl`emes statiques apparaissant dans
(12.3).
Il convient de bien retenir la demarche en deux etapes de ce chapitre:
1. on determine les fonctions valeur par backward induction,
2. on determine ensuite les politiques optimales (sil en existe) en resolvant
la suite de probl`emes statiques (12.5) qui consistent a` determiner les
successeurs optimaux x1 de x0 puis les successeurs optimaux de x1 etc...
Enfin notons que la methode presentee ici (la meme que celle adoptee
dans le probl`eme du plus court chemin) est robuste car elle permet aussi
de resoudre tous les probl`emes intermediaires poses a` nimporte quelle date
intermediaire avec nimporte quelle condition initiale a` cette date.
143
12.3
Infinite horizon
(12.6)
Linterpretation de A, et V est la meme que precedemment et ]0, 1[
est un facteur descompte. La fonction v(.) est la fonction valeur de (12.6),
son argument est la condition initiale x A. Deux differences sont a` noter
avec le cas de lhorizon fini du chapitre precedent. Tout dabord ici, le crit`ere
est la somme dune serie et les politiques optimales sont des suites (infinies),
des precautions sont donc a` prendre dune part pour la definition meme du
crit`ere mais surtout concernant lexistence de solutions. En outre, lapproche
backward induction du chapitre precedent na pas de sens ici; cest la raison
pour laquelle on se limite ici a` un cadre plus stationnaire ( ne depend pas
de t et payoff instantane de la forme t V (xt , xt+1 )) quau chapitre precedent.
Un element important dans letude de (12.6) est le lien etroit entre v la
valeur du probl`eme et lequation fonctionnelle suivante appelee equation de
Bellman:
w(x) = sup {V (x, y) + w(y)}
(12.7)
y(x)
12.4
Dans tout ce chapitre, nous supposerons que A est un espace metrique compact, nous noterons d la distance sur A. Nous ferons lhypoth`ese de non
vacuite: (x) 6= pour tout x A. Nous supposerons en outre que V (., .)
est continue sur A A. Pour x A, nous noterons Adm(x) lensemble des
suites admissibles issues de x:
Adm(x) := {e
x = (xt )t0 : x0 = x, xt A, xt+1 (xt ) t 0}
(12.8)
Pour x
e = (xt )t0 Adm(x) ou plus generalement x
e = (xt )t0 AN , on
pose:
X
u(e
x) :=
t V (xt , xt+1 ).
t=0
Nous aurons aussi besoin dhypoth`eses de continuite sur la correspondance (la dynamique), ceci necessite les definitions suivantes:
D
efinition 12.1 Soit X et Y deux espaces metriques et soit F une correspondance a
` valeurs compactes non vides de X dans Y , et soit x X on
dit que:
1. F est hemi-continue superieurement (h.c.s.) en x si pour toute suite
xn convergeant vers x dans X et pour toute suite yn F (xn ), la suite
yn admet une valeur dadherence dans F (x).
2. F est hemi-continue inferieurement (h.c.i.) en x si pour tout y F (x)
et pour toute suite xn convergeant vers x dans X, il existe yn F (xn )
telle que yn converge vers y dans Y .
3. F est continue si F hemi-continue superieurement et inferieurement
en chaque point de X.
Dans le cas o`
u X et Y sont des metriques compacts, dire que F est h.c.s.
revient simplement a` dire que son graphe:
graph(F ) := {(x, y) : x X, y F (x) }
est ferme. Noter que dans ce cas F est automatiquement a` valeurs compactes.
Remarquons que dans le cas univoque i.e. F (x) = {f (x)} on a equivalence
entre F est h.c.s., F est h.c.i et f est continue. Si X = Y = R et
F (x) = [f (x), g(x)] avec f et g deux fonctions continues telles que f g alors
F est une correspondance continue. Pour fixer les idees, il est bon davoir en
memoire les exemples suivants:
La correspondance F de R dans R definie par:
si x < 0
0
[0, 1] si x = 0
F (x) =
1
si x > 0
est h.c.s. mais pas h.c.i. en 0.
La correspondance G de R dans R definie par:
0
si x 0
G(x) =
[1, 1] si x > 0
12.4.1
Existence
X
1
d(ut , vt ).
d (u, v) :=
2t
t=0
Il est clair que d est a` valeurs finies et definit une distance sur A . On
a alors le resultat classique de compacite (le lecteur averti reconnaitra un
corollaire du theor`eme de Tychonov) suivant:
Proposition 12.4 (A , d ) est compact.
Preuve:
La demonstration est classique (compacite de A et extraction diagonale), le
detail en est donc laisse au lecteur. 2
Lemme 12.1 Pour tout x A, Adm(x) est un compact de (A , d ).
Preuve:
Avec la proposition 12.4, il suffit de verifier que Adm(x) est un ferme de
(A , d ). Soit donc x
en une suite de Adm(x) convergeant vers x
e = (xt )t0
A pour la distance d . Pour tout t N, x
ent converge vers xt dans A quand
n +, en particulier x0 = x. Comme est de graphe ferme et que
ent+1 ) graph() on en deduit que xt+1 (xt ) ce qui prouve finalement
(e
xnt , x
que Adm(x) est ferme. 2
Lemme 12.2 u est continue sur (A , d ).
Preuve:
Soit x
e = (xt )t0 A et > 0. Comme V est continue et A A compact,
il existe N tel que
max |V |
t
(12.9)
AA
4
t=
(12.10)
d(xt , y) + d(xt+1 , z) 0 |V (xt , xt+1 ) V (y, z)|
2
Ainsi en posant := 0 2 1 pour tout ye A tel que d (e
x, ye) on a
|u(e
x) u(e
y)| , ce qui ach`eve la preuve. 2
Des lemmes 12.1 et 12.2, on deduit le resultat dexistence:
Th
eor`
eme 12.1 Pour tout x A, il existe x
e Adm(x) optimale i.e. telle
que: v(x) = u(e
x).
146
12.4.2
On rappelle que la fonction valeur de (12.6) est definie pour tout x A par:
v(x) := sup{u(e
x) : x
e Adm(x)}.
(12.11)
(12.12)
y(x)
12.4.3
Blackwells theorem
On se propose maintenant dexaminer dans quelle mesure lequation de Bellman (12.12) caracterise la fonction valeur. Pour cela, il est utile de definir
B(A) comme lensemble des applications bornees de A dans R. On rappelle
que muni de la norme infinie (kf k := max{|f (x)|, x A}), B(A) est un
espace de Banach et que C 0 (A, R) est un sous-espace ferme (donc complet)
de B(A). Pour f B(A) et x A on definit:
T f (x) := sup {V (x, y) + f (y)} .
(12.13)
y(x)
12.4.4
149
Chapter 13
Calculus of variations
13.1
Introduction
J(x) =
+ g(x(T )) + f (x(0))
dans un ensemble de fonctions de [0, T ] dans Rn jouissant de certaines proprietes de differentiabilite. Le bon cadre fonctionnel est celui des espaces
de Sobolev mais pour ne pas alourdir lexpose ni decourager le lecteur qui
ne serait pas familier de ces espaces, nous nous limiterons par la suite aux
fonctions de classe C 1 ou continues et C 1 par morceaux.
La fonction (t, x, v) 7 L(t, x, v) est appelee Lagrangien, et on supposera
toujours L C 0 ([0, T ] Rn Rn , R), g (respectivement f ) est la fonction de
gain terminal (respectivement initial); on supposera g C 0 (Rn , R) (respectivement f C 0 (Rn , R)).
Une variante est le probl`eme a` conditions aux limites prescrites:
Z T
1
n
sup
L(t, x(t), x(t))dt
probl`eme de la resistance minimale pose par Newton dans ses Principia et qui
reste encore largement ouvert aujourdhui.. ) et de la geometrie (probl`emes
de geodesiques ou dapplications harmoniques par exemple). Quelques grands
noms parmi les mathematiciens des trois si`ecles passes ont marque son developpement:
Euler, Lagrange, Hamilton, Jacobi, Legendre, Weierstrass, Noether, Caratheodory...
Son usage en economie est plus recent, il devient veritablement populaire
a` partir des annees 1960 dans les mod`eles de croissance, dinvestissement,
de gestion de stocks et, plus recemment, en theorie des incitations ou des
ench`eres. En finance, il est aussi dusage courant dutiliser des mod`eles en
temps continu, les dynamiques realistes dans ce cadre ayant un caract`ere
aleatoire, cest plutot le controle stochastique qui est utilise.
13.2
Existence
151
13.3
Considerons le probl`eme:
Z
sup
J(x) =
xC 1 ([0,T ],Rn )
+ g(x(T )) + f (x(0))
(13.2)
On suppose dans tout ce paragraphe que les fonctions (t, x, v) 7 L(t, x, v),
x 7 g(x) et x 7 f (x) sont de classe C 1 . Pour i = 1, ..., n, nous noterons
L
L
et v
et v L et x L les gradients partiels
Lvi , Lxi les derivees partielles v
i
i
de L par rapport a` x et v respectivement (i.e. v L = (Lv1 , ..., Lvn )0 , x L =
(Lx1 , ..., Lxn )0 ).
Proposition 13.1 Soit x C 1 ([0, T ], Rn ), alors si x est solution de (13.2),
on a
1. x est solution des equations dEuler-Lagrange:
d
[v L(t, x(t), x(t))]
dt
(13.3)
(13.5)
h(t)]dt
(13.6)
0
0
0
+g (x(T )).h(T ) + f (x(0)).h(0)
152
h(t)]dt
(13.7)
0
0
0
+g (x(T )).h(T ) + f (x(0)).h(0) = 0
Soit
En := {h C 1 ([0, T ], Rn ) : h(0) = h(T ) = 0}
(13.8)
h(t)]dt
=0
(13.9)
0
Le Lemme de Dubois-Reymond rappele plus bas implique donc que pour tout
i = 1, ..., n, on a:
d
[Lv (t, x(t), x(t))]
dt i
(13.10)
=0
(13.11)
on deduit ainsi aisement (13.4) de larbitrarite de h dans (13.11).
Il nous reste a` verifier que (13.3) et (13.4) sont suffisantes dans le cas
concave. Soit x C 1 ([0, T ], Rn ) qui verifie les equations dEuler-Lagrange
(13.3) et les conditions de transversalite (13.4) et y C 1 ([0, T ], Rn ). Par
concavite on a:
Z T
J(y) J(x)
[x L(t, x(t), x(t)).(y(t)
x(t))]dt
0
Z T
+
[v L(t, x(t), x(t)).(
y(t)
x(t))]dt
= 0.
(h + h)
Preuve:
Pour demontrer 1. 2, il suffit dintegrer par parties. Demontrons 2. 1..
Soit F une primitive de , lhypoth`ese secrit alors:
Z T
( F )h = 0, h E1 .
0
Soit c := T
R
1 T
0
( F ) on a:
Z T
( F c)h = 0, h E1 .
(13.12)
Rt
Il suffit de remarquer que la fonction h(t) := 0 ( F c) appartient a` E1 ,
avec (13.12) il vient donc = F + c ce qui ach`eve la preuve par construction
de F . 2
13.4
An economic example
On a les relations:
= e(t) + rx(t)
avec r le taux dinteret exog`ene (et suppose constant pour simplifier). La
richesse initiale du menage x0 etant donnee, le choix optimal consommationepargne du menage se ram`ene ainsi au probl`eme variationnel:
Z T
sup J(x) :=
et log(S(t) + rx(t) x(t))dt
+ eT V (x(T )) : x(0) = x0
0
(13.13)
154
En supposant en outre que V est concave, les conditions du premier ordre sont
des conditions suffisantes doptimalite. En posant c(t) = S(t) + rx(t) x(t),
ret
d et
(
)=
dt c(t)
c(t)
155
1
.
c(T )
Chapter 14
Optimal control
14.1
Introduction
over some suitable class U of functions u (the control) and yu (the state) is
(indirectly) related to u via the (controlled) differential equation called the
state equation
x(t)
14.2
156
(14.1)
( is a real parameter that will be chosen later on). It is easy, to check that
E equipped with this norm is a Banach Space. Now, we rewrite (14.1) in
integral form as a fixed point problem x = T x where T : E E is defined
by
Z
t
T x(t) := x0 +
0
0
so that
M
kx yk
and then T is a strict contraction as soon as > M . Existence and uniqueness then follows from Banachs fixed point theorem. 2
Let us also recall the following version of the classical Gronwalls Lemma
kT x T yk
|x(t)| a + b
|x(s)|ds, t [0, T ]
(14.3)
then
(14.4)
Proof: R
t
Set y(t) = 0 |x(s)|ds, we then have y by a. Multiplying by ebt we then
have
a
d
(y(t)ebt + ebt ) 0
dt
b
so that
a
a
a
a
y(t) y(0)ebt + ebt = ebt
b
b
b
b
with (14.3), we then get
|x(t)| a + by(t) aebt .
2
Let u U and denote x = yu , we then have
Z t
Z t
|f (s, 0, u(s))|ds
|f (s, x(s), u(s)) f (s, 0, u(s))|ds +
|x(t)| |x0 | +
0
0
Z t
|x(s))|ds
|x0 | + T
max
|f (s, 0, u)| + M
(s,u)[0,T ]K
we deduce from the previous inequality and Gronwalls Lemma that there is
a constant C such that
|yu (t)| C, u U , t [0, T ].
14.3
(14.5)
Pontryagins principle
In the complete proof of Pontryagins principle, we shall use Ascolis compactness theorem that we now state and prove:
Theorem 14.2 Let F be a subset of C 0 ([0, T ], Rd ) such that:
M : |f (t)| M, t [0, T ], f F
(14.6)
and
> 0, > 0 : |f (t) f (s)| , f F , t, s, such that |t s|
(14.7)
then F is relatively compact in C 0 ([0, T ], Rd ) for the uniform norm.
Proof:
Let (fn ) F N , we have to prove that it has a subsequence that converges
uniformly. Let us denote by (tk )k the dense sequence in [0, T ] consisting of
158
all points of the form mT /p with m p and m and p integers. For each
k, the sequence (fn (tk )) is bounded hence admits a convergent subsequence.
By a standard diagonal extraction argument, there is a subsequence (again
denoted fn ) such that (fn (tk )) converges for every k, to some limit denoted
g(tk ). It follows from (14.7) that
> 0, > 0 : |g(tk ) g(tl )| , k, l, such that |tk tl | . (14.8)
If t [0, T ] and (tkn )n converges to t, it follows from (14.8) that g(tkn ) is a
Cauchy sequence hence has some limit, moreover, again by (14.8), this limit
does not depend on the approximating sequence (tkn ), we then simply denote
by g this limit (which is continuous by (14.8)). Let > 0, there is a > 0
such that for every t and s such that |t s| , one has
|fn (t) fn (s)| /3, |g(t) g(s)| /3.
Let p be such that T /p , and N be large enough so that for all n N
and all m = 0, ...., p one has |fn (mT /p) g(mT /p)| /3. Now let n N
and t [0, T ], and let m be such that |t mT /p| , we then have
|fn (t) g(t)| |fn (t) fn (mT /p)| + |fn (mT /p) g(mT /p)| + |g(mT /p) g(t)|
/3 + /3 + /3 = .
This prove s that fn converges uniformly to g. 2
Our aim now is to give necessary optimality conditions for the optimal
control problem
Z T
sup J(u) :=
L(t, yu (t), u(t))dt + g(yu (T ))
(14.9)
uU
= Dx f (s, x(s), u(s))z(s) on (t, T ], z(t) = f (t, x(t), v) f (t, x(t), u(t)).
(14.10)
Proof:
First, by construction z = 0 on [0, t ) so that z converges to 0 on [0, t).
Step 1: z is uniformly bounded.
For s t, we have:
Z
1 s
z (s) = I() +
(14.11)
[f (, x (), u()) f (, x(), u())]d
t
where
Z
1 t
[f (, x (), v) f (, x(), u())]d.
I() =
t
Thanks to (14.5), the integrand in I() is bounded and then |I()| M0 for
some constant M0 . With (14.2), we thus have
Z
Z s
1 s
|z (s)| M0 +
|z |
|f (, x (), u()) f (, x(), u())|d M0 + M
t
t
with Gronwalls Lemma, we deduce that z is bounded:
|z (s)| M0 eM (st) , s [t, T ].
To shorten notations, we denote by M1 a constant such that |x x| M1
on [0, T ].
Step 2: Convergence of z (t).
Let us write
Z
1 t
[f (s, x(s), v) f (s, x(s), u(s))]ds
z (t) =
t
Z
1 t
[f (s, x (s), v) f (s, x(s), v)]ds
+
t
160
0+
(14.12)
(14.13)
This proves that z solves (14.10). Finally, the system (14.10) admits z as
unique solution (Cauchy-Lipschitz), together with the relative compactness
of the family z , this implies that the whole family z converges uniformly to
z on [t, T ] as 0+ and the proof is complete. 2
Now we use the optimality of u to deduce:
Z
1
1 t
0 (J(u ) J(u)) =
[L(s, x , v) L(s, x, u))]ds
t
Z
1 T
1
+
[L(s, x , u) L(s, x, u))]ds + (g(x (T ) g(x(T ))
t
Using lemma 14.1, and defining z as in Lemma 14.1 as the solution of the
linearized equation (14.10), we also have
Z
Z T
1 T
[L(s, x , u) L(s, x, u))]ds =
x L(s, x(s), u(s)) z(s)ds
lim
0+ t
t
(14.16)
and
1
(14.17)
lim+ (g(x (T ) g(x(T )) = g(x(T )) z(T ).
0
we thus have
RT
0 L(t, x(t), v) L(t, x(t), u(t) + t x L(s, x(s), u(s)) z(s)ds
+g(x(T )) z(T ).
(14.18)
To make the previous optimality condition (14.18) tractable, we introduce
the so-called adjoint (or co-state) variable p as the solution of:
p(s)
(14.19)
(where AT denotes the transpose of the matrix A and we recall the identity
AT p z = p Az) together with the transversality (terminal) condition:
p(T ) = g(x(T ))
(14.20)
(use the same arguments as in the proof of Theorem 14.1 for the existence and
uniqueness of the solution of (14.19)-(14.20)). Using the equations defining
p and z, we have:
Z T
g(x(T )) z(T ) = p(T ) z(T ) = p(t) z(t) +
p z + p z
t
Z T
= p(t) z(t) +
p(s) (Dx f (s, x(s), u(s))z(s)) ds
t
Z T
(14.22)
It is therefore natural to introduce the so-called pre-Hamiltonian function H
: [0, T ] Rd K Rd R by:
H(t, x, u, p) := L(t, x, u) + p.f (t, x, u), (t, x, u, p) [0, T ] Rd K Rd .
(14.23)
d
d
We then define the Hamiltonian H: [0, T ] R R R by:
H(t, x, p) := sup {L(t, x, u) + p.f (t, x, u)} = sup H(t, x, u, p).
uK
(14.24)
uK
x(s)
= p H(s, x(s), u(s), p(s))
and, more interestingly, the adjoint equation (14.19) can be rewritten as
p(s)
14.4
(14.25)
(14.26)
Le principe de la programmation dynamique dit que: si un controle u est optimal entre 0 et T pour la condition initiale x alors il est aussi
optimal entre t et T avec la condition initiale yu (t) a` cette date. Ce principe
se traduit ici par la relation suivante:
Proposition 14.1 La fonction valeur verifie pour tout x Rn et tout t
[0, T ]:
Z t
(14.27)
v(0, x) = sup{ L(s, yu (s), u(s))ds + v(t, yu (t)) : y(0) = x}
u
14.5
Hamilton-Jacobi-Bellman equations
En utilisant le principe de la programmation dynamique et en etudiant comment varie la valeur entre deux dates proches t et t + t et deux etats
proches, nous allons voir quune autre propriete de v est quelle est solution
dune equation aux derivees partielles du premier ordre appelee equation
dHamilton-Jacobi-Bellman:
Proposition 14.2 Supposons v reguli`ere, alors v est solution de lequation
dHamilton-Jacobi-Bellman (H.J.B.):
t v(t, x) + H(t, x, x v(t, x)) = 0.
(14.28)
o`
u H est lHamiltonien defini par (14.24).
Preuve:
Pour simplifier, nous supposerons quil existe des commandes et des trajectoires optimales, i.e. que le sup dans (14.25) est atteint. Soit [t, t + t]
[t, T ], v0 V et soit z(.) la solution de:
z(s)
= f (s, z(s), v0 )
z(t) = x
164
(14.29)
14.6
Nous allons voir pour finir ce chapitre que si lon connait une solution (reguli`ere)
du probl`eme aux limites pour lequation dH-J-B:
t w(t, x) + H(t, x, x w(t, x)) = 0 sur [0, T ] Rn
(14.30)
w(T, x) = g(x) x Rn
alors on peut en deduire une commande optimale en feedback. Une commande
en feedback est une fonction qui ne depend pas seulement du temps mais aussi
de letat du syt`eme, cest donc une fonction U de [0, T ] Rn a` valeurs dans
lespace des controles V . Pour un controle en feedback U (., .), la dynamique
de la variable detat est regie par lequation differentielle ordinaire:
y(t)
= f (t, y(t), U (t, y(t))), y(0) = x.
(14.31)
Notons quil est assez naturel de sinteresser a` des controles en feedback i.e.
dependant de letat instantane du syst`eme: en pratique, on conduit sa voiture
en fonction de sa position et de sa vitesse plutot quen fonction de lheure
quil est...
On dira que le controle en feedback U (., .) est optimal pour (14.9) si
le controle u(t) = U (t, y(t)) est optimal avec y(.) solution du probl`eme de
Cauchy (14.31).
Th
eor`
eme 14.1 Supposons que w est une solution de classe C 1 du probl`eme
aux limites (14.30), et que pour tout (t, x) [0, T ] Rn , il existe U (t, x) V
solution du probl`eme:
sup{L(t, x, u) + x w(t, x).f (t, x, u)}
uV
(14.32)
y est une trajectoire optimale pour (14.9) et u (t) = U (t, y(t)) est un contr
ole
optimal. Enfin, w est la fonction valeur du probl`eme (14.9).
Preuve:
Montrons que u (t) = U (t, y(t)) fourni par le theor`eme est un controle optimal. Pour (t, x, u) [0, T ] Rn V posons:
F (t, x, u) := L(t, x, u) + x w(t, x).f (t, x, u) + t w(t, x).
166
(14.33)
(14.34)
(14.35)
=
Z T
t w(s, yv (s))ds+
0
167
Bibliography
[1] Aubin, LAnalyse non lineaire et ses motivations economiques, Masson,
Paris.
[2] G. Barles, Solutions de viscosite des equations de Hamilton-Jacobi, Collection Mathematiques et Applications. de la SMAI.
[3] H. Brezis Analyse fonctionnelle, Masson, Paris.
[4] H. Cartan Cours de calcul differentiel, Hermann, Paris.
[5] G. Cohen Convexite et Optimisation, Cours de lENPC, disponible a`
http://www-rocq.inria.fr/metalau/cohen/
[6] Ekeland, Temam, Analyse convexe et problmes variationnels, DunodGauthier- Villars.
[7] J.-B. Hiriart Urruty Optimisation et analyse convexe, PUF, Paris.
[8] J.-B. Hiriart Urruty, C. Lemarechal Convex Analysis and Minimization
Algorithms, tomes I et II, Springer-Verlag, Berlin.
[9] A. Mas-Colell, M. Whinston and J. Green, M icroeconomic Theory,
Oxford, UK, Oxford Univ. Press 1995. Mathematical appendix.
[10] N. Stokey, R. E. Lucas, E. C. Prescott, Recursive methods in economic
dynamics, Harvard Univ. Press.
168