M2 CO Corrige Exam2 2223
M2 CO Corrige Exam2 2223
M2 CO Corrige Exam2 2223
H : R × R × {0, −1} × R → R
(x, p, p0 , u) 7→ −p0 xu + p(αx − ux).
Les conditions d’optimalité fournissent l’existence d’un couple non trivial (p0 , p) avec p abso-
lument continu, tel que
ẋ = ∂p H = αx − ux
ṗ = −∂x H = p0 u − αp + up.
On a de plus la condition de maximisation instantanée : u(t) résout le problème
Puisque p est continue et que p(T ) = 0, il existe un voisinage de T inclus dans {p < 1}, et
d’après les conditions d’optimalité, on a nécessairement u = umax sur cet intervalle.
(c) D’après l’équation adjointe, on a p0 (t) = (p(t) − 1)u(t) − αp(t). Ainsi, si p(t0 ) = 1, alors
p0 (t0 ) = −α. On en déduit que p < 1 après t0 et p > 1 avant t0 . Ainsi, t0 est nécessairement
isolé et |{p = 1}| = 0. On en déduit que le contrôle optimal u est bang-bang, égal à 0 ou umax
p.p.
(d) Sur un intervalle de l’ensemble {u = 0}, on a p0 = −αp et p > 1 > 0 d’après la question (b),
donc p est décroissante.
(e) On a déjà vu que u est bang-bang. Il reste à étudier le nombre de commutations. Supposons
l’existence de t0 , un point de commutation de {u = umax } à {u = 0}. Alors, on a vu p0 (t0 ) =
−α < 0 et ainsi, p < 1 après t0 ce qui signifie que u = umax après t0 . On obtient une
contradiction. Par conséquent, on en déduit qu’il existe au plus un point de commutation.
1
4. Algorithme numérique. Le contrôle optimal s’écrit donc u = umax 1[s,T ] avec s ∈ [0, T ]. On
peut ainsi chercher à résoudre le problème d’optimisation en dimension un :
max J(umax 1[s,T ] ).
s∈[0,T ]
solution faible dans H01 (Ω). De plus, en appliquant le théorème de régularité elliptique, on montre
que cette solution est en réalité dans H 2 (Ω) ∩ H01 (Ω) et qu’elle est forte.
2. (a) et (b). Soit (vn ), une suite minimisante. Puisque chaque terme de (vn ) est uniformément
borné dans L2 (par M 2 |Ω|), qui est un espace de Hilbert. Par conséquent, à sous-suite près, (vn ),
converge faiblement vers un élément v ∗ dans L2 . De plus, un passage à la limite dans l’inégalité
−M ≤ vn ≤ M , satisfaite p.p. dans Ω fournit v ∗ ∈ L∞ (Ω; [−M, M ]).
Par minimalité, (J(vn )) converge vers inf L∞ (Ω;[−M,M ]) J et chaque terme est uniformément borné.
Puisque J(vn ) est une somme de deux termes positifs, chacun d’eux est borné, en particulier
(k∇yvn kL2 ). Par conséquent (la norme L2 du gradient est une norme équivalente à la norme
H 1 dans H01 ), la norme H 1 de yvn est uniformément bornée. D’après le théorème de Rellich-
Kondrachov, il existe y ∗ ∈ H01 et une sous-suite (vnk ) tels que la suite (yvnk ) converge vers y ∗ ,
faiblement dans H 1 et fortement dans L2 .
3. On confond abusivement (vn ) et ses sous-suites. Soit z ∈ H01 (Ω). En utilisant la formulation
variationnelle de (E), on a Z Z
∇yvn · ∇z = (f + vn 1ω )z.
Ω Ω
Les résultats de convergence de la question précédente permettent de passer à la limite et assurent
que y ∗ est solution faible du problème (E) associée à v ∗ . De plus, d’après les résultats de convergence
établis dans la question précédente, on a
Z Z Z Z
lim inf 2
|∇yvn | ≥ ∗ 2
|∇y | et lim 2
y vn = y∗ 2 ,
n→+∞ Ω Ω n→+∞ Ω Ω
1
en utilisant la semi-continuité inférieure de la norme H pour la topologie faible. On en déduit
que J(v ∗ ) ≤ inf L∞ (Ω;[−M,M ]) J, cette dernière inégalité est donc une égalité et l’existence s’ensuit.
4. En utilisant la composition des différentielles, on montre que
J(v ∗ + ε(v − v ∗ )) − J(v ∗ )
Z
DJ(v ∗ ) · (v − v ∗ ) = lim = (∇yv∗ · ∇z + yv∗ z)
ε&0 ε Ω
2
6. Il est possible ici d’utiliser un algorithme de gradient projeté : soit ρ > 0, le pas de la méthode
(qui peut éventuellement être choisi variable).
• Initialisation : on se donne u0 ∈ L∞ (Ω; [−M, M ]).
• Iteration k : uk ∈ L∞ (Ω; [−M, M ]) est connu. On détermine y k et pk , les solutions respectives
des EDP
−∆y k = f + uk 1ω (x) dans Ω −∆pk = −∆y k + y k dans Ω
k et
y =0 sur ∂Ω, pk = 0 sur ∂Ω,
On pose
uk+1 = Π[−M,M ] (uk − ρ1ω pk ),
où Π[−M,M ] désigne l’opérateur de projection défini par Π[−M,M ] : u 7→ min{max{−M, u}, M }.
• Arrêt : lorsque kuk+1 − uk kL2 suffisamment petit (par exemple).