f f x, y x y x y - α, β f x, y α x, y β x, y - f: − − ∈ × ≥ k k ∈ k k

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 5

1

UNIVERSITE Joseph KI-ZERBO Année 2023-2024


UFR ST
M1S2 INFO
TD DE RO

Exercice 1. On considère la fonction f définie sur R2 par

f (x, y) = x4 + y 4 − 2(x − y)2 .

1. Montrer qu’il existe (α, β) ∈ R+ × R (et les déterminer) tels que

f (x, y) ≥ αk(x, y)k2 + β

pour tous (x, y) ∈ R2 , où la notation k.k désigne la norme euclidienne de R2 . En déduire que le
problème
inf f
(x,y)∈R2

possède au moins une solution.


2. La fonction f est-elle convexe sur R2 ?
3. Déterminer les points critiques de f , et préciser leur nature (minimum local, maximum local,
point-selle, ...). Résoudre alors le problème (P).

Exercice 2. Soit f : Rn → R une fonction convexe deux fois différentiable. On suppose qu’il existe M
tel que
∀x, h ∈ Rn h∇2 f (x)h, hi ≤ M khk2 , en particulier Ad 6= 0.
autrement dit k∇2 f (x)kM(R) ≤ M
1. Montrer que pour tous x, y ∈ Rn ,
M
f (y) ≤ f (x) + h∇f (x), y − xi + ky − xk2
2
M
2. Pour x fixé on pose g(y) = f (x) + h∇f (x), y − xi + ky − xk2 . Montrer que g admet un unique
2
minimum y ∗ sur Rn et calculer la valeur minimale de g.
3. On suppose que f admet un minimum global en x∗ qui vaut p∗ . Montrer que pour tout x ∈ Rn
1
p∗ ≤ f (x) − k∇f (x)k2 .
2M

Exercice 3. On considère la fonction f : R2 → R définie par

f (x1 , x2 ) = 2x21 + x22 − x1 x2 − 3x1 − x2 + 4.

1. Montrer qu’il existe un unique x tel que x = min f (x)


x∈R2
2. Déterminer x.
3. Calculer le premier itéré donné par l’algorithme du gradient à pas fixe (GPF) et du gradient à
(0) (0)
pas optimal (GPO), en partant de (x1 , x2 ) = (0, 0), pour un pas de α = 0, 5 dans le cas de
GPF.

UFR SEA / BURKINA FASO I. ZABSONRE ©2024


2

Exercice 4. Soient n, p ∈ N deux entiers non nuls. Soient A ∈ Mp,n (R) une matrice rectangulaire,
b ∈ Rp un vecteur. On définit la fonction f : Rn → R par
1
f (x) = kAx − bk2 .
2
Attention on utilisera la même notation pour la norme et le produit scalaire dans Rn et dans Rp , mais
les vecteurs ne sont a priori pas de la même taille !
1. Montrer que f est une fonctionnelle quadratique et préciser la matrice carrée A0 ∈ Mn (R), le
vecteur b ∈ Rn et la constante c ∈ R associés à f .
2. Donner l’expression du gradient ∇f (x) et de la matrice hessienne ∇2 f (x) de f en tout point
x ∈ Rn (on pourra se référer à un résultat du cours plutôt que de faire les calculs).
3. Montrer que f est convexe.
4. Montrer que f est strictement convexe si et seulement si ker(A) = {0}.
5. Soit x ∈ Rn tel que ∇f (x) 6= 0. Rappeler la définition d’une direction de descente d ∈ Rn au
point x et montrer que d ∈ Rn est une direction de descente si et seulement si

hAx − b, Adi < 0, en particulier Ad 6= 0.

6. Soit x ∈ Rn tel que ∇f (x) 6= 0 et d une direction de descente au point x. Montrer que le
problème d’optimisation
inf f (x + td).
t∈R

admet une unique solution donnée par

h∇f (x), di
t∗ = − .
kAdk2

Exercice 5.
1. Soit n ∈ N∗ . On désigne par h; i le produit scalaire euclidien de Rn . Soit A une matrice symé-
trique définie positive, b ∈ Rn et c ∈ R. On considère le problème d’optimisation quadratique
1
inf J(x) avec J(x) = hAx, xiet et K = {x ∈ Rn : hx, bi = c}.
x∈K 2
Proposer une approche numérique de résolution que vous décrirez très précisément. On explici-
tera notamment l’étape de modélisation et l’algorithme retenu.
2. Soit k > 0. On définit sur R2 la fonction appelée Rosenbrock banana, par la relation

f (x, y) = (x − 1)2 + k(x2 − y)2 .

On souhaite minimiser f sur R2 à l’aide de la méthode du gradient à pas optimal à partir de


l’initialisation x0 = (0, 0).
(a) Décrire cet algorithme. Montrer qu’il existe un choix optimal de pas à la première itération
et qu’il appartient à ]0, 1[.
(b) De façon plus générale, comment feriez-vous pour déterminer numériquement le pas optimal
à chaque itération ?
(c) À votre avis, quel type de problème numérique rencontre cet algorithme lorsque k prend des
valeurs trop grandes ?

UFR SEA / BURKINA FASO I. ZABSONRE ©2024


3

Exercice 6. Déterminer les extrema (locaux et globaux) des fonctions f suivantes sur leur domaine
de définition sous la contrainte g = 0.
1. f (x, y, z) = x − y + z, g(x, y, z) = x2 − y 2 + z 2 − 4
2. f (x, y) = xy, g(x, y) = x2 + y 2 − x − y.
3. f (x, y) = ln(x − y), g(x, y) = x2 + y 2 − 2.
x2 y2
4. f (x, y) = x2 + y 2 , g(x, y) = − .
4 16
5. f (x, y) = 2x + y, g(x, y) = x2 + xy − y 2 − 1.
1 1 1 1 1
6. f (x, y) = + , g(x, y) = 2 + 2 − .
x y x y 2
7. f (x, y) = x + y + (y − x) , g(x, y) = x2 + y 2 + 2y − 2x − 6.
2 2 2

Exercice 7. On considère le problème suivant :

 Minimiser J(x, y) = x3 y

(P ) :
sous les contraintes x3 − y − 1 = 0.

1. Résoudre (P) en utilisant la méthode des multiplicateurs de Lagrange.


2. Retrouver le résultat en se ramenant à la minimisation sans contrainte d’une fonction d’une
variable réelle.
Exercice 8. Une grandeur économique Y dépend de trois autres grandeurs strictement positives x1 , x2 , x3 .
On se propose de résoudre la question de maximisation de y de la valeur Y sachant les informations
 2
 y = f (x1 , x2 , x3 ) = x1 x2 x3

 sous les contraintes 1 x2 + 2x2 + 2x2 = 8.



2 1 2 3


1. Montrer que (x∗ , λ∗ ) = (2, 1, 2, 1) est une solution évantuelle de ce problème après la résolution
des conditions de 1er ordre.
2. Vérifier si la condition de la méthode du lagrangien est remplie.
Exercice 9. Un consommateur qui dispose d’un budget s’élevant à 140um choisit entre trois biens 1,
2 et 3 ayant tous le même prix unitaire égale à 1um. Le bien 1 est rationné à 40 unités physique. Il est
néammoins disponible sur le marché parallèle au double de son prix régulier. La fonction d’utilité qui
représente l’attitude du consommateur à l’égard des trois biens est

U (x) = 4 ln x1 + 2 ln x2 + ln x3 .

1. Poser et résoudre le problème d’optimisation de ce consommateur.


2. Evaluer selon deux optiques différrentes le dommage subi par le consommateur à cause de la
décision de rationnement.
Exercice 10. On cherche à calculer la projection d’un point y ∈ R2 sur l’ensemble

C = {x ∈ R2 : x21 ≤ x2 }.

1. Rappeler l’énoncé du théorème de projection sur un convexe.


2. A quel ensemble géométrique correspond C ? Faire une représentation graphique de C.

UFR SEA / BURKINA FASO I. ZABSONRE ©2024


4

3. Soit g : E → R une fonction, où E est un espace vectoriel, et Cg = {x ∈ E : g(x) ≤ 0}.


Montrer que si g est convexe alors Cg est convexe.
4. Utiliser le résultat précédent pour montrer que C est convexe.
5. Montrer que pour tout y ∈ R2 le problème de projection sur C admet une solution unique y ∗ et
écrire ce problème sous la forme d’un problème d’optimisation sous contrainte inégalité d’une
fonctionnelle J.
6. Appliquer la méthode des multiplicateurs de Lagrange au problème d’optimisation précédent, et
montrer que dans le cas non trivial on se ramène à une équation du troisième degré (on ne
cherchera pas à résoudre cette équation pour y quelconque).
7. Calculer y ∗ dans les cas suivants : y = (−1, 21 ), y = (3, 0), y = (0, 1). Sur le graphique de la
question 1, représenter le segment joignant y à y ∗ dans les trois cas.

Exercice 11.
1. Soit C un ensemble convexe fermé non vide de Rn , et ΠC l’application de projection sur C. Pour
τ ∈ Rn on note Cτ = C + τ = {x + τ, x ∈ C}. Déterminer l’expression de la projection ΠCτ (x)
de x ∈ Rn en fonction de ΠC et de τ .
2. On note D le disque fermé de centre (0, 0) et de rayon 1 dans R2 , et C le disque fermé de centre
(1, 0) et de rayon 1. Rappeler sans démonstration l’expression de la projection sur D, et déduire
de la question précédente l’expression de la projection sur C.
3. Montrer que le problème
 2 2
 Minimiser J(x, y) = ex +y − x + y
(P ) :
pour X = (x, y) ∈ C.

admet une solution unique.


4. Expliciter l’algorithme de gradient projeté pour la résolution de (P).
5. Montrer que J est elliptique (indication : montrer que les valeurs propres λ1 et λ2 de la matrice
2 2
M telle que HJ (x, y) = 2ex +y M sont telles que λ1 +λ2 ≥ 2 et λ1 +λ2 = λ1 λ2 +1, et en déduire
que λ1 ≥ 1 et λ2 ≥ 1, mais que ∇J n’est pas lipschitzienne (regarder par exemple ∇J(2x, 0) −
∇J(x, 0)). Pensez-vous malgré tout que l’algorithme de gradient projeté peut converger ?

Exercice 12. On considère le problème d’optimisation suivant dans

 Minimiser J(x, y) = x2 + y 2 − 4y + 4

(P ) :
sous les contraintes y ≤ 2x2 et y ≥ x2 .

1. Montrer que le problème (P ) admet une solution..


2. Déterminer les points réguliers de C qui vérifient les conditions de Karush-Kuhn- Tucker pour
le problème (P ).
3. En déduire les solutions de (P ).

Exercice 13. Soit α ∈ R fixé. On considère le problème d’optimisation suivant dans

 Minimiser J(x, y) = x2 + (y − α)2


(Pα ) :
sous les contraintes y ≥ 0 et y ≤ x2 .

UFR SEA / BURKINA FASO I. ZABSONRE ©2024


5

1. Montrer que le problème (Pα ) admet au moins une solution.


2. On note C l’ensemble des contraintes. Quels dont les points réguliers de C vis-à-vis des conditions
de Karush-Kuhn-Tucker ?
3. Ecrire les équations de Karush-Kuhn-Tucker pour le problème puis déterminer, en fonction de
la valeur de α, les points réguliers de C solutions de ces équations.
4. En déduire la ou les solutions de (Pα ) en discutant en fonction du paramètre α.
5. Interpréter géométriquement le résultat et faire une figure représentant l’ensemble C et les points
solutions dans les différents cas rencontrés.

Exercice 14. On cherche à résoudre le problème

 Minimiser J(x, y) = x2 + y 2 + z 2 sur K


(P ) :
avec K = {(x, y, z) ∈ R3 : x + y + z = 1 et x2 + y 2 ≤ 1}.

1. Montrer que le problème admet une unique solution.


2. Montrer que la contrainte est qualifiée en tout point.
3. Ecrire les conditions nécessaires d’optimalité du problème et en déduire la solution du problème
(P).

UFR SEA / BURKINA FASO I. ZABSONRE ©2024

Vous aimerez peut-être aussi