Cours Optimisation
Cours Optimisation
Cours Optimisation
Mme Y.KHEMIES
1
Définition du problème d’optimisation
2
Définition du problème d’optimisation
On distingue:
Le minimum (ou maximum) relatif ou local
Le minimum (ou maximum) absolu ou global
Maximum
global
Maximum
local
Minimum
Minimum
local
global
3
Caractéristiques de la fonction objectif :
Plusieurs concepts permettent de caractériser la fonction objectif. Il est important
d’identifier les caractéristiques de celle-ci car chaque algorithme d’optimisation est
basé sur ses hypothèses spécifiques.
1. Fonctions convexes et concaves
Un ensemble E est dit convexe si pour M1 et M2 deux points quelconques de E,
tous les points du segment [M1,M2] appartiennent à E.
Exemple
• Le disque est un ensemble convexe :
5
6
2. Fonctions différentiables: du premier ordre
Exemple : soit
Le gradient de f est donné par :
7
Matrice gradient:
8
3. Fonctions différentiables: du deuxième ordre
Matrice hessienne :
La fonction notée:
Exemple : soit
9
Théorème : convexité par le hessien
Soit f une fonction deux fois différentiable. Si est semi définie positive
(respectivement définie positive pour tout x, alors f est convexe.
Exemple:
Classifiez f(x) en utilisant le tableau
10
4. Linéarité et non linéarité
• Une fonction f est dite linéaire si elle s’écrit :
11
Résolution du problème d’optimisation:
12
Méthodes de résolution du problème d’optimisation
Il existe de nombreuses sortes de problèmes d’optimisation. Certaines caractéristiques
permettent de les distinguer :
1. comportent-ils des contraintes ?
2. Les fonction en jeu sont-elles linéaires ? Sont-elles quadratiques ? Sont-elles convexes
3. Les domaines de définition des fonctions sont-ils continus ou discrets ?
Tous ces problèmes possèdent des structures différentes et ne peuvent être traités de la
même façon. Le présent cours se focalise sur les problèmes d’optimisation continue et
non linéaire. Ceux-ci sont habituellement définis par un ensemble X appelé ensemble de
solutions admissibles et une fonction objectif
f:X→R
Le problème consiste à trouver l’élément de X dont le coût est minimal (ou maximal, mais
cela ne change rien à la difficulté ou aux types de méthodes employées). Cela peut être
formulé de manière plus concise comme suit :
minimiser f(x)
sous contrainte x ∈ X
Nous considérons ici les méthodes permettant de résoudre un problème d’optimisation sans
contraintes (appelées aussi parfois méthodes d’optimisation directe),
soit le problème minimiser f(x) avec x ∈ Rn pour lequel nous commencerons par décrire les
méthodes suivantes :
I. Les méthodes classiques
II. Les méthodes itératives
1. Les méthodes basées sur le gradient
2. Les méthodes de Newton
3. Les méthodes utilisant des directions conjuguées
4. La méthode du simplexe (ou méthode de Nelder et Mead)
14
I. Méthodes classiques:
Résultat 1: si le signe de la dérivée est positif puis devient négatif quand x croit, alors
l’optimum est un maximum de la fonction.
Si le signe de la dérivée est négatif puis devient positif quand x croit, alors l’optimum
est un minimum.
Exemple 1 :
Déterminons la nature de l’optimum en utilisant le résultat 15
Exemple 2:
un fabriquant de postes de télévisions produit q postes par semaine à un cout total de
Conditions d’optimalité
16
17
Exemple 1:
Une firme aéronautique fabrique des avions qu’elle vend sur deux marchés étrangers.
Soit q1 le nombre d’avions vendus sur le premier marché et q2 le nombre d’avions
vendus sur le deuxième marché. Les fonctions de demande dans les deux marchés
respectifs sont:
p1=60-2q1
p2=80-4q2
P1 et p2 sont les deux prix de vente. La fonction de cout total de la firme est :
C= 50+40q
Ou q est le nombre total d’avions produits. Il faut trouver le nombre d’avions que la
firme doit vendre sur chaque marché pour maximiser son bénéfice.
18
Méthode du gradient
19
20
Exemple
21
Méthodes d’optimisation non linéaire avec contraintes
où les fonctions f, g et h sont différentiables au moins une fois, et f est typiquement non-linéai
Cependant nous étudierons le cas où g et h sont linéaires avec un intérêt tout particulier. Nous
nous intéresserons précisément
dans ce chapitre aux problèmes
(PCE) problème avec contraintes d’égalité,
(PCI) problème avec contraintes d’inégalité,
22
Problème avec contraintes d’égalité
23
La méthode des multiplicateurs de Lagrange consiste à construire une fonction auxiliaire
F(x,y,λ), appelée Lagrangien, définie ainsi:
Résultat:
Alors, si en ce point
Det(H)<0 → minimum au point P
Det(H)>0 → maximum au point P
25
La méthode des multiplicateurs de Lagrange peut se généraliser à l’optimisation d’une
fonction à n variables f(x1, ......., xn) soumise à k contraintes : gj(x1, ......., xn)=0 , j=1,…….., k
où 1≤k≤n.
Exemple :
Trouvez les extrema de la fonction objectif:
Sous la contrainte:
26
Problème avec contraintes d’inégalité
27
Conditions de Kuhn et Tucker
Exemple
Résoudre le problème suivant:
28
29
30
31
32
33
34