Arezki, Rafik

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 105

MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE

SCIENTIFIQUE

UNIVERSITÉ MOULOUD MAMMERI DE TIZI-OUZOU

FACULTÉ DES SCIENCES

DÉPARTEMENT DE MATHÉMATIQUES

MÉMOIRE DE FIN D’ÉTUDES EN VUE DE L’OBTENTION

DU DIPLÔME DE MASTER EN MATHÉMATIQUES

SPECIALITE : RECHERCHE OPERATIONNELLE

OPTION : AIDE A LA DECISION

THÈME :

La programmation mathématique
Avec les méthodes des points intérieurs.
Présenté Par :

Mr AREZKI RAFIK

Devant le jury composé de :

Mr M. MORSLI Professeur UMMTO President

Mr M. CHEBAH M.A.A UMMTO promoteur

Mr K. KASDI M.A.A UMMTO Examinateur

Mr M. OUANES M.C.A UMMTO Examinateur

Mr M. AOUANE M.A.A UMMTO Examinateur

Sutenue le 08 .07.2013 à 11h00


Remerciements

Je remercie tout d’abord


d’abord « DIEU » tout puissant de m’

avoir donné la santé et le courage pour effectuer ce

projet de fin d’étude, dans les meilleures


meilleures conditions

Comme je tiens à adresser toute la reconnaissance et ma

gratitude à : Mon promoteur


promoteur : Mr. M. CHEBBAH pour ses

précieux conseil et son suivi.


suivi.

Je remercie les membres du jury d’avoir


d’avoir accepter

d’examiner mon travail.

Enfin, je tiens à remercier


remercier tous ceux
ceux qui ont contribués

de prés et de loin à la réalisation de ce travail

Rafik AREZKI
Dédicaces

J’ai l’immense plaisir de dédier ce modeste


travail à :
Mes très chers parents :HACENE ET
BAYA.
Mes frère :MOULOUD,TOUFIK et
MOUNIR.
Mes sœurs :mon oiseau
KAHINA,KATIA et NADIA.
MA CHERIE KAHINA
A tous les membres de ma grande
famille,oncles, tantes, cousins et
cousines.
Mes amis(es)
Table de matière

Table de matière

Introduction générale…………………………………………1

Chapitre 01 : Notions de bases :

1.1. Introduction :
1.2. Ensembles et fonctions :
1.2.1. Ensembles convexes ………………………………………….3
1.2.2. Fonctions convexes:…………………………………………...5
1.2.3. Matrices et vecteurs ………………………….………………6
1.2.4. Convergence des suites dans ℝ௡ et dans ℝ……………………9

Chapitre 02: Programmation mathématique :

2.1. Introduction …………………………………………….………10


2.2. Notions de base …………………………………………………10
2.3. Classification d’un programme mathématique : …………..…….11
2.4. Qualification des contraintes ……………………………………12
2.5. Existence et unicité de la solution ……………………………....12
2.6. Conditions d’optimalité (sans contraintes) …………………….12
2.7. Conditions d’optimalité : (avec contraintes)…………………….13
Table de matière

Chapitre 03 : Programmation linéaire :

3.1. Introduction ……………..…………………………..……..16


3.2. Dualité…………………………..………………………….16
3.3. Autres définitions …………………………………..…..…..17
3.4. La résolution d’un programme linéaire (PL)..………….…..17
3.4.1. La résolution des programmes linéaires par la méthode du
simplexe …………………………………………..……………………………… ….18

3.4.1.1. Algorithme du simplexe ……………………….18

3.4.1.2. Critère d’optimalité ……………………………19


3.4.1.3. Exemple numérique :……………...…………….19

3.4.2. La résolution des programmes linéaires par les


méthodes des points intérieurs………………………………...………………22
3.4.3. Méthode de Karmarkar (présentation de la méthode)…....22
3.4.3.2. Le calcul de direction et de pas ……….….……...24
3.5. Algorithme de base………………………………….………25
3.5.1. Convergence de l’algorithme………………….26
3.6. Généralisation de l’algorithme de Karmarkar sur la
programmation linéaire………………………. ……………………………….25
3.7. Tests numériques……………………………………..……..28

Chapitre 04 : programmation quadratique :


4.1. Introduction……………………………………….31
4.2. Méthodes de résolution d’un problème quadratique
……………………………………………………………………...31
Table de matière

4.3. Complémentarité linéaire monotone…………..32


4.4. Transformation d’un programme quadratique
convexe en un programme complémentaire linéaire…………….32
4.5. Transformation d’un programme complémentaire
linéaire monotone en un programme quadratique convexe……….34
4.6. La résolution d’un problème de complémentarité
linéaire avec les méthodes des trajectoires centrales …………….35
4.6.1. Présentation de la méthode……………………….35
4.6.1.3. Facteur de centralité…………………39
4.6.1.4. Concept de proximité………………..39
4.6.1.5. Algorithme de la trajectoire centrale pour la
programmation quadratique……………………….………………………………....39
4.6.1.6. La convergence de la méthode……………………..40
4.6.2. Méthode de trajectoire centrale avec poids
4 .6.2.1. Présentation de la méthode ……………………….40
4.6.2.2. Facteur de centralité ………………………………42
4.6.2.3. Concept de proximité…………………………….42
4.6.2.4. Calcul du pas de déplacement ……………………42
4.6.2.5. Algorithme de la trajectoire centrale avec poids pour
la programmation quadratique …………………………………………………….…43
4.6.2.6. Convergence de l’algorithme …………………….44
4.6.2.7. Le calcul d’une solution initiale strictement
réalisable ………………………………………………………………………….…44
4.7. Tests numériques …………………………….....45
Table de matière

Chapitre 05 : la programmation non linéaire


convexe avec les méthodes des points intérieurs sous
contraintes linéaires :
5.1. Introduction ……………………………………………..50
5.2. Méthode de Karmarkar pour la résolution du programme
non linéaire convexe sur un polyèdre
5.2.1. Présentation de la méthode…………………………………….50
5.2.2. Algorithme de Karmarkar pour la programmation non linéaire
convexe …………………………………………………………………………….55
5.2.3. Convergence de l’algorithme …………………………………….55
5.2.4. Test numériques ………………………………………………….56

5.3. la méthode de trajectoire centrale :


5.3.1. présentation de la méthode …………………………………...58
5.3.2. Algorithme de trajectoire centrale pour la programmation
convexe……………………………………………………………………………...61
5.3.3. Méthode de trajectoire centrale avec poids…………………... 62
5.3.3.1. Présentation de la méthode………………………………..…62
5.3.3.2. Le calcul de la direction de descente…………………………63
5.3.3.4. Calcul d’une solution initiale strictement réalisable …………65
5.3.3.5. Calcul du pas de déplacement ................…………………….66
5.3.3.6. Algorithme de trajectoire centrale avec poids pour la
programmation convexe sur un polyèdre…………………………………………….67
5.3.3.7. Convergence de l’algorithme………………………………..67
5.3.4. Tests numériques……………………………………......69
Table de matière

Chapitre 06 : définition et implémentation de logiciel


MATLAB
6.1. Définition de logiciel MATLAB…………………..….74

6.2. Description de la fenêtre MATLAB ……..…….….….74

6.2.1. La barre de titre ………………………………..……74

6.2.2. La barre de menu ………………………….…..……75

6.2.3. La barre d’outils ……...…………….…………….…..76

6.2.4. La fenêtre de commande …………………………..….76

6.3. Méthode de travail ………..…………………………….76


6.3.1. Edition et sauvegarde des fichiers MATLAB …...76
6.3.2. Aide en ligne ………………………………………76
6.3.4. Création de fichiers de commandes et de fonctions
utilisateur ……………………………………………………………………….77
6.3.4.1. Fichiers de commande (”script files”) …………...77
6.3.4.2. Fonctions ……………………...………………….77
6.4. Exemples d’illustration ………………………..78

Conclusion générale …………………………………………….93


Annexe……………………………………………………..……..94
Bibliographies……………………………………………..……..95
Introduction générale
Introduction générale:
La recherche opérationnelle peut être définie comme l'ensemble des méthodes et techniques
rationnelles orientées vers la recherche de la meilleure façon d'opérer des choix en vue d'aboutir au
résultat visé ou au meilleur résultat possible.
Dès le XVIIe siècle, des mathématiciens comme Blaise Pascal tentent de résoudre des
problèmes de décision dans l'incertain avec l'espérance mathématique. D'autres,
au XVIIIe et XIXe siècle, résolvent des problèmes combinatoires. Au début du XXe siècle, l'étude de
la gestion de stock peut être considérée comme étant à l'origine de la recherche opérationnelle
moderne avec la formule du lot économique (dite formule de Wilson) proposée par Harris en 1913.

Mais ce n'est qu'avec la Seconde Guerre mondiale que la pratique va s'organiser pour la
première fois et acquérir son nom. En 1940, Patrick Blackett est appelé par l'état-major anglais à
diriger la première équipe de recherche opérationnelle, pour résoudre certains problèmes tels que
l'implantation optimale de radars de surveillance ou la gestion des convois d'approvisionnement. Le
qualificatif « opérationnelle » vient du fait que la première application d'un groupe de travail organisé
dans cette discipline avait trait aux opérations militaires. La dénomination est restée par la suite, même
si le domaine militaire n'est plus le principal champ d'application de cette discipline.

Après la deuxième guerre mondiale, la méthode du simplexe s’est imposée comme la seule
méthode efficace pour la résolution des programmes linéaires (PL).

EN 1979, Kachian a découvert le premier algorithme de type point intérieur projectif de


complexité polynomiale, pour des instances des grandes dimensions l’algorithme s’avéra inefficace.
En 1984 Karmarkar a crée un algorithme qui révolutionna toutes les recherches dans les domaines
des algorithmes de complexité polynomiale, grâce à son algorithme Karmarkar a palie aux
insuffisances de l’algorithme de Kachian. L’apparition de l’algorithme de Karmarkar a permis le
développement des méthodes de points intérieurs qui se sont révélées comme une véritable alternative
à la méthode du simplexe.sur tout après la découverte par Klee & Minty en 1972 d’un exemple
prouvant que le simplexe peut aller jusqu’à une complexité exponentielle.

Les méthodes de points intérieurs partent d’un point intérieur au domaine des solutions
réalisables, puis au moyen d’une stratégie fixée (trajectoire centrale,...) déterminent une valeur
approchée de la solution optimale. Parmi les avantages de ces méthodes par rapport à la méthode du
simplexe, on peut citer par exemple la complexité polynomiale, la convergence super linéaire et leur
bon comportement numérique.

En 1994, Den Hertog a classé les méthodes de points intérieurs en quartes catégories :

• Méthodes de chemin central.


• Méthodes affines et mise à l’échelle.
• Méthodes projectives.
• Méthodes affines avec potentiel.

1
Introduction générale
Depuis quelques années, les chercheurs essaient de généraliser le principe de ces méthodes,
d’abord pour la programmation quadratique, puis pour la programmation non linéaire.

Notre travail est consacré à l’étude numérique de deux méthodes des points intérieurs la
méthode de Karmarkar qui est de type projectif, et la trajectoire centrale avec et sans poids de type
chemin central, pour la programmation linéaire, et leur extension dans le domaine de la
programmation quadratique, non linéaire sous contraintes linéaires.

Le mémoire est organisé comme suit :

Les deux premiers chapitres introductifs serrent à une introduction générale. Celle ci
contient un survol rapide : éléments d’analyse convexe et d’algèbre, ensembles, vecteurs, matrices,
dérivées, suites, convergence des suites, la continuité des fonctions, la convexité des ensembles et
fonction convexe, par la suite : la programmation mathématique, classification d’un problème
mathématique, conditions d’optimalité dans la programmation linéaire, la programmation
quadratique, et la programmation non linéaire...etc.

Le troisième chapitre est réservé d’abord pour la présentation et la résolution avec la


méthode du simplexe à la programmation linéaire, puis à la méthode de Karmarkar, dont on a
présenté les principes et les résultats de convergence étudiés par Karmarkar [2], on a ainsi montré la
convergence polynomiale de cet algorithme suivie par des tests numériques sur différents exemples.

Le quatrième chapitre est réservé pour la méthode de trajectoire centrale sans et avec poids
appliquées à la programmation de la complémentarité linéaire comme formulation unificatrice de la
programmation linéaire et la programmation quadratique convexe. D’une part, on a présenté le
principe et les résultats de convergence étudiée par A. Keraghel et Z. Kebbiche [3], et on a soulevé
les inconvénients de cette méthode dont le problème majeur est celui de l’initialisation. Pour cela, dans
la deuxième partie, en s’inspirant de l’algorithme de Ye-Lustig(annexe), on a pu calculer une solution
primale-duale strictement réalisable. On a ainsi montré la convergence polynomiale de l’algorithme en
question suivie par des tests numériques sur différents exemples.

Le cinquième chapitre dans la première partie, on s’est intéressé à l’extension de la méthode


de Karmarkar pour la programmation non linéaire convexe à contraintes linéaires. Dés premier
temps, on a fait une synthèse générale contenant le principe pour la méthode de Karmarkar, et les
techniques de linéarisation combinées avec l’approche projective, puis des tests numériques qu’on a
exécutés sur différents exemples.

dans la deuxième partie, On a fait une synthèse générale contenant le principe sur la méthode
de trajectoire centrale (sans et avec poids), le problème barrière perturbé (sans et avec poids) et sa
résolution via l’approche newtonienne. Signalons que l’opération la plus coûteuse dans l’algorithme
obtenu réside dans la direction qui nécessite le calcul de l’inverse de la matrice (∇ଶ ݂ሺ‫ݔ‬ሻ + ܺ ିଵ ܵ ), à
chaque itération. L’algorithme décrit est sanctionné par des tests numériques qu’on a exécutés sur
différents exemples.

A la fin, dans le dernier chapitre, on terminera par définir et implémenter le logiciel de


programmation MATLAB, a fin de concrétiser notre étude.

2
Chapitre 01 : notions de bases

1.1. Introduction :

Dans ce chapitre introductif, on va présenter quelques notions de bases


essentielles d’analyse et d’algèbre sur la programmation mathématique, qui nous
permettent de résoudre de nombreux problèmes. Et on va introduire une notion qui
joue un rôle très important : celle de la convexité des fonctions et des ensembles:

1.2. Ensembles et fonctions :


1.2.1. Ensembles convexes :

Définition 1.2.1.1:(point intérieur)

Soit  ⊆ ℝ  
:

On dit que  est intérieur à  s’il existe un voisinage de  contenu dans .

D’une manière équivalente,  est intérieur à  s’il existe > 0 tel que :

 ∈
, ∀   ‖ − ‖ ≤ .

L’ensemble des points intérieurs à


est appelés l’intérieur de  et noté (
).

Exemple :

L’ensemble  =  /‖ ‖ ≤ 1# a pour intérieur la boule unité $% (0) =  /‖ ‖ < 1#.

Définition 1.2.1.2. : (Sous ensembles ouverts)

Un sous ensemble ' est dit ouvert s’il coïncide avec son intérieur c’est-a-dire
si :

' = (').

Exemple :

$( ()) = * ℝ /‖* − )‖ < +# est un ensemble ouvert.

Définition 1.2.1.3. : (Sous ensembles fermé)

Un sous-ensemble ' ⊆ ℝ est dit fermé si son complémentaire est ouvert.

3
Chapitre 01 : notions de bases

Exemple:

$( ()) = * ℝ /‖* − )‖ ≤ +# est un ensemble fermé.

Définition 1.2.1.4. : (Ensemble compact)

On dit que  ⊆ ℝ est borné si :

∀ ∈ , ∃+ > 0   ∶ ‖ ‖ < + ⟺ ∈ $( (0) .

Définition 1.2.1.5 :

Un ensemble compact de ℝ est un ensemble fermé borné sur ℝ .

Définition 1.2.1.6 : (Convexité des ensembles)

Un ensemble D ⊆ ℝ est dit convexe si et seulement si :

∀ x, y ϵ D , (1 − λ)x + λ y ϵD, ∀λ ϵ[0,1].

Définition 1.2.1.7 :

Un ensemble D ⊆ ℝ est dit affine si et seulement si :

∀ x, y ϵ D , (1 − λ)x + λ y ϵD, ∀λ ϵℝ.

Définition 1.2.1.8:

On appelle hyperplan dans ℝ un ensemble de la forme :

8 = 9 ∈ ℝ /〈;, 9 〉 = = #. 〈, 〉 :est le produit cartésien.

Où ; ≠ 0 . Dans l’espace ℝ ; un hyperplan défini deux demi-espaces

9 ∈ ℝ /〈;, 9 〉 ≤ =#. Et 9 ∈ ℝ /〈;, 9 〉 ≥ =#.

Définition 1.2.1.9 :

Un ensemble D ⊆ ℝ est un polyèdre si et seulement si :

D =  x ϵℝ / A x ≤ b, Où A ϵℝ∗F , x ϵℝ , b ϵℝF # .

4
Chapitre 01 : notions de bases

Définition 1.2.1.10 : (la projection d’un point sur un ensemble convexe)

G sur un ensemble convexe fermé  un


point *HI tel que :
On appelle projection d’un point

J*HI − GJ = KLMHNO ‖ − G ‖.

On dit que J*HI − GJ est la distance minimale entre G et sa projection en .

1.2.2. Fonctions convexes:


Définition 1.2.2.1 :

On appelle une fonction de plusieurs variables et à valeurs réelles une


fonction :

P: ℝ ⟶ ℝ: *S+ =  %, … . , 
U
∈ ℝ , P  = P  % , … ,  ∈ ℝ.

Définition 1.2.2.2:

Une fonction P: ℝ ⟶ ℝ est continue au point =  % , … , 


U
∈ ℝ si et
seulement si pour tout > 0 , il existe = > 0 tel que pour tout

 = % , … ,  U ∈ ℝ :

‖ − ‖ ≤ = ⇒ |P  − P  | ≤ ε.

Définition 1.2.2.3 : (fonctions convexes)

Une fonction P : ℝ ℝ est dite convexe sur un ensemble  convexe si


elle vérifie :

∀ x, y ϵ D.
X ∀ λ ϵ 50,16. [
P Y1 − λx + λ yZ ≤ 1 − λPx + λ Py.

5
Chapitre 01 : notions de bases

Définition 1.2.2.4 : (fonctions affines)

P est dite affine si elle vérifie :

∀ x, y ϵ D.
X ∀ λ ϵ ℝ. [
P Y(1 − λ)x + λ yZ = (1 − λ)P (x) + λ P (y).

1.2.3. Matrices et vecteurs :

Une matrice A Є ℝF∗ est notée A= ()\] ) ,1 ≤ i ≤ m, 1≤ j ≤ n.

Le ^ èF` vecteur colonne de A est )] = ] / = ()% , )a , … ) ). ] :est le vecteur


unitaire.

Un système de M vecteurs F ∈ ℝF est noté sous forme matricielle :

b = (% , … .  ) ∈ ℝF∗ Avec ] le ^ èF` vecteur colonne b.

Définition 1.2.3.1 : (Matrice transposée)

La matrice transposée U = ′ , d’une matrice  est la matrice obtenue en


inter-changeant les lignes et les colonnes .soit )′\] = )]\ .

Remarques :

Soit  une matrice carrée, on a :

1) U   U sont symétriques.

2) On a (U )U =  et ($)U = $U U .

Définitions 1.2.3.2 :

Soit  une matrice carrée symétrique d’ordre n.


1.  est dite définie positive si : U  > 0 , ∀ ≠ 0 , ∈ ℝ .
2.  est dite semi définie positive si : U  ≥ 0 , ∈ ℝ .
3.  est dite définie négative si : U  < 0 , ∀ ≠ 0 , ∈ ℝ .
4.  est dite semi définie négative si : U  ≤ 0 , ∈ ℝ .

6
Chapitre 01 : notions de bases

Définition 1.2.3.3 :

Une norme matricielle est une application ∥. ∥ :e (f) → ℝh qui vérifie les

1. ‖‖ = 0 ⟺  = 0,  ‖‖ ≥ 0, ∀ e (f)


propriétés suivantes :

2. ‖=‖ = |=|‖‖ , ∀= f .
3. ‖ + $‖ ≤ ‖‖ + ‖$‖, ∀, $ e (f).
4. ‖ × $ ‖ ≤ ‖‖ × ‖$‖, ∀, $ e (f).
5. ‖. ‖ ≤ ‖‖ × ‖ ‖, ∀ ℝ .

Exemple :

a. ‖‖% = K) ]:%, ∑\l%k)\] k


Les trois normes usuelles sont :

b. ‖‖a = mn(a ) ; avec :


n(a ) :rayon spectral de A. ‖‖a = K) %o\o (|p\ |).

p\ : Valeur propre de a .

c.‖‖∞ = K) \ ∑]l%k)\] k .

Définition 1.2.3.4: (matrice gradient)

Soit q = (r% , ra … rF )U : ℝ → ℝF tel que r\ : ℝ → ℝ est différentiable,


pour L = 1. . . K.dans ce cas, q est différentiable, et la fonction ∇q ( ): ℝ → ℝ×F
est appelé matrice gradient et est définie par :


uvw uvy
uHw uHw
∇q ( ) = t ⋮ ⋱ ⋮ }.

uvw uvy
uH| uH|

Remarque :

appelée matrice Jacobéenne de q .


La matrice gradient est souvent utilisée dans sa forme transposée et est

7
Chapitre 01 : notions de bases

Définition 1.2.3.5: (matrice Jacobéenne)

Soit q: ℝ → ℝF .la fonction ~q ( ): ℝ → ℝF× est appelée matrice


Jacobéenne et est définie par :
uvw uvw uvw
uHw uH„
⋯ uH|
∇r% ( )U ƒ uv„ uv„ ‡

uv„
~q ( ) = ∇q ( ) = 
U
⋮ € = ‚ uHw ⋱ uH| †.
‚ ⋮ ⋮ †
uH„
∇rF ( ) U ⋮ ⋯
uvy uvy uvy
 uHw uH„ uH| …

Définition 1.2.3.6:(le second ordre)

fonction ∇q dans la section (1.3.4) pour chacune des fonctions ∇\ r( ) de la définition


Nous pouvons effectuer la même analyse de différentiabilité faite sur la

(2.3.4).

La jème dérivée partielle de ∇\ r( ) est la dérivée seconde de r( ), par rapport


= =
u ∇ˆ v(H) u(u v(H)⁄uHˆ ) u„ v(H)
aux variable \ et ] car :
uH‰ uH‰ uHˆ uH‰
.

Définition 1.2.3.7: (Matrice Hessienne)

Soit r: ℝ ⟶ ℝ une fonction deux fois différentiable.

La fonction notée ∇a r( ): ℝ → ℝ× est appelée matrice Hessienne de r et est


définie par :

‹ a r( ) ‹ a r( ) ‹ a r( )

ƒ ‹ % ‹ % ‹ a ‹ \ ‹  ‡
a

∇a r( ) = ‚ ⋮ ⋮ ⋱ ⋮ †
‚ a a ( )†
‹ g( ) a ( )
‹ g ‹ r

‹  ‹ % ‹  ‹ a ‹ a …

Remarque :

La matrice Hessienne est toujours symétrique.

Notons que la Hessienne de r est la matrice gradient de la matrice ∇r.

8
Chapitre 01 : notions de bases

1.2.4. Convergence des suites dans ℝ et dans ℝ ∶

Définition 1.2.4.1 :

On définit une suite dans ℝ par : (* )ŽG avec : * = (*% , *a , … . . , * ) et
*\ ∈ ℝ tel que : L = 1,2, … . , M .

Exemple : * =  , ‘ une suite dans ℝa .


% a
h% %h „

Définition 1.2.4.2 :

Soit (* )ŽG une suite de points (ou vecteurs) de ℝ . on dit que cette suite
converge vers une limite * ∈ ℝ si et seulement si pour tout > 0, il existe ’G tel que

Quel que soit : ’ ≥ ’G ⇒ ‖ *  − * ‖ ≤ .

On note alors lim→∞ * = * ou encore parfois * → *.dans le cas contraire


on dit que la suite diverge.

Dans le cas M = 1, on a ‖* − *‖ = |* − *| et on trouve la définition


usuelle de la convergence des suites réelles.

Remarque:

Si (* ) converge, sa limite est unique.

Définition 1.2.4.3 :

Une suite (* )ŽG est dite ‘’de Cauchy’’ si et seulement si pour tout > 0,
il existe ’G tel que ’,  > ’G ⟹ ‖* − *— ‖ ≤ .

Remarque :

Dans ℝ , * suite de Cauchy ⟺ (* ) convergente.

 Dans ce chapitre, on a donné quelques définitions et des théorèmes généraux


des fonctions et des ensembles, qui vont nous aider à les étudier dans les
chapitres prochains.

9
Chapitre 02 : Programmation Mathématique

2.1. Introduction :
La programmation mathématique, et plus particulièrement l’optimisation vise à
résoudre des problèmes où l’on cherche à déterminer parmi un grand nombre de
solutions candidates celle qui donne le meilleur rendement. Plus précisément, on
cherche à trouver une solution satisfaisant un ensemble de contraintes qui minimise ou
maximise la fonction objectif donnée. L’application de la programmation
mathématique est en expansion croissante et se retrouve dans plusieurs domaines.
Dans ce chapitre, nous allons présenter les problèmes classiques

D’une façon générale un programme mathématique dans ℝ est un problème


d’optimisation, et leurs conditions d’optimalité et définir quelques notions usuelles.

d’optimisation sous la forme suivante :

 ƒ x ou  ƒ x
 sc

g  x ≤ 0 , i : 1. . m '
 h x = 0 , j : 1. . p

(P1)

 x ϵ s ⊆ ℝ
&

Où ƒ: ℝ → ℝ est une fonction continûment différentiable appelée fonction


objectif, et l’ensemble des conditions { g  x ≤ 0 , i : 1. . m; h x = 0 , j : 1. . p,
x ϵ s ⊆ ℝ


) = {x ϵ s ⊆ ℝ / g  x ≤ 0 , i : 1. . m; h x = 0 , j : 1. . p} est appelé l’ensemble


} sont les contraintes du problème (P1) .L’ensemble

des solutions réalisable du problème (P1).

2.2. Notions de base :


Définition 2.2.1 :
On appelle solution réalisable du problème (P1), tout point vérifiant les
contraintes de ce problème (P1) (appartenant à )).

10
Chapitre 02 : Programmation Mathématique

Un point x ∗ ϵ) qui minimise la fonction objectif sur ) dit solution optimale


Définition 2.2.2 :

∀xϵD , ƒ(x ∗ ) ≤ƒ(x).


du problème (P1) si et seulement si :

On note par arg min2 ƒ x, l’ensemble des solutions optimales du problème.

Un point x ∗ ϵ ) est une solution optimale locale de (P1), s’il existe un voisinage
Définition 2.2.3 :

3 de x*, et un ℇ > 0 tel que :


ƒ x ∗  ≤ ƒ x , ∀x 73 x ∗ 
6 où '
V x  = { x ϵ ) / || x – x || < ℇ }
∗ ∗

(x appartient au voisinage de V x ∗ ) et on note par locmin 2 ? xl’ensemble

Et de plus si ƒ et ) sont convexes, le minimum local est global pour le problème (P1).
des solutions optimales locales de (P1).

Remarques :
Le problème d’optimisation précedent consiste :
- soit à chercher un point optimal (local, global).

-soit, à établir que f est non borné inférieurement sur ) ,auquel cas
-soit, si un tel point n’existe pas on cherche une borne inférieure à la fonction ƒ.

on adopte la convention inf2 ? = −∞ .


-lorsque ) est vide on pose par convention inf2 ? = +∞
2.3. Classification d’un programme mathématique :
On classifie le problème (P1) selon des propriétés fondamentales, à savoir la
convexité, la différentiabilité et la continuité des fonctions du problème (P1).
Définition 2.3.1 :
- Un programme mathématique est dit convexe si : ?, CD et ℎF sont lineaires
sur un ensemble ) des solutions réalisables convexe.
- Si :?, CD et ℎF sont différentiable le problème est dit différentiables .
Signalons que, les programmes non convexes ou non différentiables sont les
plus difficiles à traiter.

11
Chapitre 02 : Programmation Mathématique

2.4. Qualification des contraintes :[13]

dans ), il suffit que l’une des conditions (1) ou (2) soit réalisée:
Pour que la qualification des contraintes (QC) soit vérifiée en tout point x

(2)-toutes les contraintes d’inégalités CD  I = 1 … m sont convexes et il existe


(1)-toutes les contraintes de (P1) sont linéaires, affines (karlin 1959) ou convexe.

̅ ϵ ℝJ vérifiant CD ̅  < 0 , ∀i ϵ I et ℎF  M = 1 … p affines, (Slater 1950).


-Pour que (QC) soit vérifiée en un point x° ϵ ) il suffit que l’on ait :
(3) Les gradients ∇CD ° i = 1 … m, ∇ℎF , j: 1 … p des contraintes saturées
en x° sont linéairement indépendantes (Fiacco et Mc Cornick 1968).
Remarques :
La résolution complète de (PM) traite dans l’ordre les points suivants :
- L’existence d’une solution optimale.
- La caractérisation de la solution.
- L’élaboration d’algorithme pour calculer cette solution.
2.5. Existence et unicité de la solution :[14]

Si ) l’ensemble des solutions, est compact non vide de ℝP et si ? est


Théorème 2.5.1 :(weierstrass)

continue sur ) alors (PM) admet au moins une solution optimale globale  ∗ ∈ ).
2.6. Conditions d’optimalité (sans contraintes) :[14](cas sanscotraintes)

 ƒ  '
Soit le programme non linéaire et non contraintes (PNC) :

(p1) R
7 ) ⊆ ℝP
Où la fonction ƒ  est au moins deux fois continûment différentiables.

Soit  ∗ ϵ ), on dit que S7 ) une direction admissible s’il existe α > 0 tel que
Définition 2.6.1:

 ∗ + US ∈ ), ∀ U ϵ [0 , α].
• Soit x* un minimum local de ? , on a alors nécessairement pour tout
t > 0 assez petit.
?  ∗ + US − ƒ  ∗  ≥ 0 , ∀S admissible ceci implique :

limW→X = _ ƒ  ∗  S ≥ 0 .
Y Z ∗ [\]^ƒ Z ∗ 
W

12
Chapitre 02 : Programmation Mathématique

En particulier, la direction S = −∇ ƒ  ∗  est admissible et on déduit :


- ||∇ ƒ  ∗ ||2 ≥ 0 ⇒ ||∇ ƒ  ∗ ||2 ≤ 0 ⇒ ∇ ƒ  ∗  = 0.
Théorème 2.6.1: (condition nécessaire du 1er ordre) (cas sans contraintes) [9]
Soit  ∗ minimum local pour (P1), on a alors ∇ ƒ  ∗  = 0.
Un point x satisfaisant cette condition est appelé un point stationnaire.
Au deuxième ordre, on obtient :
ƒ  ∗  ≤ ƒ  ∗ + tS = ƒ  ∗  + t ∇ ƒ  ∗ \ S + t b S \ H ƒ  ∗ S + O t b .
a
b

quand t tend vers 0.


Comme  ∗ est un minimum local on a :

limU→0 = y t H ƒ ∗  y + lim = yt H ƒ ∗ y ≥ 0.
? ∗ +US−ƒ ∗  1 ghU2 i 1
U 2 2 U→0 U 2 2

Théorème 2.6.2 (condition nécessaire du 2éme ordre) [14]


Soit  ∗ un minimum local pour (P1) on a alors :
_ƒ  ∗  = 0 '
j
S \ k ƒ  ∗  S ≥ 0 , ∀ S 7 )
La matrice hessienne au point  ∗ est donc semi-définie positive. Ces conditions
ne sont pas suffisantes.
Théorème 2.6.3 (conditions suffisantes du 2éme ordre) [14]
Soit  ∗ un point tel que :
∇ƒ  ∗  = 0 '
j W
S H ƒ  ∗ S > 0 , ∀ S ϵ )
Alors  ∗ est un minimum local (strict).
2.7. Conditions d’optimalité : (avec contraintes)
Soit le programme mathématique (PM):

 ? 
C  ≤ 0,  = 1, . . . , m '
l D P1
ℎF  = 0, M = 1, . . . , n
 7 ℝP
Où les fonctions ?, CD et ℎF sont au moins deux fois continûment différentiables.

13
Chapitre 02 : Programmation Mathématique

Définition 2.7.1: Le lagrangien du programme mathématique (P1) est défini par :


p ; r, μ = ?  + ∑u
Dva rD CD   + ∑Fva wF ℎF  .
x

Soit  ∗ un minimum local régulier de (PM). Alors, il existe


Théorème 2.7.1:(Karush-Kuhn-Tucker)[14](avec contraintes)
les
multiplicateurs r∗ ∈ ℝu
[ et μ ∈ ℝ tels que :
∗ x

_ ?  ∗  + ∑u Dva r D _ CD   + ∑Fva w F _ ℎF   = 0
∗ ∗ x ∗ ∗

 yz{|
 _Z p  ; r , μ  = 0; |} ~U} ~’}nUm€Ué .
∗ ∗ ∗

r D _ CD  ∗  = 0,  = 1 … m; |} ~U} ~{ |}mn€ém{ U‚Ué.'



 rD ∗ ≥ 0, M = 1 . . . m ƒƒ„ .

 CD  ∗  ≤ 0,  = 1, . . . , m.
 ℎF  ∗  = 0, M = 1, . . . , n.
sont aussi les conditions nécessaires du premier ordre.
Remarques:
1- Si les contraintes ne sont pas qualifiées en  ∗ , les conditions de KKT
ne s’appliquent pas ( ∗ peut être optimal sans vérifier ces conditions).

et suffisantes pour que  ∗ soit un minimum global.


2- Si (PM) est convexe, les conditions de KKT sont à la fois nécessaires

soit I( ∗ )={i/i=1…m, gi( ∗ )=0}, l’ensembles des indices des contraintes
d’inégalités actives au point  ∗ .
Définition 2.7.2:
On définit un espace tangent T( ∗ ) au point x* d’un problème (PM) par :
T ( ∗ )= { y ∈ ℝP : ∇ g   ∗ W y ≤ 0,i ∈ I( ∗ ) et ∇ ℎF ( ∗ )ty = 0,j = 1...p } .
Théorème 2.7.2.: (Conditions nécessaires du 2ème ordre)[14]
Soit  ∗ un minimum local régulier de (PM). Alors, il existe
des multiplicateurs λ∗ ∈ ℝ†
[ et μ ∈ ℝ tels que:
∗ x

– y t H L( ∗ ; λ∗ , μ∗ ) y ≥ 0, ∀ y ∈ T ( ∗ ),( Hessienne semi définie positive).


– les conditions de KKT sont satisfaites;

14
Chapitre 02 : Programmation Mathématique

Théorème 2.7.3: (Conditions suffisantes du 2ème ordre)[14]


S’il existe des multiplicateurs λ* ∈ ℝ†
[ et µ ∈ ℝ
* x
tels que:

– y t H L(x* ; λ*,µ *)y > 0, ∀ y ∈ T(x*).


– les conditions de KKT sont satisfaites;

T(x*) est toujours un espace tangent du problème (PM) au point x*. Alors le point x*
est un minimum local strict de (PM).

15
Chapitre 03 Programmation linéaire

3.1. Introduction :
La programmation linéaire est certainement l’un des plus beaux succès de la
recherche opérationnelle. Il provient d’une part de la puissance de modélisation
qu’elle offre et ce malgré la limite inhérente qu’impose la linéarité des fonctions
impliquées, et d’autre part, de la richesse de la théorie qu’elle a initiée et qui a permis
le développement d’algorithmes extrêmement efficaces pour sa résolution.
D’une façon générale, on définit un programme linéaire primal (P) sous la

Min c  

forme standard par :

  
A  = b
(P)
 ≥ 0
Où : A est une matrice réelle de type (m; n) supposée de plein rang
(rang A = m ≤ n) ,  ∈ ℝ et c ∈ ℝ . L’ensemble des solutions réalisables  =
{ ∈ ℝ :   = ;  ≥ 0 } est un polyèdre convexe fermé.
3.2. Dualité [9]:

dual. Le dual (DU) correspond au primal standard (P) est :


A chaque programme linéaire est associé un autre programme linéaire appelé

 % &
(DU) $  % & ≤  
& ∈ ℝ
Et Les solutions des programmes primal et dual sont liées par les théorèmes de la
dualité faible et forte.
Proposition 3.2.1 (Dualité faible): [9]
Si x est primal réalisable et y est dual réalisable, alors : % & ≤  % .
Proposition 3.2.2 (Dualité forte) :[9]

(DU) a une solution y optimale telle que : % & =  % .


Si x est fini et optimal pour le programme primal(P), alors le programme dual

16
Chapitre 03 Programmation linéaire

3.3. Autres définitions :

1) On dit que  est un point extrême de , s’il ne peut pas s’écrire comme une
Définitions 3.3.1:

∄) , + ∈  , , -]0.1[ pour les quels (1 − ,)) + , + =  / ) ≠ + .


combinaison convexe stricte de deux points de .

2) Une base de  est toute sous-matrice > (matrice de base) formée de m


colonnes linéairement indépendantes de .
3) Soit > une base de . La solution de base associée à > est le point :
? = (> , @ )% ∈ ℝ tel que : ?> = A)
> .(composante de base).

?@ = 0.(hors base).
Proposition 3.3.1 [9]:
Si un programme linéaire possède une solution optimale finie, alors au
moins un sommet du domaine réalisable est une solution optimale.
3.4. La résolution d’un programme linéaire (PL):
Dans le cas de programmation linéaire, on dispose d’une méthode efficace
de résolution : l’algorithme du simplexe, découvert par Dantzig en 1947.
Cet algorithme a connu depuis lors de nombreuses améliorations, et il
est utilisé dans la majorité des logiciels commerciaux. Cependant, un nouveau
type de méthodes de résolution a fait son apparition en 1984 : les méthodes des
points intérieurs. La plupart des idées proviennent du domaine de la
programmation non-linéaire. Parmi leurs avantages, citons :
1- Efficacité théorique : il est possible de prouver que ces méthodes
s’exécutent en temps polynomial (ce qui n’est pas le cas de l’algorithme du simplexe,
de nature exponentielle ,de moyenne polynomiale ).
2-Traitement de très grands problèmes : ces méthodes permettent de résoudre des
problèmes de très grande taille qu’aucun autre algorithme connu ne pourrait traiter en
un temps acceptable.
On s’intéresse dans ce chapitre à la résolution par la méthode du simplexe
et puis par la méthode de Karmarkar.
3.4.1. La résolution des programmes linéaires par la méthode du simplexe :

17
Chapitre 03 Programmation linéaire

La méthode du simplexe itère d’une base réalisable à une autre base

réalisable est clairement fini. Dans le cas non dégénéré (?> > 0 ), ces deux bases
réalisable adjacente (seuls deux indices de la base sont modifies). Le nombre de base

dégénéré (au moins une composante du vecteur ?> est nulle), les deux bases peuvent
correspondent à deux points extrêmes voisins de valeurs différentes. Dans le cas

correspondre au même point extrême, et donc de même valeur.

3.4.1.1.Algorithme du simplexe [9]:

1-Soit ? une solution de base réalisable :

 x = 

⇔ > x> + @ x@ = 

⇔ x> = A)
>  − > @ x@
A)

Et de valeur:

E = F % ? = >% x> + @% x@

= >% (A)
>  − > @ x@ ) + @ x@
A) %

>  + (@ − > > @ )x@ .


= >% A) % % A)

De façon compacte, on associe à chaque base un dictionnaire (ou encore tableau) :

x> = A)>  − > @ x@


A)

>  + (@ − > > @ )


E = >% A) % % A)

On note:

∆@ = −@% + >% A)


> @ . Le vecteur des couts réduits (des estimations)

des variables hors bases et on pose :

& = A)
> @ est le vecteur des potentiels. Plutôt on peut dire que &

solution du système : > & = >


%
.

18
Chapitre 03 Programmation linéaire

2. changement de base :

a) Choix de variable d’entrée :

Choisir xi* tel que ∆H∗ = minHK LM {∆H < 0} ;

S’il n’existe pas un tel i, la solution trouvée est optimale.


b) Choix de variable de sortie :
On cherche une composante xj* du vecteur de base XB pour la quelle:

OP∗ = Min : { jϵjB et pour (AB-1ai)j > 0 }


QRTU
S VWL
QRTU
S X WL
Y∗

S’il n’existe pas un tel j*, le programme linéaire est non borné.
3. Le pivotage :
(a) Mettre à jour la base: la variable xZ ∗ entre dans la base et la variablexP ∗ sort de la
base.
(b) Obtenir le nouveau dictionnaire par pivotage. Aller en 2.
3.4.1.2. Critère d’optimalité [7]: on dit ? = (x> , x@ )% est optimale si seulement si :

Le vecteur des estimations ∆@ ≥ 0 est positif (cas de maximisation).

3.4.1.3. Exemple numérique :

Max x) + 2x+
Soit le problème de maximisation suivant :

^ S. c
\
x + x+ ≤ 2 
] −x) + x+ ≤ 1
)

\
(P1)

[ x) , x+ ≥ 0

Après l’addition des variables d’écart, on obtient le problème canonique suivant :

Max x) + 2x+
^ S. c
\
(P2) x) + x+ + xc = 2 
]−x) + x+ + xd = 1
\
[ x) , x+ , xc , xd ≥ 0

19
Chapitre 03 Programmation linéaire

3.4.1.3 La résolution du problème (P2):


1) Dressons le premier tableau de simplexe suivant :
C 1 2 0 o
B X1 X2 X3 X4 O
X3 2 1 1 1 0 2

X4 1 -1 1 0 1 1

∆L -1 -2 0 0

Soit la solution de base réalisable donnée :


Xt0=(x B ,x H) =(0,0,2,1) avec JB {indice de base}={3,4}et JH{indice hors
base}={1,2}.∃ ∆) , ∆+ < 0, donc X0 n’est pas optimale.
1- la recherche de la variable d’entrée :
on a pour i* ϵ JH ={1,2}
∆H∗ = {∆H < 0}=∆+ , i* =2 ce qui fait, x2 va entrer dans la base.

2- la recherche de la variable de sortante de la base :


QfTU
g hWP
OP∗ = Min = Min2,1 = Od :{pour jϵjB et (AB-1aI)j strictement positifs }
QfTU j
g i WP
donc x4 qui va sortir de la base .Et on fait le pivotage.

2)Dressons le deuxième tableau du simplexe :


C 1 2 0 O
B X1 X2 X3 X4 O
X3 1 2 0 1 -1 1/2

X2 1 -1 1 0 1 /

∆L -3 0 0 2

D’après la première itération, on obtient alors :


X1=(0,0,1,1) avec Z1=2 et JB {indice de base}={2,3}et JH{indice hors base}={1,4}.
on a ∆) , ∆d < 0, donc X1 n’est pas optimale.
On passe à une autre itération :

20
Chapitre 03 Programmation linéaire

1-La recherche de la variable d’entrée :

on a pour i* ϵ JH ={1,4}
∆H∗ = {∆H < 0}=∆) , donc i* =1 ce qui fait, x1 va entrer dans la base.
2-La recherche de la variable de sortie :
QfTU
g hWP
OP∗ = Min = Min1/2,1 = Oc :{pour jϵjB et (AB-1ai)j strictement positifs }
QfTU j
g i WP
donc x3 qui va sortir de la base .

Après le pivotage, on trouve le tableau suivant :

3) Dressons le troisième tableau suivant :


C 1 2 0 O
solution B X1 X2 X3 X4 O

x1 ½ 1 0 1/2 1/2 /

X2 3/2 0 1 -1 2 /

∆L 0 0 3/2 1/2

∆c , ∆d sont positifs; parfois, on dit que le tableau est optimale, donc


X2=(1k2,3k2,0,0) est la solution optimale pour le problème(P2) avec une valeur

E+ = 7k2.ce qui nous donne :X=(1k2,3k2) la solution optimale pour le problème

(P1)avec Z=7k2.

21
Chapitre 03 Programmation linéaire

3.4.2. La résolution des programmes linéaires par la méthode des


points intérieurs :
La question de l’efficacité théorique (complexité) avec laquelle les
programmes linéaires peuvent être résolus est restée longtemps ouverte,
jusqu’aux travaux khachian (1979) qui a proposé un algorithme polynomial
utilisant la méthode dite des ellipsoïde. Néanmoins, en dépit de l’intérêt
théorique de cette méthode, son instabilité numérique n’a jamais permis de
résoudre en pratique des programmes linéaires de plus d’une ou des centaines de
variables.
Le progrès majeur pour concilier l’efficacité théorique
(polynomialité) et l’efficacité pratique a été accompli par Karmarkar (1984). La
capacité de l’algorithme de Karmarkar (ou de nombreuses variantes
développées depuis sous le nom <<méthodes de points intérieurs >>) à
résoudre des problèmes de taille considérables (jusqu'à des millions de
variables) a été un sujet controverse jusqu'à la fin des années 80, mais elle est
aujourd’hui couramment reconnue.
3.4.3. Méthode de Karmarkar (méthode de base):
Présentation de la méthode :
En 1984, Karmarkar a proposé un algorithme prometteur pour la
programmation linéaire, il possède des propriétés théoriques attractives et un bon
comportement numérique.

op c  
Considérant le problème linéaire suivant :

^
\ . 
(PLS) A  = 0 
]∑ r  = 1
\ Hs) H
[ x ≥ 0
Cette forme n’est pas restrictive puisque tout programme linéaire peut se
ramener à cette forme (en classe).
Définition 3.4.3.1 : On définit le simplexe Sn de dimension n-1 contenu dans ℝn par :
Sn= {x ∈ ℝn : x ≥ 0, t% x = 1}.

22
Chapitre 03 Programmation linéaire

 Le problème (PLS) supposé sous les hypothèses suivantes :


Karmarkar a proposé des hypothèses qui doivent être vérifiées pour la résolution du
problème (PLS) précédent suivantes :
Hypothèses[3] :(dites hypothèses de Karmarkar)
(Hypothèse 01) : La matrice A est de plein rang (rang A = m ≤ n).
(Hypothèse 02) : On dispose d’un point x0 strictement réalisable (Ax0 = 0; x0 > 0):
(Hypothèse 03) : La valeur optimale z* de l’objectif est connue au départ.
L’hypothèse (1) est classique. L’hypothèse(2) n’est pas du tout restrictive,
car on peut toujours obtenir une solution strictement réalisable ou prouver que le
problème n’est pas réalisable moyennant une méthode simple de variable artificielle.

er x = 1 permet de se ramener à un objectif nul. En effet, soit x* une solution optimale
Pour l’hypothèse(3), n’est que technique, si la valeur optimale est non nulle l’égalité

du problème et z* la valeur optimale de l’objectif. Alors:


ct  * =z*=z*t %  * => (ct -z*t % )  *= 0.

 L’algorithme démarre de la solution initiale 0 = a, et construit une suite


de points intérieurs qui converge vers une solution optimale du problème en un temps
polynômial. Dans le but de ramener facilement l’objectif à zéro, on le minimise

Donc, à chaque itération k, l’itéré  k > 0 est ramené au centre de Sn par :


localement sur une sphère inscrite dans la région réalisable.

la transformation projective [2] Τu définie par la fonction Τu (): ℝv → x :


Τu ():  ∈ x ⟹ Τu () = & ∈ x

Avec : Τ{ () = = y,ΤuA) () = Où u =diag {  k}.


|TU
} ~ ƒ„ …
€ |TU

} ~ € ƒ„ …

Définition 3.4.3.1:
u est la matrice diagonale :
u) ⋯ 0
u =† ⋮ ⋱ ⋮Š
0 ⋯ u

23
Chapitre 03 Programmation linéaire

La transformation Τu applique le simplexe x en lui-même, en même temps


l’itéré  k > 0 est envoyé au centre de x , le transformé du programme linéaire (PLS)
est le programme fractionnaire suivant :

^ Min € ƒ„ …
„ Œƒ …

\ R ƒ„ …
(PNL) € ƒ„ … = 0 ………………………(1)
]
\ er y = 1


[ y ≥ 0
Les hypothèses (Hyp2) et (Hyp3) de Karmarkar permettent d’écrire le

Min  % u &
programme (1) non linéaire comme le programme linéaire suivant :

^
Au & = 0 
] er y = 1
(PLS)  ……………………….(2)
[ y≥0
3.4.3.2. Le calcul de direction et de pas :
On a besoin du lemme pour simplifier la résolution de ce dernier
problème(2).
Lemme 3.4.3.1 [4]: Si pour un programme linéaire donné on connait une solution
réalisable y0 tel que (&ZŽ > 0; i = 1…n + 1); alors l’ellipsoïde :
‘
E= & ∈ ℝ : ∑v) ≤ ’+ , 0 < ’ < 1“
v) Q…j A…  Y W
Zs) ‘
Q…  Y W

est à l’intérieur de l’orthant positif de ℝv) .


Preuve: Supposons le contraire, c’est à dire : il existe j ∈ {1 … n + 1} tel que: y ≤ 0
‘
‘ –…— A…  ™
∑v) ≥ ≥ 1 ≥ ’ + , 0 < ’ < 1.
Q…j A…  Y W ˜
Zs) ‘ ‘
Q…  Y W š…  ˜ ›
alors :

& ∈ ℝ /‖& − α‖ ≤ ហ, Avec : 0< α <1 et r=


)
 D’après le lemme (1), si on ajoute au problème (3) la contrainte :

Ÿ(A))
.Alors la contrainte de

positivité y≥0 devient redondante. On la remplace et on obtient le problème :

24
Chapitre 03 Programmation linéaire

Min  % u &
^
A u & = 0 
(PLS) … … … … . … … … … . (3)
] er y = 1
[‖& − ‖+ ≤ ( ž)+

S( ,  ž)={ x ∈ ℝn , t% x = 1, ‖& − ‖ ≤ ហ}


Définition 3.4.3.3: On définit la sphère par :

Remarque: Le problème (3), c’est la minimisation d’une fonction linéaire sur une
¡
Ÿ(A))
sphère de rayon  ž (inscrite )centrée au centre du simplexe .

Théorème 3.4.3.1:[2] La solution optimale du problème (3) est donnée

& u = −  ž¢ u Où ¢ u =
£„
¤£„ ¤
explicitement par :

¥t ∶ §u = §¨u (u ), ¨u =š © „›.


f
ª

 A chaque itération, on revient à la variable initiale Ž en appliquant


la transformation inverse ΤuA) et ainsi de suite jusqu’a ce que le test d’optimalité
( % x ≤ «) se réalise où « > 0 est une précision donnée.
3.5. Algorithme de base[2] :
Début algorithme :
1-Initialisation : ε > 0 est une précision donnée, x0= a = en, ¬ = 0.
)


2-Itération : ¬ = 1,2, …
Pas 1 :

Construire : Dk = diag {xk},Ak = ADk, ¨u =š © „›.


f
ª

Calculer :pk = ( I – Bk (BkBk ) Bk) Dkc , ¢ u =


£„
¤£„ ¤
t t -1
.

Calculer : & u = −  ž¢ u avec : 0 < α < 1 t­ ž =


)
Ÿ(A))
.
Pas 2 :
ƒ„ … „
Prendre :xk+1= Tk-1(& u ) =
€ ƒ„ … „
 .

La condition d’arrêt : si ( ct xk+1 ≤ε) alors la solution trouvée xk+1 est optimale
Sinon : aller en 02 avec ¬: = ¬ + 1 et retourner au pas 1.
Fin algorithme.

25
Chapitre 03 Programmation linéaire

3.5.1.Convergence de l’algorithme[18]: on définit le potentiel de Karmarkar comme

suit : §(x) = ∑Ps) ln( ). Le potentiel de Karmarkar intervient ici à la deuxième


Œ ′ ®)
®—

étape(condition d’arrêt). En effet Karmarkar montre que si le potentiel évolué en x u


assez petit, alors ¯ = ′x sera arbitrairement proche de 0.

algorithme est réalisée en O(nq + n ln n) itérations pour :0 <   ≤1/4.


Dans le théorème suivant, Karmarkar montre que la convergence de son

3.5.1. Théorème [2]: Si 0 <   ≤1/4; alors en partant de  0=



r
; l’algorithme trouve

1))-  %  = 0.
après O(nq + n ln n)itérations un point réalisable x tel que :

≤ « =2-q où q est une précision fixée.


Œ~
Œ  ~
2)-

Remarque :
Dans ce que précède, on a parlé de la résolution des programme linéaire par
Karmarkar de la classe de (PLS), dont les quels la valeur optimale du problème z* est
nulle, et le membre à droite des contraintes du problème b est nul, ce qui nous pousse
à généraliser cette dernière sur la programmation linéaire dont la valeur optimale z* et
le membre a gauche des contrainte b quelconques.
3.6.Généralisation de l’algorithme de Karmarkar sur la programmation linéaire :

op  %  = ¯ ∗
Soit le programme linéaire sous forme standard :

(±) ²  =  … … … … … . (1)
≥0
 est une matrice de type (³, p),  ∈ ℝ et  ∈ ℝ .

On définit le simplexe xv) de dimension p contenu dans ℝ par :


Définition 3.6.1 :

xv) = {-ℝv) :  ≥ 0, tv)


%
 = 1}

(Hypothese 01): La matrice A est de plein rang (rg A = m ≤ n)


On suppose les hypothèses suivantes (hypothèses de Karmarkar):

(Hypothese 02): On dispose d’un point  Ž strictement réalisable ( Ž = ,  Ž > 0) .


(Hypothese 03): La valeur optimale ¯ ∗ de l’objectif est connue au départ.

26
Chapitre 03 Programmation linéaire

A l’hypothèse 2, pour le système de contraintes :  = ,  ≠ 0, on se ramène


Remarque :

% )
 ⇒ ( − tv)
facilement à un système homogène .il suffit d’écrire :
 = tv)
%
=0
De plus pour : z* la valeur optimale de l’objectif. Alors, on peut trouver le système
précédent : ct  * =z*=z*t %  * => (ct -z*t % )  *=̂  =0.
Soient la transformation projective notée º» (¼) une fonction [11][3]:
Τu (): ℝv → xv) définie par : Τu () = &, Avec :

& =
~j ⁄~j„
² Z )v∑ªj¾U~j ⁄~j„ 
&v) = 1 − ∑Zs) &Z
……………………..(2)

Z
On a :

&Z = &v) , o = 1, … , p.
Zu
Ou encore : &[p] = (uA) )&v) ,Où &[p] désigne les p première composantes de & .
Remarque : La transformation Τu () est univoque, et donnant sa transformation

u (&) =
 = ΤA) , u = ¢o À( u ).
ƒ„ …[]
…ª¿U
inverse par :

 On applique la transformation Τu () au programme(1), on obtient :

^Z ê¿U
Á  Ã[ª]
„ sÄ ∗
\ „Ã[ª]
f sh  ……………………..(3)
]
ê¿U

\ ∑j¾U …j s)
ª¿U

[ …[]Ŏ,…ª¿U Ǝ

Son problème équivalent :


ÇHr Œ  ƒ„ …[]AÄ ∗ …ª¿U sŽ
fƒ„ …[]Ah…ª¿U sŽ 
$ ∑ª¿U
j¾U …j s)
……………….(4)
…[]Ŏ,…ª¿U Ǝ

Ou encore :
ÈZ Œ̂  …
fɅsŽ 
$
©ª¿U
 …s) ……………….(5)
…ÅŽ

27
Chapitre 03 Programmation linéaire

ËÊ = Z Zu , o = 1, … … … … , p
Où :  , & = ̅…[] Í et Î = [u − ].
̂v) = −¯ ∗ ª¿U

Notons que toute solution réalisable de (1) est transformée par Τu en une
solution réalisable de (5) et réciproquement, toute solution réalisable & de (5) avec
&v) > 0 est transformée par ΤuA) en une solution réalisable de  de (1).
3.7. Tests numériques :
Nos tests d’applications sot réalisés su un PC portable Acer sous Windows 7 en
utilisant le langage MATLAB.

op  % 
Les exemples traités sont de la forme canonique suivante :

  
  = 
(PL)
 ≥ 0
La précision est comprise entre 10Ac t­ 10AÐ .

Min −4) − 5+


Exemple 01 : Soit le programme linéaire :

^ 
\
2) + + ≤ 8 
] ) + 2+ ≤ 7
\ + ≤ 3
[ ) , + ≥ 0
Après 85 itérations, on obtient la solution optimale  ∗ = (3 , 2)% qui donne la
valeur optimale du problème ¯ ∗ = −22.

op 3) − + + c
Exemple 02 : Soit le problème linéaire suivant :

^ 2) + + − d ≤ 0
\
c + Ó − Ð ≤ 0 
] ) + + + c +d + Ó + Ð ≤ 1
\
[ ) , + , c , d , Ó , Ð ≥ 0

 ∗ = (0 , 0.5 , 0 , 0.5 , 0 , 0) , avec la valeur optimale : ¯ ∗ = −0.5.


Après 208 itérations, on obtient la solution optimale suivante :

28
Chapitre 03 Programmation linéaire

op ) + +
Exemple 03: Soit le problème linéaire suivant :

^ 
\
2) + + + c = 2 
] −2) + 4+ + d = 0
\
[ ) , + , c , d ≥ 0

suivante:  ∗ = (0.0000,0.0000,2.0000,0.0000) , avec : ¯ ∗ = 0. La valeur optimale


On obtient, après 43 itérations, la solution optimale

du problème.

op 3) + 2+ + c + 3d


Exemple 04 : Soit le problème linéaire suivant :

^ 
\
) − + + c + d = 3 
] 2) + + − c + d = 4
\ ) + + + d + Ó = 5
[ ) , + , d , Ó ≥ 0

 ∗ = (2.3333 0.0000 0.6667 0.0000 2.6667) , avec : ¯ ∗ = 7.6667.


On obtient, après 97 itérations la solution optimale suivante :

op 4) + + + 2c
Exemple 05 : Soit le problème linéaire suivant :

^ 
\
2) + 3+ + c + 2d = 2
] 3) − 2c + d = 0
\
[ ) , + , c , d ≥ 0
La solution optimale trouvée est :  ∗ = (0.0268 0.3679 0.0564 0.6553)% ,
obtenue en 8 itérations, et donne ¯ ∗ = 0.6666.

op −) − +
Exemple 06 : Soit le problème linéaire suivant :

^ 
\
−2) + + ≤ 1
] ) + + ≤ 3
\
[ ) , + ≥ 0

 ∗ = (1.3884, 1.6112)% , obtenue en 17 itérations, et donne ¯ ∗ = −3.


La solution optimale trouvée est :

29
Chapitre 03 Programmation linéaire

Commentaire :
A travers les tests numériques effectuées, on remarque
l’efficacité pratique de l’ algorithme en termes d’infériorité du nombre pratique
du nombre d’itération qui est très réduit, et la réduction de la durée d’exécution.

30
Chapitre 04 Programmation Quadratique

4.1. Introduction :
La programmation quadratique est connue pour ses applications multiples dans
plusieurs domaines. son importance provient du fait que plusieurs problèmes réels sont
quadratiques c’est le cas de nombreux problèmes en particuliers ceux de la physique et
de l’économie…. et souvent, qui intervient comme procédures intermédiaires pour des
programmes non linéaires, c’est le cas entre autre des méthodes de programmation
quadratique successives (SQP). En ramenant des programmes non linéaires avec de
transformation ou formulation adéquate aux problèmes de programmations
quadratiques successives où la fonction objectif à minimiser est quadratique sous des
contraintes linéaire.
Le problème quadratique en général peut s’écrire comme suit :


( ) =   +   


(PQ) 
 
 = 
≥ 0
Où Q est une matrice symétrique d’ordre n (Q ∈ ℝn*n), b ∈ ℝm, c, ∈ ℝn et A ∈ ℝm*n
de plein rang (rgA=m ≤ ).
Remarque : 1) L’ensemble des contraintes D={ ∈ ℝn,  = , ≥ 0} est un
polyèdre convexe et fermé, la fonction objectif est infiniment différentiable.
2) (PQ) est convexe si et seulement si F est convexe auquel cas la
matrice Q est semi-définie positive, car les contraintes sont linéaires (affines), donc
elles sont convexes.
4.2. Méthodes de résolution d’un problème quadratique:
On s’intéresse dans ce chapitre à la résolution par complémentarité linéaire qui
génère le domaine de la programmation linéaire et le domaine de la programmation
quadratique convexe avec une méthode des points intérieurs de type barrière
logarithmique, trajectoire centrale avec ou sans poids, en définissant leurs propriétés
attractives, notamment la complexité polynomiale et la convergence super linéaire, ce
qui devrait donner lieu à comportement numérique prometteur.

31
Chapitre 04 Programmation Quadratique

4.3. Complémentarité linéaire monotone :


L’importance de la complémentarité peut être mesurée par le rôle crucial
qu’elle joue dans la résolution de plusieurs problèmes dans différents domaines:
programmation linéaire, programmation quadratique convexe ....

Déterminer les points x, y ∈ ℝ! tels que :


Le problème de complémentarité linéaire monotone s’énonce comme suit :

y = Mx + q
(PLC)  x $ y = 0 
(x, y) ≥ 0
Où : M est une matrice carré d’ordre n semi-définie positive (M ∈ ℝn*n) et q ∈ ℝn.
4.4. Transformation d’un programme quadratique convexe en un
programme complémentaire linéaire :
Soit le programme quadratique convexe :


( ) =   +   



 
 ≤ 
≥ 0
(PQ)

Q est une matrice symétrique d’ordre n, et semi-définie positive. b ∈ ℝm, c, ∈ ℝn et


A ∈ ℝm*n de plein rang (rang A=m≤ ).
Comme le problème (PQC) est convexe et les contraintes sont linéaires alors les

∈ ℝn est une solution optimale de (PQC) si et seulement si ∃& ∈ ℝ(


' , ) ∈ ℝ'
conditions de KKT sont nécessaires et suffisantes et s’écrivent comme suit :
*

. +  +  & − ) = 0
tels que [4] [3] :

-
&  ( −  ) = 0 
, − ) = 0
+ & ≥ 0, ) ≥ 0, ≥ 0.

) = . +  +  &
-
2 =  −  

, )
= 0, & 
2 = 0
+ ≥ 0, & ≥ 0, ) ≥ 0, 2 ≥ 0

32
Chapitre 04 Programmation Quadratique

 =    6  + 8 9 ;
- 5
4

3 − 0 7 :

⟺ < 54  = 76 > = 0 
,
3
+ 54  ≥ 0, 76  ≥ 0

En posant : ? = 54 ,z = 76 ,q=8:9 ;

M=   
− 0
On obtient bien un PCL :

Trouver F ∈ ℝG'! tel que :


 ? = MF + q ≥ 0, F ≥ 0 
? F = 0
Exemple : soit le problème quadratique suivant :
  +  + 2  + 3 
-
3 M
5  + 3  <= 4 
,  −  <= 5
3
……………………………(1)

+ (  ,  ) ≥ 0

2 0  
Qui est équivalent au problème suivant :

- (  ,  ) 0  Q R + (2,3) Q R
2 
3 
M 
, 5  + 3  ≤ 4
3  −  ≤ 5
+ (  ,  ) ≥ 0
Son problème équivalent en programmation de complémentarité linéaire est le
suivant :

Trouver F ∈ ℝG'! tel que :


 ? = MF + q ≥ 0, F ≥ 0 
? F = 0

1 0 5 1
Avec :

? = 54 ,z = 76  et q = SUW avec : M = X 0 1 3 −1Z.
T
V −5 −3 0 0
−1 1 0 0

33
Chapitre 04 Programmation Quadratique

4.4.1. Dans le cas du programme linéaire :

Min c $ x
On a un programme linéaire sous la forme :

[ M 
A x ≤ b
(PL)
x ≥ 0

Trouver F ∈ ℝG'! tel que :


Peut se transformer à un (PLC) de la forme :

a ? = MF + q ≥ 0, F ≥ 0 
? F = 0
Où :

? = 54 ,z = 76 ,q=8:9 ; et

M= 0  .
− 0


Exemple : soit le problème linéaire suivant :

-  (2,3) Q R
3 
M 
, 5  + 3  <= 4
3  −  <= 5
+ (  ,  ) ≥ 0

Trouver F ∈ ℝG'! tel que :


Son problème de complémentarité linéaire suivant :

a ? = MF + q ≥ 0, F ≥ 0 
? F = 0

0 0 5 1
Avec :

? = 54 ,z = 76  et q = SUW et M = X 0 0 3 −1Z .
T
V −5 −3 0 0
−1 1 0 0
4.5. Transformation d’un programme complémentaire linéaire monotone
en un programme quadratique convexe :
En général, on ne peut pas transformer un (PCL) quelconque en (PQC) sauf si
la matrice M est semi-définie positive auquel cas on parle de (PCL) monotone.

34
Chapitre 04 Programmation Quadratique

Soit le problème complémentaire linéaire monotone suivant :

Trouver F ∈ ℝG'! tel que :


 ? = MF + q ≥ 0, F ≥ 0 
? F = 0
4.5.1. Théorème [3]:
Le (PCL) est équivalent au programme quadratique convexe suivant :
 F  F + c
PL M 
[
F + c ≥ 0
F ≥ 0
Au sens que (z*, Mz*+q) est une solution de (PCL) si et seulement si z* est une
solution optimale du programme quadratique avec une valeur optimale nulle de
l’objectif. En effet un programme quadratique convexe est un cas particulier du
problème de complémentarité.
4.6. La résolution d’un problème de complémentarité linéaire par la méthode de
trajectoire centrale :
Présentation de la méthode :
Cette approche est proposée par Kojima,Misuno et Yoshise, c’est une extension
de la méthode de trajectoire centrale appliquée à la programmation linéaire.

fghijkg ∈ ℝ* lkm cik ∶


Soit le problème de complémentarité linéaire monotone suivant :

- M. 
3
d.e & =  + c 
, &=0

3
+  , & ≥ 0

op = { , & ∈ o: & =  + c} l’ensemble des solutions strictement réalisables de


Notons :

d.e.
orst = { , & ∈ op :  & = 0} L’ensemble des solutions ded.e.
k = 1, … … … . .1 ∈ ℝ* .
v = wxy : > 0, vk = .
{ = wxy&: & > 0, {k = & .

35
Chapitre 04 Programmation Quadratique

(|&}hlℎèMk 01): op ≠ ∅ C’est-à-dire, un point strictement réalisable existe.


Supposons les hypothèses suivantes :

(|&}hlℎèMk 02):  est semi -définie positive.


Le (d.e)monotone est équivalent au programme quadratique convexe suivant :
  &
M.  
[
& =  + c
(PQC)
( , &) ≥ 0

 ‚5 ( , &)
On associe à ce dernier, le problème pénalisé suivant :

M.  
(d.e)5 [
& =  + c
( , &) > 0
Où ‚5 ( , &) est la fonction pénalisée définie par :
*

‚5 ( , &) =  & − 2 ƒ ln ( „ &„ )


„…

Et 2 un paramètre barrière strictement positif.


L’idée générale des méthodes de trajectoire centrale consiste à suivre un
chemin particulier (dit des centres ou chemin central), en prenant comme direction de
déplacement celle de Newton. Autrement dit : l’algorithme génère une suite ( † , & † )
strictement réalisable et une suite 2† qui exprime la condition de complémentarité.
Cette dernière est vérifiée lorsque 2† tend vers zéro.

La fonction ‚5 ( , &) est strictement convexe.


Proposition 4.6.1.1 :

La fonction ‚5 ( , &) peut être écrite sous la forme :


Preuve :

* *

‚5 ( ) =  ( + c) − 2 ‡ƒ ln ( „ ) + ƒ ln( + c)„ ˆ
„… „…

En effet ‚5 ( ) ∈ . ∞ et nous avons en particulier :


∇‚5 ( ) = ( +  ) + c − 2v Š k − 2 wxy(( + c) , … … , ( + c)* )Š k

36
Chapitre 04 Programmation Quadratique

∇ ‚5 ( ) =  +  + 2 ‹v Š +  wxy(( + c) , … … , ( + c)* )Š Œ


Comme  est une matrice semi-définie positive,v Š est définie positive pour tout
> kl 2 > h alors ∇ ‚5 ( ) est une matrice définie positive, donc ‚5 ( ) est convexe.

 Étant semi-définie positive et op ≠ ∅ non vide, le problème (d.e)5


Théorème 4.6.1.1: [5]

admet une solution optimale unique pour tout 2 > h.


Propriétés de ‚5 ( ) :1- Si op ≠ ∅ est non vide, alors pour tout 2 > h le problème
(d.e)5 admet une solution optimale unique qui est notée ( , &) appelé point central.
2- Quand 2 0, ‚5 ( ∗ , & ∗ ) valeur optimale de (PCL).

Soit 2 > 0 et  une matrice semi définie positive.


Théorème 4.6.1.2:[3]

( , &) est une solution optimale de (d.e)5 si et seulement si ( , &) satisfait le

v{k − 2k = 0
système suivant :

a & =  + c …………………………(1)
( , &) > 0
Donc, la solution de (d.e)5 est équivalente à résoudre le système(1).
Preuve :
(d.e)5 est convexe et différentiable, les contraintes sont qualifiées car affines, alors
les conditions de f sont nécessaires et suffisantes et s’écrivent comme suit :
& − 2v Š k +  F = 0
-
− 2{ Š k − F = 0 
, & =  + c
+ ( , &) > 0
Où F ∈ ℝ* est le multiplicateur de Lagrange associé à la contrainte  + c − & =0
du problème (d.e)5 .
Ou d’une manière équivalente :
(v + {)F = 0
 & =  + c 
( , &) > 0

37
Chapitre 04 Programmation Quadratique

(v + {) est définie positive alors inversible, donc F = 0.On substitut dans le
système de f, on obtient :
& − 2v Š k = 0
-
− 2{ Š k = 0 
, & =  + c
+ ( , &) > 0

v{k − 2k = 0
Alors :

a & =  + c 
( , &) > 0

En désignant par ( 5 , &5 ) la solution du système non linéaire (1) pour 2 > 0
Définition 4.6.1.1:

donné.L’ensemble de toutes les solutions du système (1): f = 8 5 , &5 ;: 2 > 0‘ est

Résolution du système (’) :


appelé trajectoire centrale.


5 ( , &) = 0 kl ( , &, 2) ∈ ℝ*' ∗ ℝ*' ∗ ℝ' … … … … … . (2)
Sur la fonction issue du système (1) :


5 : ℝ*' ∗ ℝ*' → ℝ*' ∗ ℝ*' est une fonction définie par :
v{k − 2k


5 ( , &) = ” •
& −  − c

( ' , & ' ) = ( , &) + (∆ , ∆&).


L’itération de newton est définie par :

Où (∆ , ∆&) est solution du système linéaire :


5 ( , &) ∆7
∆6
 = −
5 ( , &)… … … … … (sl)

{∆ + v∆& = −2k − v{k


C'est-à-dire le système d’équations linéaires suivant :

—
∆& = ∆

v ∆ −2k − v{k
(sl) s’écrit sous la forme matricielle comme suit :
{
Q R = Q R
 −˜ ∆& 0

38
Chapitre 04 Programmation Quadratique

Par un simple calcul, on trouve la solution (∆ , ∆&) donnée par :


∆ = ( + v Š {)(2v Š k − {k)
—
∆& = ∆
4.6.1.3. Facteur de centralité :
La qualité de chaque solution trouvée est mesurée par un facteur dit de
centralité :
& 
™ ( , &, 2) =  ‖v{k −2k‖ = ›v{k − œ  k›

( , &) ∈ ož est un point de la trajectoire centrale si : Ÿv{k −  kŸ = 0.


6  7
*

Le point ( , &) est à proximité de la trajectoire centrale f(¡) s’il appartient à


4.6.1.4. Concept de proximité:

l’ensemble suivant :
&  &
f(¡) = ¢( , &) ∈ op : ›v{k − œ  k› ≤ œ  ¡: ¡ > 0£

L’algorithme correspondant se présente comme suit :
4.6.1.5.Algorithme de la trajectoire centrale pour la programmation
quadratique :[3]

Données :¤ > 0 un parametre de precision et 0 < ¡ ≤ 0.1 une constante donnée.


Début algorithmique :

1-Initialisation : ( ¥ , & ¥ ) ∈ f(¡)


2-Itération : pour ¦ = 0,1,2……..
Calculer :
 
-les paramètres : ™ = et 2† = (1 − )
§ ¨ 86 ª ; 7 ª
Š§ √* *

-la direction de Newton (∆ † , ∆& † ) solution du système linéaire :


{ † ∆ † + v † ∆& † = 2† k − v † { † k
—
∆& † = ∆ †
-le nouvel itéré : ( †' , & †' ) = ( † , & † ) + (∆ † , ∆& † ) , ¦ = ¦ + 1
Condition d’arrêt: Si ( † ) & † ≤ ¤ alors la solution trouvée † est optimale
Sinon aller en 02 ;
Fin de l’algorithme.

39
Chapitre 04 Programmation Quadratique

L’algorithme part d’une solution initiale ( ¥ , & ¥ ) ∈ ož dans le voisinage


de la trajectoire centrale avec 2 = 2¥ , génère une suite de point ( † , & † ) solution de
système (2) par la méthode de Newton. Et on s’arrête lorsqu’on obtient une valeur
suffisamment petite de paramètre 2. Pour des choix convenables des constantes
positives ™ et ¡.du plus, l’algorithme génère une suite ( † , & † ) ∈ f(¡) (le nouveau

( ¥ , & ¥ ) ∈ f(¡) , et à chaque itération le terme ( † ) & † se reduit au moins


point reste dans le voisinage de la trajectoire centrale) en partant d’un point initial

linéairement par un montant fixe 1 − .


¨
«√*

Si le point courant ( † , & † ) est voisin de la trajectoire centrale et si on


4.6.1.6. La convergence de la méthode: [3] a été établie par Z.KEBICH

choisit une valeur convenable du paramètre 2 > 0; alors le nouveau point( ' , & ' )
reste voisin de la trajectoire centrale, plus précisément, on a le théorème suivant :

Théorème 4.6.1.6.1 : 0 < ¡ ≤ 0.1 ™ =


§
Š§
et supposons que :
 
( , & ) ∈ f(¡) et 2 = 1 −  , alors le point ( †' , & †' ) défini par :
† † † ¨ 86 ª ; 7 ª
√* *

( †' , & †' ) = ( † , & † ) + (∆ † , ∆& † ) Satisfait :


1- ( †' , & †' ) ∈ f(¡)
 
2- ( †' ) & †' ≤ 1 − 
¨ 86 ª ; 7 ª
«√* *
.

Remarque : Théoriquement, on suppose que la solution initiale est strictement


réalisable qui soit proche de la trajectoire centrale, mais l’obtention de ce point est une
difficulté majeure. Nous présentons une autre alternative à la méthode de trajectoire
centrale avec poids , c’est dessus.
4.6.2. Méthode de trajectoire centrale avec poids :
Présentation de la méthode :
On associe au problème (PCL) le problème perturbé défini comme suit :

 ‚5 ( , &) = ‹  & − 2 ∑*„… g„ ln ( „ &„ )Œ, 2 > 0


(d.e)5¬  & =  + c 
( , &) > 0

40
Chapitre 04 Programmation Quadratique

Où g = (g , g , … … , g* ) ∈ ℝ*'' sont les poids associés à la fonction barrière

Notons :® = wxy(g). la matrice diagonale dont ces éléments diagonaux sont les
logarithmique.

g„ ,  = 1 … .
Remarques : 1) pour g = (1,1, … … 1) ∈ ℝ* , on trouve le système classique, c'est-
à-dire la méthode trajectoire centrale (sans poids).
2) la solution optimale finie de (d.e)5¬ converge vers la solution de
(d.e) lorsque 2 tend vers 0.
 ‚5 ( , &) est strictement convexe et les contraintes sont linéaire (affines), alors

comme suit :
les conditions de KKT correspondantes sont linéaires et suffisantes et s’écrivent

& − 2v Š g +  F = 0
-
− 2{ Š g − F = 0 
, & =  + c
+ ( , &) > 0

Où F ∈ ℝ* est le multiplicateur de Lagrange associé à la contrainte ( + c − & =0)


du problème (d.e)5¬ .Ou d’une manière équivalente :
(v + {)F = 0
 & =  + c 
( , &) > 0
(v + {) est définie positive alors inversible, donc F = 0 .on substitut dans le
système de f , on obtient :
& − 2v Š g = 0
-
− 2{ Š g = 0
, & =  + c
+ ( , &) > 0

v{k − 2g = 0
Qui donne, alors :

(**) a & =  + c 
( , &) > 0
Donc, la solution de (d.e)5¬ est équivalente à résoudre le système(∗∗).
Définition 4.6.2.1.: L’ensemble de toutes les solutions du système (∗∗):

41
Chapitre 04 Programmation Quadratique

f¬ = 8 5 , &5 ;: 2 > 0‘ est appelé trajectoire centrale.


4.6.2.2. Facteur de centralité :[17]
La qualité de chaque solution trouvée est mesurée par un facteur dit de centralité :

  ®&
( ) ‖ ‖
™ , &, 2 =  v{k −2g = ›v{k − œ  g›

( , &) ∈ ož est un point de la trajectoire centrale si : Ÿv{k −  gŸ = 0.


6   ¯7
*

Le point ( , &) est à proximité de la trajectoire centrale f(¡) s’il appartient à


4.6.2.3. Concept de proximité [17]:

l’ensemble suivant :
 ®&  ®&
f(¡) = ¢( , &) ∈ op : ›v{k − œ  g› ≤ œ  ¡: ¡ > 0£

 Pour résoudre le système (**), on définit la fonction :


5¬ : ℝ*' ∗ ℝ*' → ℝ*' ∗ ℝ*' est une fonction définie par :
v{k − 2g

5¬ ( , &) = ” •
& −  − c
La résolution du
5¬ ( , &) = 0 revient à résoudre le système linéaire :
{∆ + v∆& = −2g − v{k 
—
∆& = ∆
(S1)

v ∆ −2g − v{k
(Sl) s’écrit sous la forme matricielle comme suit :
{
Q R = Q R
 −˜ ∆& 0
Par un simple calcul, on trouve la solution (∆ , ∆&) donnée par :
∆ = ( + v Š {)(2v Š g − {k)
—
∆& = ∆

( ' , & ' ) = ( , &) + (∆ , ∆&).


Le nouvel itéré est calculé comme suit :

4.6.2.4. Calcul du pas de déplacement :


Pour réduire le nombre d’itération et le temps de calcul, on a introduit une
procédure pratique moins couteuse pour la recherche et le calcul du pas de
déplacement.

42
Chapitre 04 Programmation Quadratique

Si ( , &, M) est le point courant réalisable, alors le nouvel itéré :


( ' , & ' , M ' ) = ( , &, M) + °(∆ , ∆&, ∆M) , doit être réalisable. Aussi qu’ils
+ °6 ∆ > 0
—& + ° ∆& > 0
7
vérifient :

On prend: ° = ± ( °6' , °7' ) tel que 0 < ± < 1.

 − xjk  ∈ ˜ = {: ∆ „ < 0} 



°6 = ¢ ∆6²
1 M ∆ „ ≥ 0
Où :


 − xjk ´ ∈ µ = {´: ∆&³ < 0}
°7 =  ∆&³ 
1 M ∆&³ ≥ 0
4.6.2.5. Algorithme de trajectoire centrale avec poids:

Données :¤ > 0 un paramètre de précision.


Début de l’algorithme :

Initialisation : ( ¥ , & ¥ ) ∈ ož , 2 = ,g = , ™ = 1 −  ¼.
¶· ¸ ¹ ¸ º¶ · ¸ ¹ ¸ º √
√* » 

v ¥ = wxy( ¥ ), { ¥ = wxy(& ¥ ), ¼ = min g„ et ® = wxy(g) pour i :1,…,n.


Itération : pour ¦ = 0,1,2….
Calculer :
 
-les paramètres : 2 = (1 − )
† ¨ 86 ª ; ¯7 ª
√* *

-la direction de Newton (∆ † , ∆& † ) solution du système linéaire :


{ † ∆ † + v † ∆& † = 2† g − v † { † k
—
∆& † = ∆ †
-calcul du pas °† ,tel que °† = (°6 , °7 )
-le nouvel itéré : ( †' , & †' ) = ( † , & † ) + °† (∆ † , ∆& † ) , ¦ = ¦ + 1
Test d’arrêt: ( † ) ®& † ≤ ¤.

 Donc l’algorithme Part d’un point initial( ¥ , & ¥ ) ∈ f¬ (¡) .


Fin algorithme.

Pour des choix convenables des constantes positives ™ et ¼, l’algorithme


génère une suite ( † , & † ) ∈ f¬ (¡) (le nouveau point reste toujours dans le
voisinage de la trajectoire centrale) en partant d’un point initial ( ¥ , & ¥ ) ∈ f¬ (¡),de

43
Chapitre 04 Programmation Quadratique

plus ,à chaque itération le terme ( † ) ®& † se réduit au moins linéairement par un

montant fixe 1 − .
¾
«√*

4.6.2.6. Convergence de l’algorithme :[5]


On a le théorème suivant :
Théorème 4.6.2.6.1. :

Soient ( ¥ , & ¥ ) ∈ ož , 2 = , g = , ™ = ¡ = 1 −  ¼ et
¶· ¸ ¹ ¸ º¶ · ¸ ¹ ¸ º √
√* 5 

¼ = min g„ pour i : 1, … , n.
 
Supposons que : ( , & ) ∈ f¬ (¡) et 2 = (1 − )
† † † ¨ 86 ª ; ¯7 ª
√* *
, alors :

1) ( †' , & †' ) ∈ f¬ (¡)


2) ( †' ) ®& †' ≤ 1 −  ( † ) ®& †
¾
«√*
Où : f¬ (¡) = {( , &) ∈ op : ‖v{k − 2g‖ ≤ 2¡: ¡ > 0}.
Remarque : L’inconvénient majeur de ce type des méthodes réside dans
l’initialisation, c'est-à-dire la détermination d’un point initial qui se trouve à l’intérieur
du domaine et proche de la trajectoire centrale. Théoriquement, on suppose que point
est connu, pour cela, on intègre la méthode de Karmarkar pour le calcul de ce dernier
comme suit :

Un point est strictement réalisable de (d.e) est la solution du problème :


4.6.2.7. Le calcul d’une solution initiale strictement réalisable :

{& =  + c, ( , &) > 0} ………………(**)


En utilisant la technique de variable artificielle, le problème (**) est équivalent au

 )
problème suivant :

M.  
[
F + )(c − F ¥ ) = c
……………………(d1)
F ≥ 0, ) ≥ 0
Tel que : F ¥ ∈ ℝ*'' est choisi arbitrairement dans l’orthant positif et ) une variable
artificielle. Posons ? = (&, , )), le problème (P1) est équivalent au problème linéaire
suivant :

44
Chapitre 04 Programmation Quadratique

   ? = F ∗
[ M.  ………………………… (P2)
̅
? = 
?>0
Où :   = (0, … ,1) ∈ ℝ*'(' , ̅ = ‹˜ −   − xŒ ∈ ℝ(∗(('*') .
Le problème (P2) vérifie les hypothèses de Karmarkar :
1) F ∗ = 0.
2) ? = (x, 1) est une solution strictement réalisable de (P2).
3) ̅ est une matrice de plein rang (rang ̅ =  ≤  + + 1).
Plus précisément Karmarkar démontre le théorème suivant :

∃ ¤ > 0 , telle que les deux propositions suivantes sont équivalentes :


Théorème 4.6.2.7.1.:

1) ( , &) une solution de (P1).


2) (P2) admet une solution optimale ? = (&, , ))/) ≤ ¤.

La résolution de (P1) se ramène donc à celle du problème (P2), auquel on appliquera


l’algorithme de Karmarkar, puisque connaissant la valeur optimale et une solution
réalisable de ce dernier.
4.7. Tests numériques :
Nos tests d’applications sot réalisés su un PC portable Acer sous Windows
7 en utilisant le langage MATLAB.

Min f(x)
Les exemples traités sont de la forme canonique suivante :

M 
[
A x = b
(PL)
x ≥ 0
La précision est comprise entre 10ŠT kl 10Š« .
Pour la recherche des solutions initiales, on présente un algorithme un
algorithme réduit de Karmarkar (Annexe1), qui va nous aider à résoudre ce dernier
avec la trajectoire centrale avec et sans poids.
1) L’application avec la méthode de TC sans poids :
a)cas linéaire :

45
Chapitre 04 Programmation Quadratique

 3  + 2  + T + 3 U
Exemple 01 : Soit le problème linéaire suivant :

-  −  + T + U = 3
3
2  +  − T + 2 U = 4 
,  + T + 2 U = 5
3
+  ,  , T , U ≥ 0
Prenons les solutions trouvées initiales suivantes:
° = (0.341957 , 0.004313 , 0.670979 , 1.991376 )
& ° = (−0.005320 , 0.274080,1.222858)
Après une 63 itérations, On obtient les solutions optimales suivantes :
∗ = (0.2972 0.0181 0.6486 2.0414)
& ∗ = ( 1.4046 0.6134 0.1619)
Et la valeur optimale: F ∗ = 7.8.

 4  +  + 2 T
Exemple 02 Soit le problème linéaire suivant :

- M
3
2  + 3  + T + 2 U = 2
, 3  − 2 T + U = 0
3
+  ,  , T , U ≥ 0
Soient les solutions initiales du problème :
° = (0.001069 , 0.663691 , 0.002641 , 0.002074 )
& ° = (0.270655 , −0.546445)
Les solutions optimales trouvées sont :
∗ = (0.0000 0.6666 0.0000 0.0000)
& ∗ = ( 0.2707 − 0.5464)
Après 54 itérations avec la valeur optimale F ∗ = 0.6666.
b) cas quadratique :
Exemple 03 : Soit le problème quadratique suivant :

- ‚ ( ) =   + 
 

M 

,  = 
+ ≥0

Tel que :A=8    ; , Q= Q¥  ¥R et C=( −2, −4 , 0) , b=8;.


Š  ¥  ¥ ¥ 
¥ ¥ ¥

46
Chapitre 04 Programmation Quadratique

Pour epsilon=0.00001 et les solutions initiales égales à :


° = (0.012567 , 1.012567 , 0.974867 )
& ° = (−0.000000 , 0.001387 , 1.976253)
Après 23 itérations, on obtient, les solutions optimales suivantes :
∗ = (0.5000 1.5000 0 )
& ∗ = ( 0.0014 2.9525)
Qui donnent la valeur optimale F ∗ = −4.5 ;

 (  − 1) + (  − 2.5)
Exemple 04: Soit le problème quadratique suivant :

-
M
3
 − 2  + T = −2 
, −  − 2  + U = 2
3 −  + 2  + V = −2
+  ,  , T , U , V ≥ 0
Les solutions initiales trouvées égales à :
° = (2.000000 , 0.000001 , 4.000000 , 0.00001 , 0.000001)
& ° = (0.000013 , −2.271984 , 0.000788)
On obtient, les solutions optimales suivantes après 123 itérations :
∗ = (2.0000 0.0000 4.0000 0.0000 0.0000 )
& ∗ = ( 0.0000 − 2.2720 0.0008) , la valeur optimale F ∗ = −4.25.
2) L’application de méthode de TC avec poids :
1) cas linéaire :

 4  +  + 2 T
Exemple 05 : soit le problème linéaire suivant :

- M
3
2  + 3  + T + 2 U = 2
, 3  − 2 T + U = 0
3
+  ,  , T , U ≥ 0
Soient les solutions initiales du problème :
° = (0.001069 , 0.663691 , 0.002641 , 0.002074 )
& ° = (0.270655 , −0.546445)

47
Chapitre 04 Programmation Quadratique

Les solutions optimales trouvées après 49 itérations, sont :


∗ = (0.0000 0.6666 0.0000 0.0000)
& ∗ = ( 0.2707 − 0.5464)
Qui donnent F ∗ = 0.6666.

 3  + 2  + T + 3 U
Exemple 06 : Soit le problème linéaire suivant :

- M
3
 −  + T + U = 3 
, 2  +  − T + 2 U = 4
3  + T + 2 U = 5
+  ,  , T , U , V ≥ 0
Les solutions initiales trouvées sont:
° = (0.341957 , 0.004313 , 0.670979 , 1.991376 )
& ° = (−0.005320 , 0.274080,1.222858)
Les solutions optimales trouvées après 46 itérations, sont :
∗ = (0.3333 0.0000 0.6667 2.0000)
& ∗ = ( 1.6646 0.6662 0.0015)
Avec la valeur optimale du problème : F ∗ = 7.6867.

 −4  − 5 
Exemple 07 : Soit le programme linéaire :

- M
3
2  +  + T = 8 
,  + 2  + U = 7
3
+  ,  , T , U ≥ 0
Soient les solutions initiales trouvées suivantes :
° = (2.934176 , 2.023044 , 0.108604 , 0.019737 )
& ° = (−1.024282 , −1.971814)
Qui donnent les solutions optimales :
∗ = (3.0000 2.0000 0.0000 0.0000)
& ∗ = ( −1.0703 − 1.8594) .
Et la valeur optimale F ∗ = −22 après 45 itérations.

48
Chapitre 04 Programmation Quadratique

3) Cas quadratique :

1 
Exemple 08 : Soit le problème quadratique suivant :

 ‚ ( ) =  +  ′
[ 2 
 = 
≥0

Tel que : A=8  V ¥  ;, Q=SŠ U ¥ ¥W, et C = (−4 , −6 ,0 ,0 ) , b=8V;


   ¥ U Š ¥ ¥ 
¥ ¥ ¥ ¥
¥ ¥ ¥ ¥

Les solutions initiales trouvées sont :


° = (0.628088 , 0.872245 , 0.499667 , 0.010689 )
& ° = (−3.097763 , −0.137088)
Après 48 itérations, on trouve les solutions optimales après 19 itérations :
∗ = (1.25 , 0.75 , 0 , 0 )
& ∗ = ( −3.1256 − 0.4749)
Et la valeur optimale du problème : F ∗ = −6.5340.

2 0 0
Exemple 09 : pour :

−2 1 0 1
 , Q= S0 2 0W et C=( −4, −5, 0) , b= .
1 0 1 1
0 0 0
A=

Les solutions initiales trouvées égales à :


° = (0.012567 , 1.012567 , 0.974867 )
& ° = (−0.000000 , 0.001387 , 1.976253)
On obtient, les solutions optimales suivantes :
∗ = (0.2098 1.4070 0.7777 )
& ∗ = (0.7902 3.9525)
Qui donnent la valeur optimale : F ∗ = −6.67.

Commentaire : A travers les tests numériques effectuées, on constate


l’efficacité pratique de l’ algorithmes de trajectoire centrale en terme
d’infériorité du nombre pratique du nombre d’itération qui est très réduit, et de
la réduction de la durée d’exécution. Aussi le paramètre poids, joue un rôle très
important à la réduction de ces derniers.

49
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

5.1. Introduction :
Dans ce chapitre, on va présenter deux méthodes de points intérieurs, la
premier de type projectif celle de Karmarkar, et l’autre de type barrière logarithmique
(méthode de trajectoire centrale avec poids), pour la minimisation de problèmes de
fonction objectif non linéaire convexe différentiables sous contraintes linéaires,
c’est-à-dire minimiser cette dernière sur un polyèdre.

 
Considérons le problème d’optimisation non linéaire convexe suivant :




 =
……………………
≥0
Où : ℝ → ℝ est une fonction non linéaire, convexe et différentiable, une matrice
de type ,  de plein rangrang A = m ≤ n, ∈ ℝ$ .
% = & ∈ ℝ' :  = ( : L’ensemble des solutions réalisables de.
5.2. Méthode de Karmarkar:
5.2.1.Présentation de la méthode :
Considérons le problème d’optimisation non linéaire sous contraintes linéaire

  
suivant :


………………………………………(1)

 =
≥0
Où : ℝ → ℝ est une fonction non linéaire, convexe et différentiable, une matrice
de type , .

Hypothèse 01: La matrice A est de plein rang rg A = m ≤ n


Supposant les hypothèses suivantes (hypothèses de Karmarkar) :

Hypothèse 02: On dispose d’un point  3 strictement réalisable   3 = ,  3 > 0 .


Hypothèse 03: La valeur optimale 6 ∗ de l’objectif est connue au départ.

A l’hypothèse 2, pour le système de contraintes :  = , ≠ 0 , on se ramène


Remarque :

facilement à un système homogène .il suffit d’écrire :

50
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

 = 9':
;
 ⇒  − 9':
; 
=0
Soit la transformation projective notée Τ>  une fonction définie par :[2]
Τ> : ℝ' → ?': définie par : Τ>  = @
Avec :

@ =
CD ⁄CDE
A B :'∑HDIJCD ⁄CDE 
@': = 1 − ∑BK: @B
……………………..(2)

B
On a :

@B = @': ,  = 1, … … … … … , .
B>
Ou encore : @NO = %>P: @': ou @NO désigne les  première composantes de @ .

La transformation Τ>  est univoque, et donnons sa transformation inverse


Remarque :

> @ =
 = ΤP: , %> = TUV > .
QE RNO
RHSJ
par :

 Alors, On commence par ramener le problème à la forme simplifiée suivante :

 V@ = 0

………………………….(2)

W@ = 0
@ ∈ ?':
Où V: ℝ': → ℝ, est une fonction non linéaire, convexe et différentiable.
?': = &@Xℝ': : 9':
;
= @, @ ≥ 0( est le simplexe de dimension  et de centre U tel
que UB = , ∀ ∈ &1, …  + 1(, 9': ∈ ℝ': où : 9B = 1, ∀ ∈ &1, … ,  + 1(.
:
':

 En appliquant la transformation projective Τ>  sur le problème (1), on trouve


le problème suivant :

^_`abcdΤE
eJ j kNHO
RfPg ∗ hKci E lPg ∗
\
kHSJ
jE kNHO
Km 
]
kHSJ

\
…………………….( 3)
∑HSJ
DIJ RD K:
[ RNOn3,RHSJ

Qui est équivalent à résoudre le problème suivant :

51
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

jE kNHO
_`aRHSJbcdΤeJ
E RfPg hKRHSJ oci
∗ lPg ∗ p

kHSJ
 QE RNOPmRHSJ K3
∑HSJ
DIJ RD K:
…………………….( 4)

RNOn3,RHSJ

Encore équivalent à :
 V@ = @': qrs>P: @t − 6 ∗ u

………………………….. (5)

> @ = 0
@ ∈ ?':

Avec : > = N %> − O, @ = bRRNO h.


HSJ

Notons que toute solution réalisable de 1 est transformée par Τ>  en une
solution réalisable de 5 et réciproquement, toute solution réalisable @ de 5 avec
@': > 0 est transformée par Τ>P: en une solution réalisable  de 1.et que la valeur
optimale de V@ est 0 et que le centre du simplexe est réalisable pour (5).
Lemme 5.2.1.1. : La fonction  étant convexe sur l’ensemble % = & ∈ ℝ :  =
,≥0, il en est de même pour V sur l’ensemble: % =@∈ℝ+1: w@=0,@∈?+1.

Preuve : On a V est une fonction continue sur %x , il suffit de montrer que :


∀y ∈ N0,1O, Vy@ + 1 − y@z ≤ yV@ + 1 − yV@z, ∀@, @z ∈ %x
Nous avons :∀@, @z ∈ %x , ∃, z ∈ % tel que :  = s>P: @ et z = s>P: @z, et alors :
%> y@NO + 1 − y@zNO
Vy@ + 1 − y@z = y@': + 1 − y@z':  | } ~ − 6∗ =
y@': + 1 − y@z': 
= Ny@': + 1 − y@z': O ∗
@': @z':
o iy i  − 6 ∗ l + 1 − y zl − 6 ∗ p
y@': + 1 − y@z':  y@': + 1 − y@z': 
Comme  est convexe, alors :

‚ @': ‡
yƒ „ +
 y@': + 1 − y@z':  †
Vy@ + 1 − y@z ≤ y@': + 1 − y@z':   †
1 − y @z': ∗ †
z − 6 
€ y@': + 1 − y@z':  …
≤ y@': N − 6 ∗ O + 1 − y@z': Nz − 6 ∗ O = yV@ + 1 − yV@
ˆ

Donc: Vy@ + 1 − y@z ≤ yV@ + 1 − yV@z ⟹ V@est convexe sur %x .

52
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

 Après la formulation du problème (4), En linéarisant la fonction V@ au


voisinage du centre du simplexe et en introduisant une boule de centre U (centre
du simplexe) et de rayon Š considérée comme voisinage de U :

V@ = VU + ∇VU; @ − U Pour @ ∈ &@ ∈ ℝ': : ‖@ − U‖ ≤ Š(.

V@ = VU + ∇VU; @ − U


On obtient le sous problème suivant :

^
\

> @ = 0  … … … … … … . . 6
] 9':
;
@ = 1, @ ≥ 0
\
[ ‖@ − U‖ ≤ Š 

∇VU; @
Qui équivalent au problème suivant :

^
\

> @ = 0 … … … … … … … . 7
]9': @ = 1, @ ≥ 0
;
\
[ ‖@ − U‖ ≤ Š 
On sait que (lemme3.4.3.1 chapitre 03) pour Š < 1, la contrainte @ ≥ 0 est redondante

∇VU; @
et donc :

^
\

> @ = 0 … … … … … … … . 8
] 9': @ = 1
;
\
[‖@ − U‖ ≤ Š 

La solution optimale du problème (7) est donnée explicitement par :@ > = U − UT > où
Lemme 5.2.2:[3]

T> = et ”> = ”W> r∇VUt, W> = b– — E h.


’E •
“’E “ HSJ

Preuve : On pose  = @ − U, alors on a:

W>  = b– — E h @ − U = b– — E h @ − b– — E h U = 0.
• • •
HSJ HSJ HSJ

En remplaçant @ − U par  dans le problème (7), on obtient le problème suivant :

53
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

∇VU; 

…………………… (9)

W>  = 0
‖‖ ≤ U
Le problème (8) est convexe (∇VU;  est convexe et les contraintes sont convexes),
donc les conditions de KKT sont nécessaires et suffisantes, elles s’écrivent comme
suit :
∇VU + W> ; y + ™ = 0 … … … … . U
˜ W>  = 0 … … … … …   ……………(10)
™‖‖ − U  = 0 … … … … … . c
Où :∃y ∈ ℝ$': et ∃™ ∈ ℝ' sont les multiplicateurs de Lagrange associés à les
contraintes W>  = 0 9› ‖ ‖ ≤ U respectivement du problème (8).
Alors  ∗ est solution optimale si et seulement si:
∃y ∈ ℝ$': et ∃™ ∈ ℝ' tels que :
∇VU + W> ; y + ™ ∗ = 0.
D’après l’équation (a) du système (9) : ∇VU + W> ; y + ™ ∗ = 0……….(*)
En multipliant (*) par W> on trouve:
W> ∇VU + W> W> ; y + ™W>  ∗ = 0. ……………(**)
De l’équation (b) du système (9), on a: W>  ∗ = 0, donc W> ∇VU + W> W> ; y = 0.
Alors : y = −W> W> ; P: W> ∇VU, en substituant dans (*) :
 ∗ = − N − W> ; W> W> ; P: W> O∇VU = − ”> .
: :
œ œ

‖ ∗ ‖ = ‖”> ‖ … … … … … … . +
:
œ

Et on a dans l’équation (c) du système (9): pour ž ≠ 0, ‖ ∗ ‖ = Š…………..(++)

De (+) et (++), on trouve ‖ ∗ ‖ = ‖”> ‖ = Š ⟹ ž =


: ‖’E ‖
œ Ÿ
donc:

 ∗ = − ”> = −Š ‖’E‖ et on a :@ > = @ ∗ = U +  ∗ = U − Š ‖’E‖ = U − ŠT> .


: ’ ’
œ E E

54
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

5.2.2. Algorithme:(Karmarkar pour la programmation non linéaire convexe):[3]


1) Initialisation :  > 0 est une précision donnée,  3 est un point strictement réalisable.
Tant que :   >  − z ∗ ≥   faire :
Pas 1 :

-construire : %> = TUV > , > = N %> − O, W> = b– — E h.


•
HSJ

-calculer :”> = N − W> ; W> W> ; P: W> O∇VU, T > =


’E
“’E “
.

-calculer : @ > = U − ŠT> .


Pas 2 :

-prendre : >': = ¢>P: @ >  = ,w ≔ w + 1 et retourner au pas 1.


%w R E NO
R E +1

Fin tant que ;


Fin de l’algorithme.
 L’algorithme démarre d’une solution strictement réalisable  3 .et à
chaque itération w, on applique la transformation projective ¢> pour
envoyer le point courant  > au centre du simplexe, on calcule @ > solution

appliquant la transformation inverse ¢> -1 et ainsi de suite jusqu’a ce que


optimale du problème linéarisé (7), et on revient à la variable initiale en

le test d’optimalité (  >  − z ∗ ≥  ) se réalise où  > 0 est une


précision donnée.
5.2.3. Convergence de l’algorithme :
La preuve de la convergence de notre algorithme est basée sur l’analyse
de la fonction potentiel associée au problème (1), qui est définie par :


” =  + 1 ln − 6 ∗  − ¥ lnB .


BK:

Sur %x = & ∈ ℝ : >  = 0,  ∈ ? (.

55
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

Notre but est de montrer la réduction de ” la fonction potentielle, pour avoir la
réduction dans la fonction − 6 ∗  . Donc si la suite ” > ) tend vers −∞ alors
la suite   >  tend vers 0.
Théorème 5.2.3.1 :[2]
A chaque itération de l’algorithme, la fonction potentiel se réduit d’une valeur

constante § telle que : ” >':  = ” >  − §, où § = Š − .


٬
:PŸ¨

” >':  − ” >  =  + 1 ln −¥ ln
crC ESJ tPg ∗ CDESJ
crC E tPg ∗ BK: CDE
Preuve :

V@ > 
':

 
=  + 1 ln − ¥ ln @B> .
VU
BK:

En utilisant les résultats démontrés par Karmarkar :


Pour @ > la solution optimale du problème (7), on a :

1) − ∑':
BK: ln @B = .
> ٬
:PŸ¨

2) V@ >  ≤ d1 − f VU.


Ÿ
':

Donc : ” >':  − ” >  ≤  + 1 ln d1 − f−


Ÿ Ÿ¨
': :PŸ¨

≤Š− .Ce qui montre le résultat.


٬
:PŸ¨

5.2.4. Test numériques :

  
Les exemples traités sont de la forme suivante :


……………………(PNLC)

 =
≥0
Où : ℝ → ℝ est une fonction non linéaire, convexe et différentiable, une matrice
de type , .La précision est située entre 10P© 9› 10Pª .
Exemple 1 : Soit le problème non linéaire convexe suivant :

56
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

9”: −  


 
2 : −   + © = 1
: ,  , © ≥ 0
Pour : epsilon=0 .001 et 6 ∗ = 0, on trouve la solution optimale après 19 itérations:
 ∗ = 0.005 11.5994 22.3795; .
Qui donne la valeur optimale :  ∗  = exp −11.5989.
Exemple 02 : Soit le problème non linéaire suivant :
min : + 2 − 2:  − 2: − 
^
\

: +  = 2 
] −: + 2 = 2
\
[ : ,  ≥ 0
Pour 6 ∗ = −7 et esp=0.0001 après 26 itérations, on obtient :
La solution optimale qu’on obtient :  ∗ =0.6546 , 1 . 3453;
Exemple 03 : Soit le problème non linéaire quadratique suivant :

^min   =   ¯ +

; :;



]  =
[ ≥
Tel que : Q=r ° P
P °
t et A=r : :
: ª
t

avec : = r©t et c=(-4 -6)


pour epsilon =0.0001, 6 ∗ = −4.5, on obtient :
 ∗ =0.5 , 0.5; .

Commentaire :
Les exemples testés montrent la fiabilité, et l’efficacité pratique de cet
algorithme en termes d’infériorité du nombre pratique d’itération, et la réduction de
temps d’exécution.

57
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

5.3. La méthode de trajectoire centrale :


5 .3.1.Présentation de la méthode :

 
Considérons le problème d’optimisation non linéaire convexe suivant :




 =
……………………
≥0
Où : ℝ → ℝ est une fonction non linéaire, convexe et différentiable, une matrice
de type ,  de plein rang rg A = m ≤ n, ∈ ℝ$ .
On note par : 9 = 1, … … … . .1; ∈ ℝ .
% = & ∈ ℝ' :  = ( : L’ensemble des solutions réalisables de.
%± = & ∈ ℝ'' :  = ( : L’ensemble des solutions strictement réalisables de
 qui est supposé non vide.

 œ 
On associe à ce dernier, le problème pénalisé suivant :


……………………²

 =
>0
Où : œ est la fonction pénalisée définie par :


œ  =  − ™ ¥ ln B
BK:

Et ™ un paramètre barrière strictement positif.

La fonction œ est strictement convexe.


Proposition 5.3.1.1 :

Preuve : il suffit de voir que :∀ ∈ ℝ' , œ  ∈  ∞ et nous avons en particulier :

∇œ  = ∇  − ™³ P: 9 avec ³ = TUV et ³ P: 9 = TUV d f 9.


:
C

∇ œ  = ∇   + ™³ P est une matrice définie positive (car  convexe).

58
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

D’où le problème œ (les contraintes sont linéaires), donc les conditions de
KKT sont nécessaires et suffisantes, elles s’écrivent comme suit :
∇  − ™³ P: 9 − ; @ = 0
˜ −  = 0 
 > 0, @ ∈ ℝ$
Où :  ∈ ℝ'' et @ ∈ ℝ$ est le multiplicateur de Lagrange associé à la
contrainte  −  = 0) du problème² .
On pose = ™³ P: 9 ∈ ℝ'' , le système précédent devient :
; @ + = ∇ 
 = …………..(1)

³ − ™9 = 0
,  > 0
Pour chaque valeur de ™, on résout le système (1) par la méthode de newton, on obtient

initiale lorsque ™ tend vers 0.


ainsi une suite de solution paramétrée qui converge vers la solution du problème

Définitions 5.3.1.1:

¢ = &, @,  ∈ %± ∗ ℝ$ ∗ ℝ'' : ; @ + = ∇ (


On définit l’ensemble :

La trajectoire centrale est l’ensemble de toutes les solutions ´rœ , @œ , œ t/™ > 0¶ du

; @ + = ∇  … … … … … . . U
système :

^
 = … … … … … … … … … . . .  
] B B = ™ ,  = 1 …  … … … … . 

…………….(2)
[ ,  > 0

¢ = &, @,  ∈ ¢: ³?9 − ™9 = 0(……………..(3)


Elle est notée :

Avec ? = TUV .

est difficile d’obtenir une solution exacte de ² . Nous allons donc nous
Puisqu’on a une équation non linéaire dans le système (1) de même pour (2), il

contenter d’une solution approchée dont la qualité est jugée satisfaisante lorsqu’elle se

59
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

trouve dans le voisinage de la trajectoire centrale (TC). Ce voisinage correspond aux

‖³?9 − ™9‖ ≤ ·™ U¸9


0 < · < 1.
conditions de KKT où l’on remplace les contraintes non linéaires par la contrainte :

Définition 5.3.1.2 :

¢· = &, @,  ∈ ¢: ‖³?9 − ™9‖ ≤ ·™: 0 < · < 1(……………..(4)


Un point est dit voisin de trajectoire centrale s’il appartient à l’ensemble :

Les méthodes primales duales déterminent les solutions du système (2) en


appliquant la méthode de Newton aux équations (2.a), (2.b) et (2.c) comme suit :
On définit la fonction non linéaire :
œ : ℝ'$ ℝ'$ :
; @ + − ∇ 
œ , @,  = ¹  − º
³?9 − ™9

Où ³ = TUV et ? = TUV .
La direction de newton ∆, ∆@, ∆  est solution du système linéaire :

∇œ , @,  ¹∆@º = −œ , @, .


∆

∇ œ 
Où :
− ; −
∇œ , @,  = ƒ 0 0 „……………….(6)
? 0 ³

 ' , @ ' , '  = , @,  + ∆, ∆@, ∆ .


 Le nouvel itéré est définie par :

Où ∆, ∆@, ∆ est solution du système linéaire (6), C'est-à-dire le système


d’équations linéaires suivant :
∇ œ  − ; − Δ 0
ƒ 0 0  „ ƒ Δ@ „ = ¹ 0 º
? 0 ³ ∆ −³?9 + ™9

60
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

5.3.2. Algorithme de trajectoire centrale pour la programmation convexe :[3]

Données :  > 0 un paramètre de précision.


Début de l’algorithme :

 O sont des constantes.


1-Initialisation : ·, ½ ∈ N0,1
—
Soient :  3 , @ 3 , 3  ∈ ¢·, ™ =
rC ¾ t x ¾

avec :

³ 3 = TUV 3 , ? 3 = TUV 3 .
2-Itération : pour w = 0,1,2….
Pas 1 :
Calculer :
-les paramètres : ™>': = ½™>
-résoudre le système :
∇ œ  − ; − Δ 0
ƒ 0 0 „ ƒΔ@„ = ¹ 0 º
? 0 ³ ∆ −³?9 + ™9

Pour obtenir : ∆, ∆@, ∆ .


Pas 2 :

-le nouvel itéré :  >': , @ >': , >':  =  > , @ > , >  + ∆, ∆@, ∆ , w = w + 1
3-Jusqu’à:  > ; > ≤  
Fin de l’algorithme.
Remarque : Si le point initial calculé n’est pas voisin de la trajectoire centrale, rien ne
garantie la convergence de cet algorithme même si ce point est strictement réalisable.
Nous introduisons le paramètre poids associé à la fonction barrière afin que le point
initial reste au voisinage de la trajectoire centrale.

61
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

5.3.3. Méthode de trajectoire centrale avec poids :


5.3.3.1. Présentation de la méthode :

 
Considérons le problème d’optimisation non linéaire convexe suivant :




 =
……………………
≥0
Où : ℝ → ℝ est une fonction non linéaire, convexe et différentiable, une matrice
de type ,  de plein rang rg A = m ≤ n, ∈ ℝ$ .
On associe à   le problème perturbé défini comme suit :
œ¿ 
A  = ……………………œ¿
>0
Où :


œ¿  =  − ™ ¥ ÀB ln B


BK:

Avec : ™ > 0, À = À: , À , … … , À ; ∈ ℝ' sont les poids associés à la fonction barrière

Notons :Á = TUVÀ. La matrice diagonale dont ses éléments diagonaux sont


logarithmique.

les ÀB ,  = 1 … .
On a œ¿  est strictement convexe et les contraintes du problème
²¿ sont linéaire (affines), alors les conditions de KKT correspondantes sont
nécessaires et suffisantes et s’écrivent comme suit :
∇  − ™³ P: À − ; @ = 0
˜ −  = 0 …………………….(1)
 > 0, @ ∈ ℝ $

Où :  ∈ ℝ' et @ ∈ ℝ$ est le multiplicateur de Lagrange associé à la contrainte


 −  = 0) du problème œ¿ .

62
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

On pose = ™³ P: À ∈ ℝ'' , le système précédent devient :


; @ + = ∇ 
 = …………..(2)

³ − ™À = 0
,  > 0
Pour chaque valeur de ™, on résout le système (2) par la méthode de newton, on

problème initiale lorsque ™ tend vers 0.


obtient ainsi une suite de solution paramétrisées qui converge vers la solution du

Remarques : 1) pour À = 1,1, … … 1; ∈ ℝ , on trouve le système classique,


c'est-à-dire la méthode trajectoire centrale (sans poids).
2) la solution optimale finie de œ¿ converge vers la solution
de  lorsque ™ tend vers 0.
 On applique la méthode de newton pour , @,  ∈ ¢, on obtient le
système :

∇ œ  − ; − Δ 0
ƒ 0 0  „ ƒ Δ@ „ = ƒ 0 „ … … … … … . . 3
? 0 ³ ∆ −³?9 + žÀ

 ' , @ ' , '  = , @,  + ∆, ∆@, ∆ .


 Le nouvel itéré est définie par :

Où ∆, ∆@, ∆ est solution du système linéaire (6).


Le point  ' , @ ' , '  est dit voisin de trajectoire centrale s’il appartient à l’ensemble :
¢¿ · = &, @,  ∈ ¢: ‖³?9 − žÀ‖ ≤ ·ž: 0 < · < 1(……………..(4)
5.3.3.2. Le calcul de la direction de descente∆, ∆@, ∆  :
Le calcul de la direction nécessite la résolution du système linéaire (3) qui

−∇ œ ∆ + ; ∆@ + ∆ = 0
s’écrit sous la forme :

A ∆ = 0 ………………….(5)
?∆ + ³∆ = −³?9 + žÀ

∆ = ³ P: N−³?9 + žÀ − ?∆O = − + ž³ P: À − ³ P: ?∆


On peut éliminer grâce à la dernière équation, qui donne :

63
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

N−³ P: ? − ∇ œ O∆ + ; ∆@ = − ž³ P: À
Le système (5) se réduit au système :

Â
∆ = 0
……………..(6)

résoudre en éliminant ∆ grâce à la première équation, on obtient :


On peut poursuivre la réduction de la dimension du système linéaire (6) à

∆ = N³ P: ? + ∇ œ OP: N ; ∆@ − + ž³ P: ÀO
On remplace ∆ dans la deuxième équation du système(6), on obtient alors le
système : ∆ = N³ P: ? + ∇ œ OP: N ; ∆@ − + ž³ P: ÀO = 0
⟺ N³ P: ? + ∇ œ OP: ; ∆@ = N³ P: ? + ∇ œ OP: N − ž³ P: ÀO…………(++)
On résout le système (++), pour obtenir la direction ∆@ unique, puis on déduit ∆
et ∆ .

Lemme 5.3.3.1. : La matrice N³ P: ? + ∇ œ OP: ; du système est symétrique,


Remarque : Pour montrer unicité de la direction ∆@, présentons le lemme suivant.

1-La matrice N³ P: ? + ∇ œ OP: ; est symétrique :


définie positive.
Preuve :

q N³ P: ? + ∇ œ u ; O; = N ; O; N³ P: ?; + ∇ œ ; OP: ; O


P:

On a : ³ P: ?, ∇ œ  sont symétriques, donc la somme des deux matrice est

³ P: ?; + ∇ œ ; = ³ P: ? + ∇ œ .


symétrique. Ce qui implique :

2-la matrice N³ P: ? + ∇ œ OP: ; est définie positive :


Donc l’égalité est vraie.

Il suffit de montrer que la matrice ³ P: ? + ∇ œ  est définie positive :


Comme : ? = %UV  où > 0 , ³ = %UV où  > 0 sont deux matrices
diagonales à éléments positifs alors la matrice ³ P: ? est une matrice symetrique
diagonale à élément diagonaux  D > 0 est définie positive. Mais pour ∇ œ 
x
CD

comme œ  est supposée convexe, donc sa matrice hessienne semi définie positive.
Par conséquent : ³ P: ? + ∇ œ  une somme de deux matrices définies positives est
définie positive. D’où le système (++) admet une seule solution.

64
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

Un point est strictement réalisable de  est la solution du problème :


5.3.3.4. Calcul d’une solution initiale strictement réalisable :

&  = ,  > 0( ………………(**)


En utilisant la technique de variable artificielle, le problème (**) est équivalent au

 y
problème suivant :

.
……………………1

 + y − U =
 > 0, y > 0
Tel que : U ∈ ℝ'' est choisi arbitrairement dans l’orthant positif et y une variable
artificielle. Posons Ä = , y, le problème (P1) est équivalent au problème linéaire


; Ä = 6 ∗
suivant :

 .
………………………… (P2)
̅Ä =
Ä>0

Où :
; = 0, … ,1 ∈ ℝ': , ̅ = N , − UO ∈ ℝ$∗': .
Le problème (P2) vérifie les hypothèses de Karmarkar :
1) 6 ∗ = 0.
2) Ä = U, 1 est une solution strictement réalisable de (P2).
3) ̅ est une matrice de plein rang (rang ̅ =  ≤  + 1.

 Plus précisément Karmarkar démontre le théorème suivant :

Théorème5.3.3.4.1. [2]: ∃   > 0 , telle que les deux propositions suivantes sont
équivalentes :
1)  une solution de (P1).
2) (P2) admet une solution optimale Ä = , y/y ≤  .

La résolution de (P1) se ramène donc à celle du problème (P2), auquel on


appliquera l’algorithme de Karmarkar, puisque connaissant la valeur optimale et
une solution réalisable de ce dernier.

65
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

5.3.3.5. Calcul du pas de déplacement :


Pour réduire le nombre d’itération et le temps de calcul, on a introduit une
procédure pratique moins couteuse que la recherche pour calculer le pas de

Si , @,  est le point courant réalisable, alors le nouvel itéré :


déplacement.

 ' , @ ' , '  = , @,  + Š∆, ∆@, ∆  doit être réalisable. Aussi qu’ils
vérifient :
 + ŠC ∆ > 0
˜@ + ŠR ∆@ > 0
+ Šx ∆ > 0
On prend : Š = ½ ŠC' , ŠR' , Šx'  tel que 0 < ½ < 1.
Où :
 − U¸9
 ∈  = &: ∆B < 0( 
CD
ŠC = Æ ∆CD
1  ∆B ≥ 0
@B
 − U¸9
 ∈  = &: ∆@B < 0( 
ŠR = A ∆@B
1  ∆@B ≥ 0
 − U¸9
 ∈  = &: ∆ B < 0( 
x
Šx = Æ ∆xD
1  ∆ B ≥ 0

66
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

5.3.3.6. Algorithme de trajectoire centrale avec poids pour la programmation


convexe sur un polyèdre :[3]

Données :  > 0 un paramètre de précision.


Début algorithmique :

1-Initialisation :  3 , @ 3 , 3  ∈ ¢¿ · , ™ = Ç Ç, Ê = min ÀB pour i : 1, … , n


È ¾ ± ¾ –
√

À= , § = d1 − f Ê 9› ½ = 1 −
È ¾ ± ¾ – √ Ì
²  √
.

³ 3 = TUV 3 , Í 3 = TUV@ 3 , ? 3 = TUV 3  ,


2-Itération : pour w = 0,1,2….
-si  > ; Á > ≤  .stop ! La solution trouvée est optimale.
Sinon :
Pas 1 :
Calculer :
—
-les paramètres : ™ = et ™Ï = ½™ >
> rC E t Îx E


-la direction de Newton ∆ > , ∆@ > , ∆ >  solution du système linéaire :
∇ œ  − ; − Δ 0
ƒ 0 0 „ ƒΔ@„ = ¹ 0 º
? 0 ³ ∆ −³?9 + ™ÏÀ
-calcul du pas de déplacement Š> .tel que : Š> = ŠC , ŠR , Šx 

-le nouvel itéré :  >': , @ >': , >':  =  > , @ > , >  + Š> ∆, ∆@, ∆ ,
Pas 2 :

Poser :w = w + 1
3-Fin de l’algorithme.
5.3.3.7. Convergence de l’algorithme:[3]

Théorème 5.3.3.7.1 : soit · = § = d1 − f Ê,suposons que , @,  ∈ ¢¿ · ,


√


ž̀ = ½ž tel que ½ = 1 − et ™ =
Ì C — Îx
√ 
alors :

1)  ' , @ ' , '  ∈ ¢¿ ·


≤ 1 − 
C S — Îx S Ñ C — Îx
 Ò√ 
2)

67
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

Preuve :1-On a :  ' =  + ∆ =  + ∆ , dans la deuxième équation du


problème(2) : ∆ = 0.Donc  ' =  = .

; @ ' + ' = ; @ + ∆@ + + ∆


De la première équation du problème (2), on a:

= ; @ + +  ; ∆@ + ∆  = ∇ +  ; ∆@ + ∆ 
= ∇ + ∇ ∆ = ∇  + ∆ = ∇  ' 

voisinage de la trajectoire centrale, c’est-à-dire : ‖³ ' ? ' 9 − žÀ‖ ≤ ·ž'


De plus, sous les conditions précédentes, on peut montrer que l’on reste dans le

Il reste à vérifier que : ' , '  > 0.


|B' B' − ž' ÀB | ≤ ‖³ ' ? ' 9 − žÀ‖ ≤ ·ž'
−·ž' ≤ B' B' − ž' ÀB ≤ ·ž' ⟹ ÀB − ·ž' ≤ B' B' ≤ ÀB + ·ž'
On a:

B' B' ≥ ÀB − ·ž' ≥ Ê − · ž' > 0 car: Ê > ·.


Donc B' 9› B' sont de même signe, on suppose que B' < 0, B' < 0 :
B' = B + ∆B ⟹ ∆B = B' − B < 0
|∆B | = −∆B = −B' + B > −B' = |B' | ⟹ |∆B | > −B' … … … … … … … 1
De même on : B' = B + ∆ B ⟹ ∆ B = B' − B < 0
|∆ B | = −∆ B = − B' + B > − B' = | B' | ⟹ |∆ B | > − B' … … … … … … … 2
De (1) et (2), on trouve : ∆B ∆ B = −|∆B |−|∆ B |
= |∆B ||∆ B | > |−B' ||− B' | = |B' B' | = B' B' TÔ
: ∆B ∆ B > B' B'
En contradiction avec: ∆B ∆ B = B' B' − ž' ÀB < B' B' .

2- On a :V· ∗  = −r√2 − 1t Ê < −


 Ñ
Ò

=1+ V · ∗  < 1 −
: Ñ
√ Ò√
.

De notre cote, nous avons montré la polynomialité de la convergence de l’algorithme


obtenu que nous montrions dans le théorème suivant :

Théorème: pour   > 0, l’algorithme converge après w = Õ d |log   |fiterations,


√
P֍Ñ

Avec : Ê = minÀB .
Preuve :∀   > 0, ∃0 < · < 1, ∃  ' , @ ' , '  ∈ ¢¿ ·

68
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

—
≤ ½™ ≤ d1 − f ™ ›9Ø Ùž9: ™ =
>': > × > > rC E t Îx E
√ 
On a: ™

Alors: ln ™>':  ≤ wln d1 − f + ™3 .


×
√

ln + 1 ≤ , ∀ > −1. TÔ


:
On sait que :

™> · ™>
ln } 3 ~ ≤ wln i1 − l }U : 3 <  ~.
™ √ ™

·
Ainsi :

w i− l < ln ε
√
Alors : w ≥ − ln ε. est le nombre d’itérations.
√
×

5.3.4. Tests numériques :

 
Les exemples traités sont de la forme canonique suivante :




 =
……………………
≥0
Où : ℝ → ℝ est une fonction non linéaire, convexe et différentiable, une matrice
de type ,  de plein rang rg A = m ≤ n, ∈ ℝ$ .
La précision est comprise entre 10P© 9› 10PÒ .
Pour la recherche des solutions initiales, on présente un algorithme un
algorithme réduit de Karmarkar (Annexe1), qui va nous aider à résoudre ce dernier
avec la trajectoire centrale avec et sans poids.
1- L’application avec la méthode TC sans poids :
Exemple 01: Soit le programme non linéaire suivant:
 :© +:© + : 
^
\

2: +  + © = 8
]  + 2 +  = 7
\ :  °
[ : ,  , © ≥ 0
Les solutions initiales trouvées :

69
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

 ° = 3.000000, 1.00000 ,1.000000, 1.00000 ;


@ ° = −1.024282 , −1.971814;
° = 0.020377 , 0.178774 , 1.024282 , 1. ;
Qui donnent les solutions optimales après 48 itérations :
 ∗ = 2.9465 1.1071 0 0.8394;
@ ∗ =  6.1626 − 0.8987;
∗ = 0.0000 0.0000 − 5.2555 0.3574;

 : − 1 +  − 2.5


Exemple 02 : Soit le programme non linéaire suivant :

\
: − 2 − © = −2 
] − : − 2  + ° = −2
\ −: + 2 + ª = −2
[ : ,  , © , ° ≥ 0
Pour epsilon=0.00001 et les solutions initiales trouvées égales à :
 ° = 2.000000 , 0 .0000001, 4.000000 , 0.0000001 , 0.0000001;
@ ° = 0.000013 , −2.271984 , 0.000788;
° = 0.000001 , 0.000001 , 0.001443 , 0.003172 , 0.000771;
Après 39 itérations, on obtient les solutions optimales suivantes :
 ∗ = 2.0000 0.0000 4.0000 0.0000 0.0000 ;
@ ∗ =  0.0000 − 2.2720 0.0008;
∗ = 0.0000 0.0000 0.0014 0.0032 0.0008;
Qui donnent la valeur optimale   ∗  = 2.5.
Exemple 03: Soit le problème non linéaire suivant :
 − : ∗ ©
^
\

: +  + © = 2 
]  + 5 +  = 5
\ :  °
[ : ,  , © , ° ≥ 0
Pour epsilon=0.00001, et prenons les solutions initiales trouvées :

70
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

 ° = 0.628088, 0 .872245,0.499667, 0.010689;


@ ° = −3.097763, −0.137088;
° = 0.002716,0.016006,3.097763,0.137088;
On obtient après 49 itérations, les solutions optimales suivantes :
 ∗ = 1.2500 0.7500 0.0000 0.0000;
@ ∗ =  −2.3494 − 0.6410;
∗ =  0.0000 0.0000 2.3494 0.6410;
Qui donnent la valeur optimale   ∗  = −0.5273.
2- L’application avec la méthode TC avec poids :

 : −  + 1 + 9”: −  


Exemple 04 :Soit le problème non linéaire suivant :




2: −   + © = 1
: ,  , © ≥ 0
Pour epsilon =0.0001, et les solutions initiales égales à :
 ° = 1.000000,1.000000 ,1.000000 ;
@ ° = 0.134424
° = 2.681628,0.012906,0.006471;
On obtient après 33 itérations, les solutions optimales suivantes :
 ∗ = 0.0000 0.0000 1.0000;
@ ∗ = 0.1409
∗ = 2.6687 0.0258 0.0000;
Pour lesquelles on trouve   = 2.
Exemple 05 :Soit le problème non linéaire suivant :
 log : +  
^
\

2: + 3 + © + 2° = 2
] 3: − 2© + ° = 0
\
[ : ,  , © , ° ≥ 0

71
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

Pour epsilon =0.001 et les solutions initiales du problème :


 ° = 0.001069 , 0.663691 , 0.002641 , 0.002074 ;
@ ° = 0.270655 , −0.546445;
° = 5.098024 , 0.188035 , 0.636455 , 0.005135;
Les solutions optimales obtenues après 56 itérations, sont :
 ∗ = 0.0011 0.6654 0.0016 0.0000;
@ ∗ =  0.3278 − 0.8150;
∗ = 0.2052 0.0075 0.0421 0.1593;
Qui donnent :   = 0.1646.

   = : © −  ©
Exemple 06 : Soit le problème non linéaire suivant :

\
: −  + © + ° = 3 
] : +  − © + ° = 4
2
\ : + © + 2° = 5
[ : ,  , © , ° ≥ 0
Pour epsilon=0.000001, et prenons les solutions de départ trouvées égales à :
 ° = 0.341957 , 0.004313 , 0.670979 , 1.991376 ;
@ ° = −0.005320 , 0.274080,1.222858;
° = 1.234301 , 0.497742 , 0.056542 , 0.011443;
Les solutions optimales sont :
 ∗ = 0.3333 0.0000 0.6667 2.0052;
@ ∗ =  1.6434 0.6608 0.0175;
∗ = 0.0000 2.9650 0.0000 0.0000;
Avec  = 0.0370. La valeur optimale, obtenues après 36 itérations.
Exemple 07 :Soit le problème non linéaire suivant :
 3:  © −  : ©
^
\

2: + 3 + © + 2° = 2


] 3 − 2 +  = 0
\ : © °
[ : ,  , © , ° ≥ 0

72
Chapitre 05 Programmation non linéaire
convexe sous contraintes linéaires

Pour epsilon =0.001. Et soient les solutions initiales trouvées du problème :


 ° = 0.001069 , 0.663691 , 0.002641 , 0.002074 ;
@ ° = 0.270655 , −0.546445;
° = 5.098024 , 0.188035 , 0.636455 , 0.005135;
Les solutions optimales obtenues sont :
 ∗ = 0.0000 0.66667 0.0000 0.0000;
@ ∗ = 0.3324 − 0.7737;
∗ = 5.6642 0.0000 0.1202 0.1089;
Avec la valeur optimale du problème  = 0. après 19 itérations.

Complémentaire :
A travers les tests numériques effectuées, on a remarqué l’efficacité
pratique de l’ algorithmes de trajectoire centrale en terme d’infériorité du
nombre pratique du nombre d’itération qui est très réduit, et la réduction de
la durée d’exécution (le temps d’exécution constaté est très peu ).

73
Chapitre
Chapitre 06 Implémentation de logiciel

6.1. Définition :

Dans ce chapitre, nous allons exposer la partie programmation des méthodes


de résolution présentées dans les chapitres précédents, et l’implémentation du logiciel
contenant des interfaces claires et accessibles. Nous expliquerons aussi le
fonctionnement de ce logiciel afin de faciliter son utilisation.

Le logiciel MATLAB (MATrix LABoratory) est spécialisé dans le domaine


du calcul matriciel numérique. Tous les objets définis dans le MATLAB les sont donc
au moyen des vecteurs et des matrices/tableaux de nombres. Un ensemble important
d’opérateurs et de fonctions de MATLAB de base facilitent leur manipulation et des
opérations comme par exemple le produit et l’inversion matricielles (inv), la
transposition (’) ou encore le calcul des valeurs propres (eig) font partie de la
bibliothèque standard. D’autres fonctions servant à la création et à la manipulation de
matrices et de tableaux (diag, rand, ones, zeros,linspace) sont également disponibles
en nombre.

L’environnement MATLAB se présente sous la forme d’un espace de travail


(Workspace), ou un interpréteur de commandes exécute des opérations et des fonctions
de MATLAB. Les sources de celles-ci sont disponibles, écrites en “ langage ”
MATLAB, voir en C ou en Fortran. L’utilisateur peut les modifier, mais en s’en
inspirant, il peut surtout créer et rajouter ses propres fonctions.

Le ”langage” MATLAB contient un minimum de structures de


programmation (structure itérative, structure conditionnelle, sous-routine) mais reste
très rudimentaire. L’avantage est qu’il est très simple et très rapide à programmer,
offrant une grande tolérance (syntaxe simple, pas de définition des types, etc.), ce qui
permet un gain appréciable en temps de mise au point. L’ingénieur peut par ce moyen
être plus efficace dans l’analyse d’un problème, en concentrant ses efforts sur celui-ci
et non pas sur l’outil servant à le résoudre.

6.2. Description de la fenêtre MATLAB :

6.2.1. La barre de titre :

La fenêtre MATLAB est surmontée par une barre de titre, contenant à sa


gauche une icône et à sa droit les trois boutons <<mise en icône>>,
<<minimisation/maximisation>> et <<fermeture>>.

74
Chapitre
Chapitre 06 Implémentation de logiciel

Barre de titre Barre de menu Barre d’outils fermeture

Barre d’état.

La fenêtre principale de logiciel MATLAB.

6.2.2. La barre de menu :

La barre de menu en contient 5 fenêtres (en général) :

• File (fichier) permet d’obtenir l’éditeur de programme ;


• Edit (Edition) permet de couper / coller dans la ligne de commande et autre ;
• Debug permet l’exécution d’un programme et autres ;
• Window (fenêtre) permet le passage aux différentes du logiciel ;
• Help (aide) accèdee au menu d’aide.

75
Chapitre
Chapitre 06 Implémentation de logiciel

6.2.3. La barre d’outils :

La barre d’outils en 9, qui sont souvent des raccourcis de fonctions contenues dans les
menus. De gauche à droit (entre autre) :

• Ouvrir un nouveau fichier dans l’éditeur ;


• Rappeler un ancien fichier dans l’éditeur ;
• Couper ;
• Copier ;
• Coller ;
• Annuler ;
• Appeler l’aide.

6.2.4. La fenêtre de commande :

Elles se divisent en deux zones :

• La zone historique, qui ne peut être modifiée, mais dont on peut copier des
pattiers ;
• La zone de commande éditable.

La zone de commande permet (comme le nom l’indique) de taper une commande qui
sera accepté à l’aide de touche <return> ou <entrée>.

6.3. Méthode de travail :

6.3.1. Edition et sauvegarde des fichiers MATLAB :

Dans un premier temps, on peut se contenter d’introduire ses commandes une à une au
niveau de l’espace de travail ou elles sont interprétées directement.

Cependant, par la suite, il est beaucoup plus pratique d´écrire sa séquence de


commandes complété au moyen d’un éditeur, puis de sauver le tout dans un fichier
avec l’extension « .m ». Cette séquence pourra alors être exécutée dans MATLAB
par simple introduction du nom du fichier.

6.3.2. Aide en ligne :

En plus de l’aide de Window, une aide en ligne est disponible pour chaque
commande de MATLAB. Il suffit d’introduire : « help nom de commande ».

76
Chapitre
Chapitre 06 Implémentation de logiciel

6.3.4. Création de fichiers de commandes et de fonctions utilisateur :

6.3.4.1. Fichiers de commande (”script files”) :

Un fichier de commande (script file) est un fichier ASCII d’extension « .m »


contenant une suite de commandes MATLAB. Il être exécuté directement en tapant
simplement son nom dans l’espace de travail MATLAB.

6.3.4.2. Fonctions :

De nouvelles fonctions peuvent être ajoutées à MATLAB par l’utilisateur. Il suffit de


créer un fichier de nom

nom_ de_ function.m

contenant les commandes à exécuter et dont l’entête a le format :

function [liste des arguments de sortie] = nom de fonction (liste des arguments
d’entrée). Contrairement aux fichiers de commande, les variables intervenant dans les
fonctions sont locales.

Les commentaires documentant les fonctions peuvent être insérés en les faisant
précéder du symbole %.*

La fenêtre d’édition de fichier.

77
Chapitre
Chapitre 06 Implémentation de logiciel

La boite de dialogue d’ouverture de fichiers.

6.3. Exemples d’applications :


6.3.1. la programmation linéaire
Apres avoir exécuter le programme de karmarkar dans la fenêtre de
commande « command window » avec la commande « run », le programme demande
des entrées telles que la matrice A,b, et c et la solution initiale du problème, on aura
les solutions optimales des problèmes illustrées dans les fenêtres suivantes :

78
Chapitre
Chapitre 06 Implémentation de logiciel

Exemple 01 :

La fenêtre de commande MATLAB.

Exemple 02 :

79
Chapitre
Chapitre 06 Implémentation de logiciel

La fenêtre de commande MATLAB.


Exemple 03 :

La fenêtre de commande MATLAB.


Exemple 04 :

80
Chapitre
Chapitre 06 Implémentation de logiciel

La fenêtre de commande MATLAB.


Exemple 05 :

La fenêtre de commande MATLAB.


Exemple 06 :

81
Chapitre
Chapitre 06 Implémentation de logiciel

La fenêtre de commande MATLAB.

6.3.2. la programmation quadratique


6.3.2.1. L’application avec
vec la méthode de trajectoire centrale sans poids :

Après exécution de programme de la trajectoire centrale dans la fenêtre de


commande « command window » avec la commande « run », le programme demande
des entrées telles que les solutions
solution initiales du problème obtenues par Karmarkar,
Karmarkar on
obtient les solutions optimales des problèmes illustrées dans les fenêtres suivante :

Exemple 01 :

La fenêtre de commande MATLAB.

82
Chapitre
Chapitre 06 Implémentation de logiciel

Exemple 02 :

La fenêtre de commande MATLAB.

Exemple 03 :

83
Chapitre
Chapitre 06 Implémentation de logiciel

La fenêtre de commande MATLAB.

Exemple 04 :

La fenêtre de commande MATLAB.

6.3.2.2. L’application avec la méthode de trajectoire centrale avec poids :


Après avoir exécuter
exécute le programme le programme de la trajectoire avec
poids dans la fenêtre de commande « command window » avec la commande « run »,
le programme demande
ande des entrées telles que les solutions initiales du problème
obtenues par Karmarkar, on aura les solutions optimales des problèmes montrées dans
les fenêtres suivantes :

84
Chapitre
Chapitre 06 Implémentation de logiciel

Exemple 05 :

La fenêtre de commande MATLAB.

Exemple 06 :

85
Chapitre
Chapitre 06 Implémentation de logiciel

La fenêtre de commande MATLAB.

Exemple 07 :

La fenêtre de commande MATLAB.

Exemple 08 :

86
Chapitre
Chapitre 06 Implémentation de logiciel

La fenêtre de commande MATLAB.


6.3.1. L’application dans la programmation convexe

6.3.1.1. vec le programme de Karmarkar :


L’application avec

Après l’exécution du programme de Karmarkar dans la fenêtre de commande


« command window » avec la commande « run », le programme demande des entrées
telles que la matrice A, le vecteur b, et f(x) la fonction objectif et la solution initiale
du problème strictement positive,
positive, on aura les solutions optimales des problèmes
illustrées dans les fenêtres suivantes
suivant :

Exemple 02 :

La fenêtre de commande MATLAB.

87
Chapitre
Chapitre 06 Implémentation de logiciel

Exemple 03 :

La fenêtre de commande MATLAB.

6.3.3. L’application avec la méthode de la trajectoire centrale :

6.3.3.1. La trajectoire centrale sans poids :


Après avoir exécuter le programme de la trajectoire centrales sans poids dans la
fenêtre de commande « command window » avec la commande « run », le programme
demande des entrées telles que les solutions initiales du problème obtenues par
Karmarkar, on aura les solutions optimales des problèmes illustrées dans les fenêtres
suivantes:

88
Chapitre
Chapitre 06 Implémentation de logiciel

Exemple 01 :

La fenêtre de commande MATLAB.

Exemple 02 :

89
Chapitre
Chapitre 06 Implémentation de logiciel

La fenêtre de commande MATLAB.

Exemple 03 :

La fenêtre de commande MATLAB.

90
Chapitre
Chapitre 06 Implémentation de logiciel

6.3.3.2. L’application avec la méthode de trajectoire centrale avec poids :


Après l’exécution du programme dans la fenêtre de commande « command
window » avec la commande « run », le programme demande des entrées telles que
les solutions initiales du problème obtenues par Karmarkar, on aura les solutions
optimales des problèmes illustrées dans les fenêtres suivantes :

Exemple 01 :

La fenêtre de commande MATLAB.

91
Chapitre
Chapitre 06 Implémentation de logiciel

Exemple 02 :

La fenêtre de commande MATLAB.


Exemple 03 :

La fenêtre de commande MATLAB.

92
Chapitre
Chapitre 06 Implémentation de logiciel

Exemple 04 :

La fenêtre de commande MATLAB.

93
Conclusion générale

-Conclusion :
Notre étude a porté essentiellement sur une étude des problèmes convexes
sous contraintes linéaires, puis une implémentation de logiciel menant à leurs
résolutions par des techniques numériques modernes. On a exposé les résultats
théoriques de l’optimisation convexe sous contraintes linéaires, notamment au sujet
des conditions d’optimalité. Les méthodes des points intérieurs sont connues par leurs
efficacité, rapidité de convergence pour résoudre les problèmes de grande taille,
l’inconvénient majeur de ce type de méthodes réside dans l’initialisation, c’est-a-dire
la détermination d’un point initial qui se trouve à l’intérieur de domaine réalisable.
Théoriquement, on suppose que ce point est connu, mais numériquement l’obtention
de ce point initial présente un handicap majeur pour ces méthodes importantes.

La recherche de ce point initial pour la méthode de trajectoire centrale


nécessite par exemple l’intégration des méthodes de type projectif, la forme réduit de
la méthode de Karmarkar[annexe], ce qui réduit l’exploitation de cette méthode grâce
a l’augmentation énorme de cette méthode.

Dans l’étude numérique, On a abordé la méthode du simplexe pour la


résolution des problèmes linéaires, puis la méthode de Karmarkar pour la résolution
de ce dernier. Par la suite, la méthode de trajectoire centrale (sans et avec poids) qui
couvre la programmation linéaire et quadratique par le problème de complémentarité
linéaire.

A la fin, une généralisation de ces deux méthodes proposées des points


intérieurs pour la minimisation des fonctions convexes sous contraintes linéaires. Les
méthodes de résolutions issus caractérisent le mode de raisonnement sur la
complexité du problème, leur variété entre exactes et approchées est dû à la
variété et la complexité des déroulements des opérations, l’implémentation nous
a permis d’approfondir nos connaissances dans le domaine de la programmation
informatique et de découvrir la richesse démesuré de l’environnement de
développement utilisé.

93
Annexe

Annexe :
Algorithme (Ye-lustig)

Debut

Donner le paramètre de précision  > 0 ,  = ( ,


 ), ́ = (, … , , )

=

a) Si (‖ − ‖ < ) alors :

Stop, la solution  est une solution approximative et fin.

b) Sinon :

Si
 >  alors

Poser :

 = (́  )

 = [,  − ]

!=
"(#$)(#$%)

 = [ , −]

& = [' −  (  )(  ][ ́ , − ́  ́  ]


&
 = ‖& ‖

Prendre :
*
)$ = #+% − , !
#$%


́ $ =  )$ [# + ].
)+ [#$]

Poser :


 = ́ $ [#],et aller à b).
Fin si ;
Fin si ;
Fin.

94
Bibliographie

[1]: CC.Gonzaga, Path following method for linear programming. Siam Revieu, M(2)
: 1992.

[2]: N. Karmarkar, New polynomial-times algorithm for linear programming. In


Proceeding of the 16th Annual A CM, Symposium on Weory of computing.

[3]:Z kebbich , études et extensions d’algorithmes de points intérieurs pour la


programmation non linéaire, thèse de doctorat d’état, université FERHAT ABBAS-
SETIF(2007).

[4]:M.Godran, M.Minoux, programmation mathématique, 2008.

[5]: M. Kojima S. Mizuno , and A. Yoshise, A polynomial algorithm for a class of


linear complimentary problems, Mathematical Programming, 44 1989.

[6]:R.D.C. Monteiro and I.Alder, interior path following primal-dual algorithms ,part
1 : Linear programming. Mathematical Programming, 44 : 1989.

[7] :Dominique de Werra. Thomas M.Liebling.Jean-François Hêche, Recherche


opérationnelle pour ingénieurs, tome 01, ISBN 2-88074-446-, (2003),page68-72.

[8]:Renato D.C MONTEIRO and ilan ADLER, interior path following primal-dual
algorithme .PART 1:linear programming 44(1989) 27-41 page: 3,7.

[9] :GS,GERAD en collaboration avec le département des mathématiques et génie


industriel, école polytechnique de Montréal, introduction au méthodes des points
intérieurs, février 2001.

[10]: Robert M.Freund, projective transformations for interior point methods, Part 02:
analysis of An Algorithm for finding the weighted center of polyhedral system. Sloan
W.P NO. 2050-8,Octobre 1988.

[11] :M.OURIEMCHI , programmation de problème non linéaire par les méthodes des
points intérieurs.

[12] :S.J.Wright & Y.Zhang, “A super quadratic-interior-point method for linear


complementarily problems”, mathematical programming 73(1996).

95
Bibliographie

[13]:Michel minoux, Programmation mathématique,théorie et algorithme 2eme


édition,TEC et DOC 2009.

[14]: Michel Bierlaire introduction à l’optimisation différentiable, presse


polytechnique et universitaire romandes 2006.

[15]: Aderian Biran & Mosche Breiner, MATLAB pour l’ingénieur, version 06 et
07 édition Pearson(2004).

[16]: jean-Thierry LAPRESTE, introduction à MATLAB, édition Ellipses,1999.

[17]: Lakhdar Djeffal, A New Approach for Solving an Optimization Problem ,


Applied Mathematical Sciences, Vol. 6, 2012, no.

96

Vous aimerez peut-être aussi