0% ont trouvé ce document utile (0 vote)
123 vues81 pages

Poly MLA2010

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 81

CNAM-UPMC MASTER 2010-2011

Recherche Opérationnelle

MODELES DE LOCALISATION
ET APPLICATIONS
Marie-Christine Costa

1
I
INTRODUCTION

• Avertissement: ce polycopié ne contient que les résultats principaux. Les


démonstrations et compléments seront donnés en cours. D'autre part il ne
présente que la première partie du cours.
• Il s'agit ici de donner les bases "classiques" de la localisation simple discrète
sur des sites prédéfinis, permettant de comprendre les méthodes les plus
récentes même si celles-ci ne sont pas présentées.
• La deuxième partie du cours est assurée par Sourour Elloumi.
2
BIBLIOGRAPHIE
• Discrete location theory Ed P.B. Mirchandani et R.L.
Francis Wiley-interscience 1990
• Facility location : a survey of applications and methods
Ed Z. Drezner Springer-Verlag 1995
• Facility location: Applications and theory Ed Z. Drezner
et H. Hamacher Springer-Verlag 2002
• Location analysis: a synthesis and survey C.S. Revelle et
H.A. Eiselt EJOR 165-1, Août 2005, pp. 1-19
• A bibliography for some fundamental problem categories
in discrete location science C.S. Revelle et H.A. Eiselt,
M.S. Daskin EJOR 184, 2008, pp. 817-848
• http://www.vub.ac.be/EWGLA/literature.html
3
O P T IM IS A T IO N

D IS C R E T E C O N T IN U E

E N T IE R S 0 -1 CONVEXE NON
CONVEXE

L IN E A IR E NON
L IN E A IR E

L IN E A IR E NON
L IN E A IR E

SO U S SO US
C O N T R A IN T E S C O N T R A IN T E S
LIN E A IR E S N O N LIN E A IR E S Q U A D R A T IQ U E DEGRE > 2

SAN S SO U S SO U S
C O N T R A IN T E S C O N T R A IN T E S C O N T R A IN T E S
LIN E A IR E S N O N LIN E A IR E S 4
MODÈLES ÉTUDIÉS
PROGRAMMATION LINÉAIRE OU QUADRATIQUE
EN 0-1 SOUS CONTRAINTES LINÉAIRES

MIN ∑i=1,..,n ai xi ( + ∑i=1,..,n ∑j=1,..,m bij xi xj )


s.c. ∑j=1,..,n aij xj ≤ (ou =) bi pour tout i
xi  {0 , 1} pour tout i

PROBLEME GENERAL NP-DIFFICILE


même si aij et bi {0 , 1}
5
ETUDE D'UN PROBLEME
*MODÉLISATION
- objectif
- contraintes
*ETUDE DE COMPLEXITÉ
- déjà connue ?
- Polynomial ou NP-complet ?
*RÉSOLUTION EXACTE
une
trouver toutes les solutions optimales
les K meilleures
6
ETUDE D'UN PROBLEME
*RESOLUTION APPROCHEE
- Sans garantie de performance
- Avec garantie a posteriori (bornes)
- Avec garantie a priori (Algo –approchés)
- prouver que certains types d'algorithmes avec garantie a
priori n'existent pas

*AMÉLIORATION DE COMPLEXITÉ
Problèmes polynomiaux

7
OUTILS DE RESOLUTION
- REDUCTION DE LA FONCTION ECONOMIQUE
(calcul booléen, extraction de constantes,..)
B
- RELAXATION CONTINUE O
R
- RELAXATION LAGRANGIENNE N
E
- GENERATION DE COLONNES
I
- METHODES DE DECOMPOSITION N
F
- METHODE DE COUPES
S
- PROCEDURE ARBORESCENTE  solution optimale O
L
- HEURISTIQUE Recuit Simulé, Tabou, spécifiques,... U
- LOGICIEL GENERALISTE T
I
- ALGORITHMES e-APPROCHES O
N 8
Résolution d'un problème de RO "DIFFICILE"
minimisation

Solution approchée avec garantie


S* solutions

Heuristique

9
Résolution d'un problème de RO "DIFFICILE"
minimisation

Solution approchée avec garantie

bornes S* solutions

B S
Programmation garantie
Heuristique
mathématique

10
LA LOCALISATION SIMPLE
Données
- listes des sites (équipements)
- emplacements et demandes des clients
But
- déterminer le nombre et les lieux des équipements
- les rattachement des "clients" aux équipements
de façon à minimiser
les coûts d'installation des équipements
+ les coûts du "service" équipements vers clients
11
Où installer les entrepôts?

Clients 12
Où installer les entrepôts?

Clients Servis par l'entrepôt le plus proche


13
APPLICATIONS AUX RESEAUX
INFORMATIQUES

• Localisation de copies de fichiers dans les


systèmes distribués
• Localisation de concentrateurs dans les
réseaux de communications en étoile
• Localisation de centres d'accès aux données
dans les réseaux intelligents

14
Une application réelle
Orange télécom
2
Entrepôts NRA

=
1
équipements SR

=
sous-
0
répartiteurs
Clients

Clients Mathieu Trampont15


LE PLACEMENT

Données
- listes des objets à placer et "trafic" inter-objets
- listes des sites (hétérogènes) et liaisons inter-sites
But
- placer les objets sur les sites
de façon à minimiser
les coûts d'installation des objets
+ les coûts du "trafic" inter-sites

16
Placement de tâches sur des processeurs
DONNEES P1 P2 T T
1 2

T T
6 3
P4 P3 T T
5 4

P1 P2
UNE SOLUTION
T T T
6 1 5

P P
3 4
T T T
2 4 3
17
LE PARTITIONNEMENT

Données
- listes des objets à répartir
- "trafic" inter-objets
- nombre de groupes d'objets à former ou…
But
-répartir les objets dans des groupes
de façon à minimiser
les coûts du "trafic" inter-groupes

18
LE PARTITIONNEMENT

T T T
1 2 7
T
8
T T
6 3

T T
5 4

19
Modèles mathématiques
x: variables bivalentes (0 ou 1) i,j=1,..,N p,q=1,..,K
Localisation Placement Partitionnement
min min min
S j C_installj xjj S S
i p C_installipxip SS
i j>i C_trafij(Sqxiq xjq)
+ +
S S C_traf
i j ij xij SSip i'p' C_trafipi'p' xip xi'p'
i'>I p'≠p

sous contraintes sous contraintes sous contraintes

S j xij = 1 "i S p xip = 1 "i Sq xiq = 1 "i


xij ≤ xjj " i " j Si xiq ≥ 1 "q ou
Si xiq = (ou ≤) mq20"q
Contraintes "facultatives"

Localisation Placement Partitionnement

p-median "multi terminal cut"

S j xjj = p "q on connaît


i tel que xiq = 1

Contraintes de capacités
S xiji ≤ nj "j S xipi ≤ np "p
ou ou

S Demi xij
i ≤ Capj S Volip xip
i ≤ Capp S Voliq xiq
i ≤ Capq
"j "p "q
21
Partie II

La localisation "simple"

22
1 MODELISATION
1.1 DONNEES
• n nombre total de sites (notés "site i" ou "i")
• fi coût d ’installation d’un équipement en i
• lij coût unitaire de la liaison de i vers j; lii=0
• Dj demande du site j
• bij bénéfice unitaire pour un produit fabriqué
en i et vendu à j (prix(j)-coûtdeprod(i))
• cij = Dj.lij coût du service total de j par i

Rem: f i   si le site i ne peut pas accueillir d'équipement D j  0 si pas de client au site j


23
1.2 VARIABLES

• I ensemble des sites équipés

• yi = 1 s’il y a un équipement au site i


= 0 sinon i=1,..,n

• xij = 1 si j est servi par l’équipement en i


= 0 sinon i=1,..,n; j=1,..,n

24
1.3 LES MODELES MATHEMATIQUES

Modèle 1
Chercher l'ensemble I non vide qui minimise:
n n
z   f i   D j ( min l ij )   f i   min cij
iI j 1 iI iI j 1 iI

La fonction z est surmodulaire

25
Annexe 1
Fonction sur-modulaire (ou sous-modulaire)

• Une définition (ensembliste):


Soient un ensemble E et
une fonction f: P(E) R
f est sur-modulaire si pour tout sous-ensemble X et Y de E
f ( X )  f (Y )  f ( X  Y )  f ( X  Y )

• Maximiser une fonction sur-modulaire est polynomial


• Minimiser une fonction sur-modulaire est en général NP-
difficile.

(sous-modulaire: remplacer < par > et échanger min et max)


26
Modèles 2 et 2'

minimiser n n n
z   f i yi    cij xij
s.c. i 1 i 1 j 1

n
 xij  1 j (1)
i 1

xij  yi i j (2)

yi  0,1 i xij  0,1 ij


27
Modèles 2 et 2'

minimiser n n n
z   f i yi    cij xij
s.c. i 1 i 1 j 1

n
 xij  1 j (1)
i 1
n
xij  yi i j ( 2) ou  xij  nyi i (2' )
j 1

yi  0,1 i xij  0,1 ij


28
Modèle 2max
L'objectif du modèle 2 devient, avec gij = - cij:

Maximiser n n n
   ij xij   f i yi
i 1 j 1 i 1

Remarque: dans tous les modèles on peut remplacer


les contraintes xij  0,1 ij
par xij  0 ij
29
Modèle 3
n n
minimiser
  dij xij
s.c. i 1 j 1
n
 xij  1 j
i 1

xij  xii ij


xij  0,1 ij

30
Contraintes supplémentaires
• Problème p-médian
n
 yi  I  p
i 1

• Problème sous contraintes de capacité


n
 xij  ni i
j 1
n
ou
 D j xij  K i i
j 1
Ki=capacité du site i ou ni=nombre de sites max rattachés à i
31
1.4 LA LOCALISATION "DYNAMIQUE"

• Notations complémentaires
t=1,..,T périodes sur lesquelles porte l'étude
fit coût d ’installation d’un équipement en i à la période t
uit coût d ’utilisation d’un équipement en i à la période t
cijt coût du service total de j par i à la période t
yit = 1 s’il y a un équipement en i à la période t; (= 0 sinon)
xijt = 1 si j est servi par i à la période t; (= 0 sinon)
On suppose que la situation à t=0 est connue (yit donnés  i)
32
2 REGLES DE REDUCTION
K 0  sites i t.q. yi  0 K1  sites i t.q. yi  1
K 2  sites i t.q. yi non défini

• Règle 1
min sup(ckj  cij ,0)  f i alors yi  1
n
Si 
j 1 kK  K
1 2
k i
• Règle 2
n
Si  k t.q. f i  f k   sup(ckj  cij ,0) alors yi  0
j 1
33
3 COMPLEXITE DE PLS

• Théorème (Karp, 1972)


Le problème du recouvrement des arêtes
d'un graphe par les sommets est NP-complet
("node cover problem")

• Le problème de localisation simple (PLS)


est NP-difficile

34
4 RELAXATIONS
CONTINUES DE PLS
4.1 LES RELAXATIONS
• Relaxation forte
Modèle 2 xij  yi i j (2) 

la P.L. fournit très souvent une solution


entière (mais peu efficacement)

35
• Relaxation faible
 n 
  xij  nyi i (2' ) 
Modèle 2'  
 j 1 
solution optimale: pour tout i et tout j

xi* j  1 si
f i*  fi
 ci* j  min   cij  
n i  n 
xi* j  0 sinon
1 n
yi*   xi* j
n j 1
36
Annexe 2
Dualité lagrangienne et programmation linéaire
Soit (P), un programme linéaire en nombres entier (ou en 0-1)

• Propriété 1 L'optimum du dual lagrangien avec toutes les


contraintes relâchées hormis celles d'intégrité est égal à
l'optimum de la relaxation continue du programme (P).
• Propriété 2 L'optimum du dual lagrangien obtenu en
relâchant une partie des contraintes et les contraintes
d'intégrité est égal à l'optimum de la relaxation continue
du programme (P).
• Propriété 3 L'optimum du dual lagrangien obtenu en
relâchant une partie des contraintes et en conservant les
contraintes d'intégrité est supérieur ou égal à l'optimum de
la relaxation continue du programme (P).
37
4.2 DUALITE

• DUAL (Modèle 2)

 n

Max  v j ( 4 )
 j 1

 n
(DLS0)  wij  f i i ( 5)
 j 1
v j  wij  cij i j (6)

wij  0 v j  0

38
Le dual peut s'écrire:
 n

Max zd   v j ( 4)
 j 1

 n
(DLS)  sup(0, v j  cij )  f i i (7)
 j 1
v  0 j
 j


Propriété:
zd *   min (cij )
j i

39
• Dualité lagrangienne (contraintes(2)) (DLLS):

 L(u )  min  f i yi   (cij  u j ) xij   u j


 i i j j

 xij  yi i j (3)

 yi  0,1 xij  0 i j (0)

L  max L(u )
*
u j  0 j

40
• Proposition
L(u) sous contraintes (3) et (0)
= zd(u) sous contraintes (7) u

• Corollaire
L* = zd*

41
Deux méthodes fondées sur la dualité à la
base des méthodes actuelles efficaces:

• Algorithme d’Erlenkotter (1978)


• Algorithme de Christofides et Besley (1982)

(Voir section 7)

42
5 HEURISTIQUES POUR PLS
5.1 Algorithme gourmand

• Principe de résolution du modèle 1


définition: rk(S) = z(S)-z(S U{k}) S {sites}

Construction de I pas à pas: choix du site k


tel que rk(S) est maximal et positif pour
S={sites déjà sélectionnés}
43
• Heuristique gourmande G pour PLS
Début I:=; z():=M; possible:=vrai ;
tant que possible et Card(I)<n faire
d := maxkI rk(I); (r maximal pour k*)
si d >0 alors I:=I U {k*};
sinon possible := faux;
finsi;
fait;
IG:=I; zG:=z(I);
fin; Complexité: O(n3)
44
• Heuristique pour le problème p-médian:
remplacer la boucle de l'algorithme
précédent par " pour P:=1,..,p faire "
et remplacer le test si d >0... par I:=I U{k*};

• Heuristique pour une maximisation:


n
maximiser  max  ij   fi
j 1 iI iI

même algo avec rk(S) = z(S U{k})-z(S)


45
Garanties de performances
• garantie "a posteriori" minimisation
zG  z *   f i
iI G

garantie "a posteriori" maximisation


z *  zG   f i
iI G
zG=z(IG) z* zD* zD(v) zmax= Si Sj gij

garantie

46
• Garantie "a priori" maximisation
soit z R   min  ij   f i alors
j i i

e 1 1
zG  z *  zR
e e

• Garantie "a priori" max pb p-médian


e 1
zG  z *  0,63 z d *
e
e base du log népérien
47
5.2 Algorithmes d'échange
• Algorithme 2-opt min problème p-médian

Début S0=solution initiale;


tant que  k  S0 et i S0 tel que
z(S0-{i}U{k}) < z(S0) faire
S0= S0-{i}U{k})
fait;
fin;

48
• Algorithme d'échanges généralisés min PLS
Sv solution voisine de S si
Sv= SU{k} ou Sv= S-{i} ou Sv= S-{i}U{k}
Début S0=solution initiale; S:=S0;
tant que  Sv solution voisine de S telle que
z(Sv) < z(S) faire
S:= Sv;
fait;
fin;
49
• Maximisation
remplacer < par > dans les algos précédents

Performances Max p-médian

p
z d *  z *  p  1
   1e  0,37
zd *  z R  p 

50
zG : valeur obtenue par heuristique (max p-médian)

p
z *  zG  p  1 
-gourmande    1e
z *  zR  p 
z *  zG p 1
-2-opt  1
z *  zR 2 p  1 2
p
z *  zG  p  1 
-gourmande+2-opt    1e
z *  zR  p 

51
5.3 fonctions sous-modulaires

max z ( S ) : S  K , z ( S ) est sous  modulaire


SN
z *  zG K 1
heuristique gourmande 
z *  z () K

et si j(SG)  0 j SG (SG solution trouvée)


K
z *  z  K  1 
on a: G  
z *  z ()  K 
52
5.4 Recuit Simulé

• Voisinage: le même que pour les échanges


généralisés

• Excellents résultats

• Garanties seulement a posteriori

53
• Variations de la fonction de coût
r(j): site de rattachement de j dans la solution courante
r'(j): 2ième site équipé le plus proche de j

- Ajout d'un équipement au site a

1  f a   caj  cr ( j ) j
j t.q. cr ( j ) j  caj
- Suppression d'un équipement au site b
 2   fb   cr '( j ) j  cbj
j t.q. r ( j ) b
-déplacement d'un équipement de b vers a
 3  1   2
54
Annexe 3
Matrices Totalement Unimodulaires (TU)
Soit A matrice (m,n) d’entiers

Définitions: A de rang m est unimodulaire si le déterminant de


toute base de A vaut 1 ou -1
A est TU si le déterminant de toute
sous-matrice carrée de A vaut 0, 1 ou -1

Remarque: A TU  [A,I] unimodulaire

55
Annexe 3 Suite
Matrices Totalement Unimodulaires (TU)
Soit A matrice (m,n) d’entiers

Théorème

• A de rang m est unimodulaire si et seulement si le polyèdre


P={xn x≥0 Ax = b } est entier pour tout b vecteur entier
(tel que P≠)

• A est totalement unimodulaire si et seulement si le polyèdre


P={xn x≥0 Ax ≤ b } est entier pour tout b vecteur entier
(tel que P≠)

56
Annexe 3 Suite
Reconnaissances des Matrices (TU)
Soit A matrice (m,n) d’entiers

• A est TU ssi tout sous-ensemble de colonnes de A peut être


partagé en 2 parties telles que la somme des colonnes d’une
partie moins la somme des colonnes de l’autre partie est un
vecteur de 0, 1 ou -1
• Les matrices de réseaux sont TU
• Théorème (Seymour) Toute matrice TU comporte une
décomposition en matrice de réseaux combinées à des
matrices de Hoffman (matrice 5x5 particulières)
• Vérifier si une matrice est TU est un problème polynomial

57
6 LE POLYEDRE DE PLS
n
 xij  1 j
i 1
0  xij  yi  1 ij

• Cas particulier n=2


Tous les points extrêmes sont entiers
(matrice totalement unimodulaire)
• Etude du cas général n>2 polyèdre Qn
58
I1 = {i t.q. 0 < yi < 1})
J1 = {j t.q. xij=(0 ou yi) i et  i t.q. 0< xij< 1}
A = matrice (aij), iI1, jJ1 aij=1 si xij>0;aij=0 sinon
Théorème Cornuéjols, Fisher, Nemhauser
Une solution fractionnaire (x,y) est un point
extrême de Qn si et seulement si
(i) yi  max xij i  I1
j
(ii) j ,  au plus un i t.q. 0  xij  yi
(iii) rang( A)  I1
59
Théorème Cho, Padberg et Rao

Soit B une matrice non singulière de 0 et 1 telle que


B-1e  0 avec e=vecteur colonne de 1.
Les lignes et colonnes de B sont indicées par
Ik{1,..,n} et Jk{1,..,n} avec |Ik|=|Jk|=k.

Alors   ij ij  i
b x  y  k  e T 1
B e inf  
iI k jJ k iI k

est une inégalité valide pour PLS qui coupe au moins


un point fractionnaire si eTB-1e non entier

60
• Etude du polytope Pn de PLS
facettes élémentaires:
(i) xij  yi i j
(ii) xij  0 i j
(i) yi  1 i

notation: si 2  t  l  n
B tl  (bijtl )  matrice de Clt colonnes et l lignes
 vecteurs différents avec t 1 et l  t 0
61
Théorème Cornuéjols et Thizy

l , t t.q. 2  t  l  n et Clt  n;
I '  I et J '  J t.q. I '  l et J '  Clt
l'inégalité suivante définit une facette de Pn:

  ij ij  i
b tl
x  y  Cl  t  l 1
t
iI ' jJ ' iI '

62
Graphe associé: {sommets} {variables}
{arêtes}: { xij yi et xkj {xij t.q. ki}}

G' sous-graphe de G défini par:


N '  xij t.q. bij  0, i  I ' , j  J ' yi t.q. i  I '

Théorème Cornuéjols et Thizy

l'inégalité   bij xij   yi  r


iI ' jJ ' iI '

définit une facette de Pn si et seulement si:

63
(i) r   (G ' )  J '
(ii) G ' est connexe
(iii) i  I ' , j  J ' , l' arête yi , xij  est critique
(iv) j , k  J ' ,  une suite d' arête critique :
xij , xt j xt j , xt j .......xt
1 1 1 1 2 2 2 s  2 js 1

, xt s1 js1 xt s1 js , xkjs 
(v) i, j t.q. xij  N ' ,  (G ' )   (G" )
où G" est le sous - graphe induit par N 'xij 

64
7 METHODES EXACTES

7.1 LOCALISATION DANS UN ARBRE

• Un problème polynomial
• Un algorithme en O(n2)

65
Théorème Barany, Edmonds et Wolsey

Si le réseau des sites est un arbre et si dans toute


solution optimale un client est relié à l'équipement le
plus proche de plus petit numéro alors la matrice des
contraintes est totalement unimodulaire et tous les
points extrêmes du polyèdre sont entiers.

Les contraintes s'écrivent:


 xij  1 j (avec xii  yi )
i
xij  xij ' i, j , j ' tels que j ' est entre i et j
66
LOCALISATION DANS UN ARBRE
Un algorithme en O(n2) Billionnet, Costa

– programmation dynamique
– arbre → arborescence

demande du client j sous-arborescence de racine s

coût d'installation en j distance entre i et j


67
68
Les 2 algorithmes suivants sont à la base de nombreux
algorithmes récents efficaces pour ce problème

7.2 L'ALGORITHME D'ERLENKOTTER


Principe:
• résolution du programme linéaire continu
fondée sur le théorème des écarts
complémentaires
• + méthode arborescente

69
Rappel (cf IV.2)

n n n
  n
min z   f i yi   cij xij  Max z d   v j ( 4 )
i 1 i 1 j 1
  j 1
n  
1   xij  0 j (1)
n
  f i   sup(0, v j  cij )  0 i (7)
i 1
  j 1
yi  xij  0 i j ( 2 )  v  0 i
  j
yi  0 i xij  0 ij  

Application des règles d'exclusion à [y* et contraintes (7)] et à


[w* et contraintes (2)] avec wij=sup{0,v*j - cij}
On obtient:
*  
yi . fi   max 
0, v*j 
 cij   0 i (8)
 j 
y*
i  
 xij* . max 0, v*j  cij  0  ij (9)

 
Solution duale: vj+ (au début v j  min cij puis v j )
i
On note:
 

I '  i t.q.  max 0, v j  cij  f i 


 j 
I   I ': I  
i  I ' t.q. pour un j, seul i vérifie c  v  ij

j

 i  I 't.q.pour un j t.q. (c  v i  I ) c
ij

j

i' j est minimal 
71
Solution primale:
yi  1 i  I  ; yi  0 sinon;
j , xîj  1 ssi cîj  min cij (on note î  i  ( j ))
iI
Propriétés:
(a)  max 0,v 
j  cij  f ii  I 

j
 
(b) j i  I t.q. vj  cij

Lemme z p  z D    
max 0, v j  cij 
j iI 
i i  ( j )

72
Procédure "Dual Ascent"
• Initialisation si  j  c kj ( j )  v j alors
j faire v j  c1j (k ( j )  1)  j  c kj ( j )  v j
i faire si  fi k ( j)  k ( j)  1
j faire k ( j )  2  1
 1 finsi
pour tout i  I tq v j  cij  0
• tant que   1 faire
faire si  si   j
 0
pour j  1,.., n faire vj  vj j
fait
 j  min ( si : v j  cij  0)
iI fait
fait fin
73
Procédure Branch and bound
"Dual Adjustment"
choix d'un yi qui viole les
Principe: contraintes (9)
diminuer certains vj de • yi  0 ( fi  )
façon à pouvoir en la solution en cours du dual reste
admissible
augmenter d'autres.
• yi  1
- une diminution doit permettre modifications simples de la
deux augmentations solution du dual sans changement
- le choix des vj se fait très de sa valeur
simplement
74
7.3 L'ALGORITHME DE CHRISTOFIDES
ET BEASLEY (Problème p-médian)

Principe:
• recherche d'une solution admissible par une
heuristique gourmande
• calcul d'une borne par relaxation
lagrangienne
• + méthode arborescente
75
Modèle utilisé: modèle 3 avec contraintes (2')
n n n n
Min   dij xij s.c.  xij  1 j (1)  xij  n xii i ( 2' )
i 1 j 1 i 1 j 1
n
 xii  p xij  0,1 ij
i 1

• Solution initiale: heuristique VI.1

S ={sites équipés dans la solution en cours}


76
• Relaxation lagrangienne des contraintes (1)
écriture de la fonction duale:
n n n
w( )  Min   (dij   j ) xij    j
i 1 j 1 j 1
n
 xij  n xii i ( 2' )
j 1
n
 xii  p
i 1
xij  0,1 ij

en posant  j  min dij pour tout j  S  K1


iK1

77
n
w( )  Min   (dij   j ) xij   (d jj   j )    j
iS  K 0 jS  K1 jK1 j 1
dij   j

 xij  n xii i  S  K1
jS  K1
dij   j
n
 xii  p  K1
iS  K 0  K1
xij  0,1 ij; xii  0 et xij  0 i  K 0j; xii  1 i  K1 ;

en posant
 i  ( d ii   i )   min( 0, d ij   j ) i  S  K 0
jS  K1
d ij   j
j i
78
n
w( )  Min   i xii    j
iS  K 0 j 1
n
 xii  p  K1
iS  K 0  K1
xii  0,1 i  S  K 0 ; xii  1 i  K1 ;

Solution de la fonction duale:


xii*  1 si i  K1
xii*  1 pour les p  K1 plus petites valeurs de  i
avec i  S  K 0  K1
xii*  0 sinon

79
Calcul des xij*:

pour i  j xij*  1 si xii*  1, dij -  j  0, d ij   j , j  S  K1


xij*  0 sinon
Valeur de la solution duale:
n n
w( )    i xii*  j
i 1 j 1

Problème dual: max w( ) à résoudre par un algorithme de


 0
sous-gradient

80
Procédure arborescente
• Procédure classique séparation/évaluation
(Branch and bound)

• Séparation:
i tel que i  Min  k
kS*K1

81

Vous aimerez peut-être aussi