Optimización Multivariable Irrestricta11

Descargar como pptx, pdf o txt
Descargar como pptx, pdf o txt
Está en la página 1de 43

OPTIMIZACIN

MULTIVARIABLE
IRRESTRICTA

PROBLEMA

Una importante compaa petrolera desea


construir una refinera que recibir suministros
desde tres ciudades portuarias. El puerto B esta
300 Km. al este y 400 Km. al norte del puerto A,
mientras que el puerto C esta 400 al este y 100
Km. al sur del puerto B. Determnese la
localizacin de la refinera, de tal manera que la
cantidad total de tubera necesaria para
conectar la Refinera con los puertos se
minimice.

Formulacin del Modelo

DEFINICIONES BSICAS
La Optimizacin puede definirse como el
proceso de seleccionar dentro de un conjunto
de alternativas posibles, aquella que mejor
satisfaga el o los objetivos propuestos.
Para
la resolucin de un problema de
optimizacin
se
requieren
2
etapas
principales:

La Optimizacin multivariable implica un


estudio de datos de 2 dimensiones o ms.
El caso particular que se estudiar es la
optimizacin en 2 dimensiones, ya que las
caractersticas esenciales de bsqueda
bidimensionales
se
aprecian
mejor
grficamente.

Condiciones necesarias y
Suficientes
punto extremo de una funcin f(X)
Un
define un mximo o un mnimo de ella
Teorema 1:Una condicin necesaria , para
que Xo sea un punto extremo de f(X) es
que
Como la condicin necesaria tambin queda
satisfecha con los puntos de inflexin y de
silla los puntos obtenidos con la solucin se
llaman puntos estacionarios.

Definicin: Un punto X* cuya se llama punto


estacionario de f.
Teorema 2: (Condicin necesaria de
segundo orden)
Si x* es un mnimo local de f y f tiene
segundas derivadas parciales continuas en
una vecindad de x*, entonces
y la
Hessiana es positiva definida


Teorema
3: (Condicin necesaria de
segundo orden)
Si x* es un mximo local de f y f tiene
segundas derivadas parciales continuas en
una vecindad de x*, entonces y la
Hessiana es negativa definida

Teorema
4(Condicin suficiente de segundo

orden)
Suponer que f tiene segundas derivadas parciales
continuas en una vecindad de x* y que la
y la Hessiana es positiva definida, entonces x* es un
mnimo local estricto de f.
Teorema 5(Condicin suficiente de segundo
orden)
Suponer que f tiene segundas derivadas parciales
continuas en una vecindad de x* y que la y la
Hessiana es negativa definida, entonces x* es un
mximo local estricto de f.

Teorema 6:
Cuando f es convexa, cualquier mnimo
local x* es un mnimo global de f. Si
adems f es diferenciable, cualquier punto
estacionario x* es un mnimo global de f.
Teorema 7:
Cuando f es cncava, cualquier mximo
local x* es un mximo global de f. Si
adems f es diferenciable, cualquier punto
estacionario x* es un mximo global de f

CLASIFICACIN DE LOS MTODOS


DE OPTIMIZACIN MULTIVARIABLE

En este estudio, se tomar como criterio de


clasificacin la evaluacin de la derivada.
Segn ello, se clasifica as:
Mtodos no gradientes (Directos):
1. Bsqueda aleatoria
2. Univariabilidad y bsquedas patrn
Mtodos Gradiente (Indirectos):
1. Gradientes y Matriz de Hessiana
2. Mtodo de pasos ascendentes
3. Mtodo Newton

MTODOS DIRECTOS O NO
GRADIENTE
Estos mtodos varan de procedimientos de
fuerza bruta simple a tcnicas elegantes
que intentan explorar a la funcin.
Se caracterizan esencialmente por no ser
necesario derivar funciones.

1.Mtodo de Bsqueda
Aleatoria

El mtodo de bsqueda aleatoria evala en


forma repetida la funcin mediante la
seleccin aleatoria de valores de la variable
independiente.

Ejemplo Mtodo Bsqueda


Aleatoria
Enunciado:
Utilizar un generador de nmeros aleatorios
para localizar el mximo de:

f ( x, y ) y x 2 x 2 2 xy y 2

En el dominio acotado por x=-2 a 2; y=1 a


3.

Solucin:
1) Graficamos la funcin en el espacio

Codificacin: Grfica de la
Funcin
Cdigo en MatLab
clc,clear
% grfica de funciones
x=-2:0.1:2;
y=1:0.1:3;
[x,y]=meshgrid(x,y);
z=y-x-2*x.^2-2*x.*y-y.^2;
mesh (x,y,z) %3D
grid on

Obtenemos la Grfica en
3D

Generacin de aleatorios
Para x:
El generador de nmeros aleatorios est
dado por: x xa ( xb xa ) r
Los valores de x estarn determinados por
r:
x 2 4 r ; r 0;1
Para y:
El generador de nmeros aleatorios est
dado por: y ya ( yb ya ) r
Los valores de y estarn determinados por
r:

y 1 2 r ; r 0;1

Bsqueda del Mximo en el plano


xy

Cdigo para generar la superficie en el plano


xy
clc,clear
% grfica de funciones
x=-5:0.1:5;
y=-5:0.1:5;
[x,y]=meshgrid(x,y);
z=y-x-2*x.^2-2*x.*y-y.^2;
contour (x,y,z,50) % 50 lneas de contorno
grid on

Grfica en el plano xy

Aqu se
encuentra
el mximo

Generacin de valores y clculo


del mximo

Luego de darse el clculo aleatorio de


valores, se puede verificar, que el mximo
valor para la funcin es f(x, y)=1.25
i

F(x, y)

30

-0.9886

1.4282

1.2462

60

-1.0040

1.4724

1.2490

90

-1.0040

1.4724

1.2490

120

-0.9837

1.4936

1.2496

150

-0.9960

1.5079

1.2498

180

-0.9960

1.5079

1.2498

200

-0.9978

1.5039

1.2500

MXIM
O

Ventajas y Desventajas del M.


Bsqueda Aleatoria
Ventajas:
1) Es aplicable en discontinuidades y funciones
no diferenciables.
2) Siempre encuentra al ptimo global, ms
que el local.
Desventajas:
1) A medida que crece el nmero de variables
independientes, aumenta considerablemente el
esfuerzo de implementacin.
2)
No se toma en consideracin el
comportamiento de la funcin para reducir la
velocidad en la optimizacin.

2. Mtodo de Univariabilidad y
bsquedas patrn
Caractersticas esenciales del Mtodo:
No necesita el clculo de derivadas
Mtodo
eficiente
que
aprovecha
la
naturaleza de la funcin para optimizar con
mayor rapidez.

Estrategia del Mtodo de


Univariabilidad y Bsquedas patrn
Consiste en trabajar con slo una variable a
la vez, para mejorar la aproximacin,
mientras que las otras permanecen
constantes.
Puesto
que nicamente cambia una
variable, el problema se reduce a una
secuencia de bsqueda en una dimensin,
que se pueden resolver con una diversidad
de mtodos de optimizacin univariable.

1) Se comienza en el punto 1 y se mueve a


lo largo del plano xy hacia el mximo en el
punto 2.
2) Luego se mueve a lo largo del eje y con
x, constante hacia el punto 3.
3) El proceso se repite generando los
puntos 4,5,6.

Mtodo de Powell y bsquedas


patrn
Se fundamenta en el concepto de
direcciones-patrn:
trayectorias
que
permiten llegar directamente al mximo.
Se basa en bsquedas en una dimensin en
la misma direccin, pero con diferentes
puntos de partida (direcciones conjugadas).

MTODOS INDIRECTOS O
GRADIENTES
Los mtodos gradiente usan de forma
explcita informacin de la derivada para
generar algoritmos eficientes que localicen
al ptimo.
Antes
de
la
descripcin
de
los
procedimientos de manera especfica,
recurriremos
al
estudio
de
algunos
conceptos y operaciones matemticas
clave.

1.La Gradiente y la Matriz


Hessiana
Derivada Direccional
La derivada direccional da la razn de
cambio de los valores de la funcin f(x, y)
con respecto a la distancia ren el plano XY
u ( a, b)
en la direccin del vector unitario
Si se quiere saber la pendiente de una
regin arbitraria y definimos nuestra
posicin como si estuviramos en el origen
del nuevo eje (h->0), se tiene:

f ( x0 , y0 )
f ( x0 , y0 )
Dur f ( x0 , y0 )
cos
sen
x
y

Definicin de la Gradiente

Si se obtiene la pendiente con respecto a


una direccin cualquiera, entonces se tiene:

f
f
f i
j
x
y

En su forma vectorial para muchas


f
variables:
x1

f
f ( x ) x 2

....
f

xn

Matriz Hessiana
La matriz Hessiana est definida como una
matriz de orden n de la siguiente
manera:
Para el caso particular de 2 variables se
tiene como matriz Hessiana y a su
2 f
determinante:
2 f
2
2
2
2

2
f f f

y
H 2

H 2
2
2
x y xy
f
f

Criterio de la Segunda
derivada

Se obtienen los siguientes casos: Para F(x,y)


1) Mnimo Local
2 f ( a, b )
0
Si H 0 y adems
2
x
2) Mximo Local
2 f ( a, b )
0
Si H 0 y adems
2
x
3) Punto de Silla
Si H 0
4) No se tiene informacin
Si H 0

F(x,y,z,)

Hallar
los valores propios:
Son los tal que =0
i

Si todos son positivos => H es positiva


definida
Si todos son negativos => H es negativa
definida

Matriz positiva definida


Esta matriz M se dice definida positiva si cumple con una (y
por lo tanto, las dems) de las siguientes formulaciones
equivalentes:
1. Para todos los vectores no nulos z Cn tenemos que

ZT M Z >0
Ntese que ZT M Z es siempre real. El producto anterior, recibe
el nombre de Producto Cuntico.
2. Todos los autovalores i de M son positivos. (Recordamos
que los autovalores de una matriz simtrica, son reales.)
3. Todos los determinantes de los menores principales de M
son positivos. O lo que es equivalente; todas las siguientes
matrices tienen determinantes positivo.
la superior izquierda de M de dimensin 1x1
la superior izquierda de M de dimensin 2x2
la superior izquierda de M de dimensin 3x3
...

la superior izquierda de M de dimensin (n1)x(n-1)


M en s misma.
Para matrices semidefinidas positivas, todos
los menores principales tienen que ser no
negativos (Criterio de Silvestre o Sylvester).
Anlogamente, si M es una matriz real
simtrica, se reemplaza por , y la
conjugada transpuesta por la transpuesta.

2.Mtodo de pasos ascendentes


Este mtodo est caracterizado por 2 pasos
fundamentales:
1) determinar la mejor direccin para la
bsqueda
2) establecer el mejor valor a lo largo de
esa direccin de bsqueda.

Ejemplo: Mtodo de pasos


ascendentes
Enunciado:
Maximizar la siguiente funcin:
f ( x, y ) 2 xy 2 x x 2 2 y 2

Usar como valores iniciales, x=-1,y=1.

Solucin:

Ejemplo: Mtodo de pasos


ascendente

1) De manera analtica:
*Aplicamos las derivadas parciales:

2 y 2 2 x 0
x

x 2 y 1

f
2x 4 y 0
y

*Aplicamos 2das derivadas parciales para


determinar y evaluar el ptimo:
2 f
2
2
x
2 f
4
2
y

2 f
2 f

2
xy yx

2 2
H ( x, y )
H 4
2 4
Punto P(2,1) es Mximo
Local

2) Mtodo de pasos ascendentes


1RA iteracin:
Las derivadas parciales se evalan en P(1,1): f 2 y 2 2 x 6

x
f
2 x 4 y 6
y

f 6i 6 j

f
f
Laf funcin
2
x h, yse expresa
h f 1a 6lo
h,1largo
6h del
180
heje
72como:
h 7

g (el
h*) mximo
0 360h(h=h*):
* 72 0 h* 0.2
Ubicamos

x puntos
1 6 (0.2)
0.2
Encontramos los
P(x,
y):
y 1 6 (0.2) 0.2

METODO DE NEWTON RAPHSON


Paso1: Ingresar Vector Inicial X0 y tolerancia
Paso2: Hallar vector
Paso3: error = error=
Paso4: Si error < tolerancia entonces termina el
proceso y se reporta resultados: X1, error

Caso contrario X0=X1 y regresar al Paso 2

Mtodo de Newton
Recordar que el mtodo de Newton
converger a un mnimo local si la Hf es
positiva definida sobre alguna vecindad
alrededor del mnimo y si X1 queda dentro
de esa vecindad.
Recordar
que el mtodo de Newton
converger a un mximo local si la Hf es
negativa definida sobre alguna vecindad
alrededor del mximo y si X1 queda dentro
de esa vecindad.

Mtodo de Newton
Si no se selecciona correctamente Xo, el
mtodo puede converger a un mnimo local
en lugar de a un mximo o viceversa o
puede no converger en absoluto.
En ambos casos el proceso iterativo se da
por terminado y se inicia nuevamente con
una mejor aproximacin inicial.

Ejemplo: Mtodo de Newton

Enunciado:
Maximizar la siguiente funcin:
f ( x, y ) 2 xy 2 x x 2 2 y 2

Usar como valores iniciales, x=-1,y=1.

Solucin:

Ejemplo: Met. NewtonRaphson


f
f
2

x
H 2
f

yx

xy
2 f
2
y

Mtodo de Newton
Raphson

Error=

Error=
Si Error>tolerancia se debe seguir iterando,
y X1 se convierte en el Xo

También podría gustarte