Optimización Multivariable Irrestricta11
Optimización Multivariable Irrestricta11
Optimización Multivariable Irrestricta11
MULTIVARIABLE
IRRESTRICTA
PROBLEMA
DEFINICIONES BSICAS
La Optimizacin puede definirse como el
proceso de seleccionar dentro de un conjunto
de alternativas posibles, aquella que mejor
satisfaga el o los objetivos propuestos.
Para
la resolucin de un problema de
optimizacin
se
requieren
2
etapas
principales:
Condiciones necesarias y
Suficientes
punto extremo de una funcin f(X)
Un
define un mximo o un mnimo de ella
Teorema 1:Una condicin necesaria , para
que Xo sea un punto extremo de f(X) es
que
Como la condicin necesaria tambin queda
satisfecha con los puntos de inflexin y de
silla los puntos obtenidos con la solucin se
llaman puntos estacionarios.
Teorema
3: (Condicin necesaria de
segundo orden)
Si x* es un mximo local de f y f tiene
segundas derivadas parciales continuas en
una vecindad de x*, entonces y la
Hessiana es negativa definida
Teorema
4(Condicin suficiente de segundo
orden)
Suponer que f tiene segundas derivadas parciales
continuas en una vecindad de x* y que la
y la Hessiana es positiva definida, entonces x* es un
mnimo local estricto de f.
Teorema 5(Condicin suficiente de segundo
orden)
Suponer que f tiene segundas derivadas parciales
continuas en una vecindad de x* y que la y la
Hessiana es negativa definida, entonces x* es un
mximo local estricto de f.
Teorema 6:
Cuando f es convexa, cualquier mnimo
local x* es un mnimo global de f. Si
adems f es diferenciable, cualquier punto
estacionario x* es un mnimo global de f.
Teorema 7:
Cuando f es cncava, cualquier mximo
local x* es un mximo global de f. Si
adems f es diferenciable, cualquier punto
estacionario x* es un mximo global de f
MTODOS DIRECTOS O NO
GRADIENTE
Estos mtodos varan de procedimientos de
fuerza bruta simple a tcnicas elegantes
que intentan explorar a la funcin.
Se caracterizan esencialmente por no ser
necesario derivar funciones.
1.Mtodo de Bsqueda
Aleatoria
f ( x, y ) y x 2 x 2 2 xy y 2
Solucin:
1) Graficamos la funcin en el espacio
Codificacin: Grfica de la
Funcin
Cdigo en MatLab
clc,clear
% grfica de funciones
x=-2:0.1:2;
y=1:0.1:3;
[x,y]=meshgrid(x,y);
z=y-x-2*x.^2-2*x.*y-y.^2;
mesh (x,y,z) %3D
grid on
Obtenemos la Grfica en
3D
Generacin de aleatorios
Para x:
El generador de nmeros aleatorios est
dado por: x xa ( xb xa ) r
Los valores de x estarn determinados por
r:
x 2 4 r ; r 0;1
Para y:
El generador de nmeros aleatorios est
dado por: y ya ( yb ya ) r
Los valores de y estarn determinados por
r:
y 1 2 r ; r 0;1
Grfica en el plano xy
Aqu se
encuentra
el mximo
F(x, y)
30
-0.9886
1.4282
1.2462
60
-1.0040
1.4724
1.2490
90
-1.0040
1.4724
1.2490
120
-0.9837
1.4936
1.2496
150
-0.9960
1.5079
1.2498
180
-0.9960
1.5079
1.2498
200
-0.9978
1.5039
1.2500
MXIM
O
2. Mtodo de Univariabilidad y
bsquedas patrn
Caractersticas esenciales del Mtodo:
No necesita el clculo de derivadas
Mtodo
eficiente
que
aprovecha
la
naturaleza de la funcin para optimizar con
mayor rapidez.
MTODOS INDIRECTOS O
GRADIENTES
Los mtodos gradiente usan de forma
explcita informacin de la derivada para
generar algoritmos eficientes que localicen
al ptimo.
Antes
de
la
descripcin
de
los
procedimientos de manera especfica,
recurriremos
al
estudio
de
algunos
conceptos y operaciones matemticas
clave.
f ( x0 , y0 )
f ( x0 , y0 )
Dur f ( x0 , y0 )
cos
sen
x
y
Definicin de la Gradiente
f
f
f i
j
x
y
f
f ( x ) x 2
....
f
xn
Matriz Hessiana
La matriz Hessiana est definida como una
matriz de orden n de la siguiente
manera:
Para el caso particular de 2 variables se
tiene como matriz Hessiana y a su
2 f
determinante:
2 f
2
2
2
2
2
f f f
y
H 2
H 2
2
2
x y xy
f
f
Criterio de la Segunda
derivada
F(x,y,z,)
Hallar
los valores propios:
Son los tal que =0
i
ZT M Z >0
Ntese que ZT M Z es siempre real. El producto anterior, recibe
el nombre de Producto Cuntico.
2. Todos los autovalores i de M son positivos. (Recordamos
que los autovalores de una matriz simtrica, son reales.)
3. Todos los determinantes de los menores principales de M
son positivos. O lo que es equivalente; todas las siguientes
matrices tienen determinantes positivo.
la superior izquierda de M de dimensin 1x1
la superior izquierda de M de dimensin 2x2
la superior izquierda de M de dimensin 3x3
...
Solucin:
1) De manera analtica:
*Aplicamos las derivadas parciales:
2 y 2 2 x 0
x
x 2 y 1
f
2x 4 y 0
y
2 f
2 f
2
xy yx
2 2
H ( x, y )
H 4
2 4
Punto P(2,1) es Mximo
Local
x
f
2 x 4 y 6
y
f 6i 6 j
f
f
Laf funcin
2
x h, yse expresa
h f 1a 6lo
h,1largo
6h del
180
heje
72como:
h 7
g (el
h*) mximo
0 360h(h=h*):
* 72 0 h* 0.2
Ubicamos
x puntos
1 6 (0.2)
0.2
Encontramos los
P(x,
y):
y 1 6 (0.2) 0.2
Mtodo de Newton
Recordar que el mtodo de Newton
converger a un mnimo local si la Hf es
positiva definida sobre alguna vecindad
alrededor del mnimo y si X1 queda dentro
de esa vecindad.
Recordar
que el mtodo de Newton
converger a un mximo local si la Hf es
negativa definida sobre alguna vecindad
alrededor del mximo y si X1 queda dentro
de esa vecindad.
Mtodo de Newton
Si no se selecciona correctamente Xo, el
mtodo puede converger a un mnimo local
en lugar de a un mximo o viceversa o
puede no converger en absoluto.
En ambos casos el proceso iterativo se da
por terminado y se inicia nuevamente con
una mejor aproximacin inicial.
Enunciado:
Maximizar la siguiente funcin:
f ( x, y ) 2 xy 2 x x 2 2 y 2
Solucin:
x
H 2
f
yx
xy
2 f
2
y
Mtodo de Newton
Raphson
Error=
Error=
Si Error>tolerancia se debe seguir iterando,
y X1 se convierte en el Xo