Programacion No Lineal
Programacion No Lineal
Programacion No Lineal
INTRODUCCION
La Programación no Lineal (PNL) es una parte de la Investigación Operativa cuya misión es
donde tanto la función objetivo, como las que intervienen en las restricciones que determinan el
puede ser muy variada, según las funciones que en él intervengan (a diferencia de la
Programación Lineal (PL) donde la forma especial del conjunto de oportunidades y de la función
objetivo permiten obtener resultados generales sobre las posibles soluciones y facilitan los
tratamientos algorítmicos de los problemas). Ello ocasiona una mayor dificultad en la obtención
En este sentido, hay que distinguir entre las diversas caracterizaciones de óptimo, que sólo se
El tema que abordamos está compuesto por los siguientes epígrafes: en la sección 1, aparte de
daremos las definiciones y resultados básicos que se emplearán a lo largo de todo el tema.
Asimismo, se recuerda el estudio de los problemas irrestrictos (PI) y de los problemas con
restricciones de igualdad (PRI). La sección 2 se dedica a establecer y dar los conceptos básicos
de los problemas con restricciones de desigualdad (PRD), mientras que la sección 3 estudia la
variaciones para casos especiales. Con la utilización del llamado punto minimax, se aborda en la
donde:
f : D ⊂ Rn → R es la función objetivo, es decir, aquella que se desea optimizar (en este caso,
maximizar), y D su dominio.
g : D ⊂ Rn → Rm es una función vectorial g = (g1, g2, , gm) compuesta por las funciones de
restricción.
b ∈ Rm es el vector de términos independientes, o recursos. Cada expresióngi(x)
X = {x ∈ D / g(x) ≤ b}
Una combinación de variables instrumentales x se dice que es factible para el problema (PNL) si
pertenece a X.
Así pues, el problema (PNL) consiste en encontrar las variables de decisión factibles para el
problema para las cuales la función objetivo tome el mayor valor posible. Si para un punto, la
función objetivo toma el valor máximo de todos los puntos situados en algún entorno suyo, se
dice que el máximo es local. Si se encuentra un punto que produce el valor máximo de f en todo
el conjunto de oportunidades, el máximo es global:
Definición 1.
Definición 2.
f(x*) ≥ f(x).
Es importante tener en cuenta que esta formulación del problema no supone pérdida de
maximizar su opuesta. Por otro lado, cualquier restricción con ≥ se puede convertir en una de ≤
sin más que cambiar de signo, y las restricciones de igualdad se pueden descomponer en dos,
con las dos desigualdades. No obstante, también enunciaremos los resultados más importantes
Antes de pasar a estudiar los diferentes tipos de problemas, vamos a enunciar dos teoremas
cuya utilidad es crucial en el tema que nos ocupa. Ambos están orientados a poder asegurar la
globalidad de los óptimos obtenidos. En efecto, veremos que la casi totalidad de los métodos y
Weierstrass) nos da las condiciones bajo las cuales podemos asegurar la existencia de óptimos
globales en un problema. El segundo (Teorema Local – Global) nos proporciona las condiciones
que nos permiten afirmar que un óptimo local es global. La demostración de ambos teoremas
continua y cóncava (resp. convexa) en X, entonces cualquier máximo (resp. mínimo) local de
(PNL) es global.
sujeto a:
restringido.
Por supuesto, si son funciones lineales, entonces (1) será un problema de programación lineal y
puede resolverse mediante el algoritmo simplex.
El objeto de las siguientes secciones es definir una serie de conceptos relacionados con el
problema general de programación no lineal, así como el estudio de las relaciones existentes
sección 4.
Veremos que, en general, será más directa la demostración de la suficiencia de estas
condiciones para asegurar que tenemos una solución del problema que la de la necesariedad de
las mismas, para las que habrá que imponercondiciones de regularidad sobre las restricciones
resultados que se obtienen generalizan los dados en la sección anterior para los problemas con
donde:
intersección entre el dominio de las funciones del problema y el conjunto determinado por las
restricciones. Así,
donde
X = { x ∈ D / g(x) ≤ b },
Este tipo de problemas es muy representativo de las circunstancias en las que se desenvuelve la
posible pensar en soluciones factibles y óptimas que no saturen necesariamente todas las
restricciones, dejando un excedente inutilizado del recurso cuya disponibilidad limitan.
Se debe tener en cuenta sin embargo, en relación con el problema formulado, que el sentido de
las desigualdades (≤) es únicamente cuestión de convenio. Una restricción con la desigualdad
contraria puede reducirse a una del tipo anterior sin más que multiplicar por (-
1). Por otra parte, una restricción de igualdad puede reemplazarse por dos de desigualdad, por
ejemplo, g(x) = b se convierte en g(x) ≤ b y -g(x) ≤ -b. O bien puede ser tratada directamente,
En ocasiones, para que el problema sea económicamente significativo, es necesario que las
en lo que sigue:
Función de Lagrange L:
L : D × Rm+ → R
restricciones de igualdad, que, para cada j = 1, …, m, anterior, una disminución del valor
oportunidades que es un subconjunto del de partida, lo que estaría en contradicción con que x0
será necesario en algunos casos distinguir entre las restricciones que se verifican con igualdad
en el óptimo y las que se verifican con desigualdad estricta. Así, diremos que la restricción gi(x)
≤ bi es activa en un punto factible x0 (o que x0 satura dicha restricción), si verifica gi(x0)= bi.
unidad de producto, los clientes pedirán unidades. Para maximizar las ganancias, ¿qué precio
Puntos estacionarios.
Una vez definido este concepto, veamos seguidamente los teoremas que lo relacionan
con las soluciones del problema (PRD). Empezaremos dando el teorema de condiciones
necesarias, es decir, el teorema en el que se establecen qué condiciones necesariamente
deben verificar los óptimos de (PRD).
Una vez definido este concepto, veamos seguidamente los teoremas que lo relacionan
con las soluciones del problema (PRD). Empezaremos dando el teorema de condiciones
necesarias, es decir, el teorema en el que se establecen qué condiciones necesariamente
deben verificar los óptimos de (PRD).
∇f (x ) + ∑ ëi∇gi (x ) = 0 .00i∈I
Pasamos ahora a dar el teorema de condiciones suficientes, es decir, el teorema que afirma
bajo qué condiciones un punto estacionario de Kuhn-Tucker es máximo del
problema. Ya se ha comentado que hace falta en este caso exigir condiciones de
convexidad
sobre las funciones del problema. Realmente, basta con unas suposiciones un poco más
suaves que la convexidad global, si bien aquí no vamos a especificarlas:
24 sobre las funciones del problema. Realmente, basta con unas suposiciones un poco más
suaves que la convexidad global, si bien aquí no vamos a especificarlas
Este teorema admite una formulación similar para el problema de mínimo, con las
correspondientes definiciones de los puntos estacionarios, y suponiendo que la función f sea
convexa.
Puntos minimax.
Por tanto,
Así pues, si (x0, ë0) es un punto minimax, x0 es una solución óptima del problema
original.
Pasamos ahora a dar los teoremas que relacionan los conceptos de punto de silla de L y
punto minimax. Veremos que dicha relación es casi una equivalencia, en el sentido de que
todo punto minimax es punto de silla, y todo punto de silla es un punto minimax
considerado sobre conjuntos mas restringidos.
donde
L(x, ë) = f(x) – ët[g(x)
que es, precisamente, el problema de partida, que llamaremos a partir de ahora Problema
Primal (PP).
Por otro lado, el segundo término de la igualdad del punto minimax se puede
expresar como:
Min
õ (ë ),
que es, precisamente, el problema de partida, que llamaremos a partir de ahora Problema
Primal (PP).
Por otro lado, el segundo término de la igualdad del punto minimax se puede
expresar como:
MinNõ (ë ),
donde
Pues bien, la dualidad consiste en que se dé o no la igualdad entre los valores óptimos de
las soluciones de estos dos problemas (lo que sucede si existe el punto minimax).
Los siguientes teoremas establecen bajo qué condiciones se tiene esta dualidad.
Max µ (x) ≥ Min õ (ë ) ,es decir, que el valor óptimo del problema primal es siempre
menor o igual que el del dual. La pregunta que surge es cuándo se da la igualdad. En el
caso en que no se dé, es decir, si la solución del primal es estrictamente menor que la del
dual, se dice que se produce un gap de dualidad. El siguiente teorema afirma que, bajo
condiciones de convexidad y si se da una cualificación de restricciones, entonces se verifica
la igualdad:
Por lo tanto, bajo estas condiciones, los valores óptimos de los problemas primal y dual
coinciden. La utilidad de este concepto consiste en que, en algunos problemas, dada su
estructura y la forma específica que toma el problema dual, puede ser más sencillo resolver
este último, y obtener, a partir del él, la solución del primal.
sujeto a
(Si , la región factible para el PNL (4) es y si , la región factible para (4) es ).
Para encontrar la solución óptima para (4), buscamos todos los máximos (o mínimos)
locales.
Un punto que es un máximo local o un mínimo local para (4) se llama un extremo local.
Entonces la solución óptima para (4) es el máximo (o mínimo) local con el mayor (o
menor) valor de
donde se supone que f está definida sobre el conjunto de oportunidades determinado por las
restricciones, que son m relaciones de la forma gi(x) = bi, i = 1, …, m. Supondremos que
tanto la función objetivo f como las restricciones gi son de clase 2 en X.
Definición 3.
En lo que sigue, veremos que las condiciones de primer y segundo orden en este caso son
análogas al caso irrestricto, pero exigiéndolas sobre la función de Lagrange en lugar de
sobre la función objetivo f. Previamente, vamos a estudiar algunas propiedades interesantes
de la función de Lagrange.
La primera nos asegura que cuando trabajamos con puntos factibles, el valor de la función
de Lagrange coincide con el de la función objetivo. La segunda nos permite afirmar que
cualquier punto crítico de la función de Lagrange es factible para el problema (PRI):
Teorema 9.
Demostración.
Si x es un punto arbitrario de X:
g(x) – b = 0,
resultando que:
Ahora bien:
Luego, en definitiva:
Demostración.
Si (x* ,ë*) es punto crítico de L, entonces, por la forma de su gradiente,
Según hemos visto, la función de Lagrange incorpora tanto la función objetivo del
problema original, como las restricciones del mismo. Además, también se verifica que todo
punto crítico de la función de Lagrange es factible para el problema (PRI), y, en esta
situación, el valor de L coincide con el de f. En estas circunstancias, cabe preguntarse si
existirá alguna relación entre los óptimos locales de (PRI) y los puntos críticos de L. El
siguiente teorema demuestra que, en efecto, todo óptimo local de (PRI) produce un punto
crítico de la lagrangiana:
Demostración.
en cuyo caso x = (x1t, x2t), resulta que lo anterior es suficiente (teorema de la función
implícita) para que existan un entorno de x1*, E1(x1*), un entorno de x2*, E2(x2*), y una
función
es decir, que x* es óptimo global de f en el entorno en el que podemos poner x1 como
función de x2. Sustituyendo en la función objetivo, podemos definir una nueva función:
F: E 2 (x 2 *) → R
F (x 2 ) =f (h(x 2 ), x 2 )
función en las variables x2 = (xm+1, xm+2, …, xn) que no está restringida por ninguna
relación en un entorno del punto x*, pudiendo aplicarle las técnicas desarrolladas en el
apartado anterior. Como, por hipótesis, x* es óptimo en E1(x*), entonces, x2* lo será de la
nueva función F, y por tanto: es decir,
∇F(x2*) = 0.
Teorema 12.Si (x*, ë*) es un punto crítico de la función de Lagrange asociada al problema
(PRI), una condición suficiente para que x* sea un máximo (resp. mínimo) local del
problema es que la forma cuadrática
3.3.1 Multiplicadores de Lagranje Lambda
Sea el problema:
Max f(x)
s.a g(x) = b.
Sea (x*, ë*) una solución óptima de dicho problema. Se trata, por tanto, de un punto crítico
de la función de Lagrange asociada al problema:
Para distintos valores del segundo miembro de las restricciones (vector b), se obtendrían,
lógicamente, distintas soluciones óptimas del problema anterior. Consideremos entonces la
solución optima como una función del vector b, y supongamos que esta función es
diferenciable (lo cual es cierto si se verifican las condiciones suficientes de optimalidad):
x* = x(b)
ë* = ë(b)
Los valores óptimos de la función objetivo pueden considerarse como una función de b,
f(x(b)), e igualmente la función vectorial de las restricciones, g(x(b)). Derivando, tanto una
como otra con respecto a b, obtenemos, respectivamente:
∇x f(x*) – Jx g(x*) ë* = 0
∇b f(x(b)) – Jb g(x(b)) ë* = 0
Finalmente, como g(x(b)) = b, derivando esta expresión con respecto a las variables
es decir, la variación del valor óptimo de la función objetivo f(x*) producida por
variaciones infinitesimales del segundo miembro de una restricción, está
representada por el multiplicador óptimo ëi asociado a la misma. En otras palabras,
el valor óptimo del multiplicador de Lagrange asociado a una determinada restricción
nos proporciona un medida de la sensibilidad del valor óptimo de la función objetivo ante
cambios en el recurso de dicha restricción.
Esta interpretación general tiene una traducción económica concreta según sea la función
objetivo y la expresión de las restricciones. Si la función objetivo consiste, por ejemplo, en
maximizar la función de utilidad del consumidor sometido a una restricción presupuestaria
de igualdad, el multiplicador de Lagrange se interpreta como la utilidad marginal por
unidad monetaria. Si el problema consiste en determinar el plan de producción compatible
con la función de producción de la empresa y tal que resulte mínimo el coste de
producción, el multiplicador de Lagrange se interpretara como el coste marginal de
producción del producto.
Pueden considerarse como la medida del “pago” máximo que podría efectuarse a cambio
de un desplazamiento de la restricción. Por ejemplo, si el problema es maximizar el
beneficio eligiendo los niveles de factores productivos y de producción, sujetos a la
limitación impuesta por la cantidad disponible de un factor, b. En este problema, ë* mide la
rentabilidad marginal del factor o la tasa a la que aumenta el beneficio máximo como
consecuencia de un pequeño incremento en la cantidad fija del factor. Por consiguiente, ë*
mide la cantidad máxima que la empresa estaría dispuesta a pagar por el incremento en el
factor, ya que si pagase menos el resultado sería un incremento neto en el beneficio, y si
pagase más se produciría una reducción neta del mismo. Por esta razón, a ë* se le puede
denominar “precio sombra” del factor, utilizándose dicho adjetivo para indicar que el
precio puede diferir del precio real del mercado.