Programacion No Lineal

Descargar como doc, pdf o txt
Descargar como doc, pdf o txt
Está en la página 1de 26

PROGRAMACION NO LINEAL

INTRODUCCION
La Programación no Lineal (PNL) es una parte de la Investigación Operativa cuya misión es

proporcionar una serie de resultados y técnicas tendentes a la determinación de puntos óptimos

para una función (función objetivo) en un determinado conjunto (conjunto de oportunidades),

donde tanto la función objetivo, como las que intervienen en las restricciones que determinan el

conjunto de oportunidades pueden ser no lineales. Evidentemente, la estructura del problema

puede ser muy variada, según las funciones que en él intervengan (a diferencia de la

Programación Lineal (PL) donde la forma especial del conjunto de oportunidades y de la función

objetivo permiten obtener resultados generales sobre las posibles soluciones y facilitan los
tratamientos algorítmicos de los problemas). Ello ocasiona una mayor dificultad en la obtención

de resultados, que se refleja también en la dificultad de la obtención numérica de las soluciones.

En este sentido, hay que distinguir entre las diversas caracterizaciones de óptimo, que sólo se

emplean como técnicas de resolución en problemas sencillos, y los métodos numéricos

iterativos, cuyo funcionamiento se basa en estas caracterizaciones, para la resolución de

problemas más generales.

El tema que abordamos está compuesto por los siguientes epígrafes: en la sección 1, aparte de

esta introducción, definimos el problema general de Programación no Lineal que estudiamos, y

daremos las definiciones y resultados básicos que se emplearán a lo largo de todo el tema.

Asimismo, se recuerda el estudio de los problemas irrestrictos (PI) y de los problemas con

restricciones de igualdad (PRI). La sección 2 se dedica a establecer y dar los conceptos básicos

de los problemas con restricciones de desigualdad (PRD), mientras que la sección 3 estudia la

resolución de estos problemas a través de la definición de punto estacionario, y algunas de sus

variaciones para casos especiales. Con la utilización del llamado punto minimax, se aborda en la

sección 4 el concepto de dualidad en Programación Matemática.

El problema general de Programación no Lineal que estudiaremos a lo largo de todo el tema

toma la siguiente forma:

donde:

x = (x1, x2, …, xn) ∈ Rn es la variable instrumental o de decisión.

f : D ⊂ Rn → R es la función objetivo, es decir, aquella que se desea optimizar (en este caso,

maximizar), y D su dominio.

g : D ⊂ Rn → Rm es una función vectorial g = (g1, g2, …, gm) compuesta por las funciones de

restricción.
b ∈ Rm es el vector de términos independientes, o recursos. Cada expresióngi(x)

≤ bidetermina una restricción sobre las variables instrumentales.

Se denomina conjunto de oportunidades del problema, o conjunto factible al conjunto de

puntos de D que satisfacen las restricciones del problema, es decir,

X = {x ∈ D / g(x) ≤ b}

Una combinación de variables instrumentales x se dice que es factible para el problema (PNL) si

pertenece a X.

Así pues, el problema (PNL) consiste en encontrar las variables de decisión factibles para el

problema para las cuales la función objetivo tome el mayor valor posible. Si para un punto, la

función objetivo toma el valor máximo de todos los puntos situados en algún entorno suyo, se

dice que el máximo es local. Si se encuentra un punto que produce el valor máximo de f en todo
el conjunto de oportunidades, el máximo es global:

Definición 1.

Un punto x* ∈ X se dice que es un máximo local de (PNL) si existe un entorno de

x*, E(x*) tal que ∀ x ∈ E(x*) ∩ X, se verifica f(x*) ≥ f(x).

Definición 2.

Un punto x* ∈ X se dice que es un máximo global de (PNL) si ∀ x ∈ X, se verifica

f(x*) ≥ f(x).

Es importante tener en cuenta que esta formulación del problema no supone pérdida de

generalidad, ya que si el objetivo fuese minimizar la función objetivo, se puede

maximizar su opuesta. Por otro lado, cualquier restricción con ≥ se puede convertir en una de ≤

sin más que cambiar de signo, y las restricciones de igualdad se pueden descomponer en dos,

con las dos desigualdades. No obstante, también enunciaremos los resultados más importantes

para el problema de mínimo.

Antes de pasar a estudiar los diferentes tipos de problemas, vamos a enunciar dos teoremas

cuya utilidad es crucial en el tema que nos ocupa. Ambos están orientados a poder asegurar la

globalidad de los óptimos obtenidos. En efecto, veremos que la casi totalidad de los métodos y

caracterizaciones empleados en la resolución de problemas no lineales sólo nos garantizan la

obtención de óptimos locales. El primero de los teoremas que enunciamos (Teorema de

Weierstrass) nos da las condiciones bajo las cuales podemos asegurar la existencia de óptimos

globales en un problema. El segundo (Teorema Local – Global) nos proporciona las condiciones

que nos permiten afirmar que un óptimo local es global. La demostración de ambos teoremas

puede encontrarse en Caballero, González y Triguero (1992):

Teorema 1. Teorema de Weierstrass.


Dado el problema (PNL), si el conjunto de oportunidades X es compacto y no vacío, y la función

objetivo f es continua en X, entonces el problema (PNL) posee máximo y mínimo globales.

Teorema 2. Teorema Local – Global.

Dado el problema (PNL), si el conjunto de oportunidades X es convexo, y la función objetivo f es

continua y cóncava (resp. convexa) en X, entonces cualquier máximo (resp. mínimo) local de

(PNL) es global.

sujeto a:

Como en la programación lineal z es el funcional del problema de programación no lineal y

son las restricciones del problema de programación no lineal.

Un problema de programación no lineal es un problema de programación no lineal no

restringido.

El conjunto de puntos , tal que es un número real, es

, entonces, es el conjunto de los números reales.

Los siguientes subconjuntos de (llamados intervalos) serán de particular interés:


Y en forma análoga a las definiciones de la programación lineal.

Supóngase que (1) es un problema de maximización.

Por supuesto, si son funciones lineales, entonces (1) será un problema de programación lineal y
puede resolverse mediante el algoritmo simplex.

3.1 Problemas de programación no lineal


Planteamiento del problema de Programación No Lineal.

El objeto de las siguientes secciones es definir una serie de conceptos relacionados con el

problema general de programación no lineal, así como el estudio de las relaciones existentes

entre cada uno de ellos y la solución de dicho problema.

Los conceptos que estudiaremos serán los siguientes:

• Punto estacionario, en la sección 3.

• Punto minimax, íntimamente relacionado con el concepto de dualidad, y que se estudiará en la

sección 4.
Veremos que, en general, será más directa la demostración de la suficiencia de estas

condiciones para asegurar que tenemos una solución del problema que la de la necesariedad de

las mismas, para las que habrá que imponercondiciones de regularidad sobre las restricciones

del problema, que llamaremos cualificaciones de restricciones. En esta sección se enuncian

varias cualificaciones de restricciones y se estudia la relación entre ellas. En general, los

resultados que se obtienen generalizan los dados en la sección anterior para los problemas con

restricciones de igualdad, en el sentido de la existencia de condiciones de primer orden que

implican a las primeras parciales de la función de Lagrange asociada al problema, y condiciones

de segundo orden que suponen convexidad de ciertas funciones.

Un problema general de programación no lineal consiste en encontrar los valores de ciertas


variables que maximizan o minimizan una función dada, dentro de un conjunto definido por una
serie de restricciones de desigualdad, de forma que no hay aseguradas condiciones de linealidad
ni sobre la función a optimizar ni sobre las funciones que definen el conjunto dentro del cual
buscamos dicho óptimo.

donde:

y son ambas al menos de clase dos en todo su dominio.


El conjunto de oportunidades X es el conjunto en el cual maximizamos la función, es decir, la

intersección entre el dominio de las funciones del problema y el conjunto determinado por las

restricciones. Así,

donde

X = { x ∈ D / g(x) ≤ b },

b = (b1 ,…, bm).

Este tipo de problemas es muy representativo de las circunstancias en las que se desenvuelve la

actividad económica. Normalmente, se dispone de cantidades limitadas de recursos, pero sin la

obligación de emplearlas en su totalidad, si ello no resultase adecuado. Por consiguiente, es

posible pensar en soluciones factibles y óptimas que no saturen necesariamente todas las
restricciones, dejando un excedente inutilizado del recurso cuya disponibilidad limitan.

Se debe tener en cuenta sin embargo, en relación con el problema formulado, que el sentido de

las desigualdades (≤) es únicamente cuestión de convenio. Una restricción con la desigualdad

contraria puede reducirse a una del tipo anterior sin más que multiplicar por (-

1). Por otra parte, una restricción de igualdad puede reemplazarse por dos de desigualdad, por

ejemplo, g(x) = b se convierte en g(x) ≤ b y -g(x) ≤ -b. O bien puede ser tratada directamente,

sin restringir el signo del multiplicador correspondiente.

En ocasiones, para que el problema sea económicamente significativo, es necesario que las

variables instrumentales sean no negativas, es decir, x ≥ 0. Más adelante en este capítulo,

daremos un tratamiento específico a estas restricciones.

Asociadas al problema de maximización, podemos definir la siguiente función, muy importantes

en lo que sigue:

• Función de Lagrange L:

L : D × Rm+ → R

L(x, ë) = f(x) – ët[g(x) - b] 1,

donde ë ∈ Rm+ es el vector de multiplicadores asociado al bloque de restricciones del

problema, también denominados multiplicadores de Kuhn-Tucker.

Dado un vector b ∈ Rm, si llamamos x0(b) a la correspondiente solución del problema

de programación no lineal, se puede demostrar, análogamente a lo que vimos en el caso con

restricciones de igualdad, que, para cada j = 1, …, m, anterior, una disminución del valor

de bj originaría un aumento del valor de la función objetivo en el máximo, para un conjunto de

oportunidades que es un subconjunto del de partida, lo que estaría en contradicción con que x0

fuera el máximo del problema original.


Al objeto de analizar en profundidad las propiedades del problema de programación no lineal,

será necesario en algunos casos distinguir entre las restricciones que se verifican con igualdad

en el óptimo y las que se verifican con desigualdad estricta. Así, diremos que la restricción gi(x)

≤ bi es activa en un punto factible x0 (o que x0 satura dicha restricción), si verifica gi(x0)= bi.

Ejemplo de Programación No Lineal


Ejemplo N° 1
A una compañía le cuesta c UM por unidad fabricar un producto. Si la compañía cobra p UM por

unidad de producto, los clientes pedirán unidades. Para maximizar las ganancias, ¿qué precio

tendría que poner la compañía?


Solución
La variable de decisión de la empresa es p

Dado que la ganancia de la empresa es , la empresa querrá resolver el siguiente problema de

maximización sin restricción:

3.2 Puntos de inflexión programación no lineal

Puntos estacionarios.

Procedemos entonces, tras haber establecido ciertos conceptos básicos en la sección


anterior, a resolver el problema

Maximizar sujeta a :f (x)g(x) ≤ b(PRD)


donde suponemos que se dan condiciones de diferenciabilidad sobre f y g y que el conjunto
D es abierto. En esta situación, tenemos aseguradas ciertas condiciones de diferenciabilidad
sobre la función de Lagrange L. Empezaremos definiendo el concepto de punto estacionario
de Kuhn-Tucker a partir de L. Tras ello, estudiaremos su relación con las soluciones del
problema (PRD). Como veremos, serán necesarias condiciones de convexidad en los
teoremas de suficiencia, y no así en los de necesariedad (donde, eso sí, hará falta incluir
cualificaciones de restricciones).

Así pues, definimos

supuesto que x0 es un punto factible:

Una vez definido este concepto, veamos seguidamente los teoremas que lo relacionan
con las soluciones del problema (PRD). Empezaremos dando el teorema de condiciones
necesarias, es decir, el teorema en el que se establecen qué condiciones necesariamente
deben verificar los óptimos de (PRD).
Una vez definido este concepto, veamos seguidamente los teoremas que lo relacionan
con las soluciones del problema (PRD). Empezaremos dando el teorema de condiciones
necesarias, es decir, el teorema en el que se establecen qué condiciones necesariamente
deben verificar los óptimos de (PRD).

Como se observa, gracias a la formulación de punto estacionario de Kuhn-Tucker (4), este


teorema afirma que, si se verifica la cualificación de restricciones de independencia lineal
en x0, entonces necesariamente todo óptimo local del problema es un punto estacionario
de Kuhn-Tucker. Existe otro concepto de punto estacionario (punto estacionario
de Fritz-John) más general que el de Kuhn-Tucker, que no necesita de la cualificación de
restricciones para que se establezca esta condición necesaria.

Este teorema admite exactamente la misma formulación para el problema de


mínimo, teniendo simplemente en cuenta las definiciones de punto estacionario para
mínimo. Así, por ejemplo, la condición quedaría:

∇f (x ) + ∑ ëi∇gi (x ) = 0 .00i∈I

Pasamos ahora a dar el teorema de condiciones suficientes, es decir, el teorema que afirma
bajo qué condiciones un punto estacionario de Kuhn-Tucker es máximo del
problema. Ya se ha comentado que hace falta en este caso exigir condiciones de
convexidad

sobre las funciones del problema. Realmente, basta con unas suposiciones un poco más
suaves que la convexidad global, si bien aquí no vamos a especificarlas:
24 sobre las funciones del problema. Realmente, basta con unas suposiciones un poco más
suaves que la convexidad global, si bien aquí no vamos a especificarlas

Este teorema admite una formulación similar para el problema de mínimo, con las
correspondientes definiciones de los puntos estacionarios, y suponiendo que la función f sea
convexa.

Si observamos con detenimiento las condiciones de punto estacionario que hemos


desarrollado en esta sección, podremos ver su analogía con el caso en el que existan
restricciones de igualdad. En concreto, desde un punto de vista intuitivo, el proceso se
podría interpretar de la siguiente forma: en primer lugar, se identifican las restricciones
activas en el punto en cuestión. Posteriormente, se toman las condiciones de primer orden
para problemas con restricciones de igualdad, teniendo en cuenta sólo las mencionadas
restricciones activas (que, en el punto bajo estudio, se pueden considerar de igualdad).
Finalmente, se añade la condición adicional de no negatividad sobre los multiplicadores
óptimos, que, según vimos previamente, garantizan que la función objetivo no mejora al
moverse hacia el interior relativo de las restricciones activas.

3.2.1 Máximos y mínimos programación no lineal

Puntos minimax.

El punto minimax de la función lagrangiana es otro concepto relacionado con la solución de


un problema de optimización. Si bien su definición no le hace útil a la hora de la resolución
directa del problema, sí constituye un paso intermedio muy importante en la obtención del
problema dual, que estudiaremos más adelante. En esta sección definimos dicho punto y
estudiamos su relación con otro concepto, el punto de silla de la lagrangiana.
La relación del punto minimax con la solución del problema de programación no lineal se
obtiene de forma inmediata sin mas que tener en cuenta que:

Min L (x, ë ) = f (x) − Max ët [g(x) − b]R m+R m+

Si gi (x) – bi ≤ 0, entonces ëi [gi(x) - bi] ≤ 0, luego

Max ëi ( gi (x) − bi ) = 0R m+ (se alcanza en ë = 0). Por tanto, si x ∈ X, Min L (x, ë ) = f


(x) .R m+ Si gi (x) – bi > 0, entonces Sup ëi [gi(x) - bi] = ∞, por lo que en este caso no se
alcanza el R m+ mínimo de la Lagrangiana.

Por tanto,

Max Min L (x, ë ) = Max f (x) D R m+ X

Así pues, si (x0, ë0) es un punto minimax, x0 es una solución óptima del problema
original.

Pasamos ahora a dar los teoremas que relacionan los conceptos de punto de silla de L y
punto minimax. Veremos que dicha relación es casi una equivalencia, en el sentido de que
todo punto minimax es punto de silla, y todo punto de silla es un punto minimax
considerado sobre conjuntos mas restringidos.

Como hemos expuesto anteriormente, para obtener el teorema recíproco es


necesario restringir los conjuntos de definición del punto minimax.
Previamente, hemos visto que la primera parte de la igualdad debe ser de la
forma
Definimos, por tanto,

N = {ë ∈ R m + / ∃ Max ( f ( x ) − ët [g(x) − b ])}, N ⊂ R m +

Entonces, la segunda parte de la igualdad se debe expresar como sigue:

Min Max L (x, ë )

Por tanto, el punto minimax que buscamos ahora es de la forma:

Para el problema de mínimo, el punto minimax toma la forma:

tomando además la función lagrangiana correspondiente a este problema. Con esta


definición, los teoremas 16 y 17 serían válidos de forma análoga para esta formulación.

4.1.- Dualidad en Programación Matemática.

El concepto de dualidad nace estrechamente ligado al de punto minimax que se desarrolló


en la sección anterior. Así, dado nuestro problema original, recordemos la definición de
punto minimax: se trata de un par (x0, ë0) que verifica:

L (x0 , ë0 ) = Max Min L (x, ë ) = Min Max L (x, ë ) ,

donde
L(x, ë) = f(x) – ët[g(x)
que es, precisamente, el problema de partida, que llamaremos a partir de ahora Problema

Primal (PP).

Por otro lado, el segundo término de la igualdad del punto minimax se puede
expresar como:

Min

õ (ë ),

tomando además la función lagrangiana correspondiente a este problema. Con


esta definición, los teoremas 16 y 17 serían válidos de forma análoga para esta
formulación.

4.1.- Dualidad en Programación Matemática.

El concepto de dualidad nace estrechamente ligado al de punto minimax que se


desarrolló en la sección anterior. Así, dado nuestro problema original, recordemos la
definición de punto minimax: se trata de un par (x0,  0) que verifica:

que es, precisamente, el problema de partida, que llamaremos a partir de ahora Problema

Primal (PP).

Por otro lado, el segundo término de la igualdad del punto minimax se puede
expresar como:
MinNõ (ë ),

donde

A este problema le llamaremos Problema Dual (PD).

Pues bien, la dualidad consiste en que se dé o no la igualdad entre los valores óptimos de
las soluciones de estos dos problemas (lo que sucede si existe el punto minimax).
Los siguientes teoremas establecen bajo qué condiciones se tiene esta dualidad.

Como consecuencia de este teorema, podemos afirmar que siempre se da la relación:

Max µ (x) ≥ Min õ (ë ) ,es decir, que el valor óptimo del problema primal es siempre
menor o igual que el del dual. La pregunta que surge es cuándo se da la igualdad. En el
caso en que no se dé, es decir, si la solución del primal es estrictamente menor que la del
dual, se dice que se produce un gap de dualidad. El siguiente teorema afirma que, bajo
condiciones de convexidad y si se da una cualificación de restricciones, entonces se verifica
la igualdad:

Por lo tanto, bajo estas condiciones, los valores óptimos de los problemas primal y dual
coinciden. La utilidad de este concepto consiste en que, en algunos problemas, dada su
estructura y la forma específica que toma el problema dual, puede ser más sencillo resolver
este último, y obtener, a partir del él, la solución del primal.

Por último, señalemos que, si el problema original se formula para mínimo,


tendremos que tomar la correspondiente función de Lagrange, es decir,

L(x, ë) = f(x) + ët[g(x) - b].


y las funciones primal y dual toman ahora las formas:

Nuevamente, el problema primal coincide con el problema de mínimo de partida, y se da el


teorema de dualidad débil en cualquier caso, y el de dualidad fuerte si suponemos que la
función f es convexa en lugar de ser cóncava.

Solución de Programación no Lineal con


una Variable
Aquí explicaremos cómo resolver el PNL:

máx (o mín) (4)

sujeto a

(Si , la región factible para el PNL (4) es y si , la región factible para (4) es ).

Para encontrar la solución óptima para (4), buscamos todos los máximos (o mínimos)
locales.

Un punto que es un máximo local o un mínimo local para (4) se llama un extremo local.

Entonces la solución óptima para (4) es el máximo (o mínimo) local con el mayor (o
menor) valor de

Naturalmente, si , (4) no puede tener una solución óptima (ver la figura)


Existen tres tipos de puntos para los cuales (4) puede tener un máximo o mínimo local
(estos puntos a veces se llaman extremos candidato).

Caso 1. Los puntos en los cuales y (llamado punto


estacionario de )

3.3 Problemas no restringidos programación no lineal

Caso con restricciones de igualdad.


Como paso previo al tratamiento del problema general de Programación Matemática,
vamos a estudiar el caso especial en el que todas las restricciones sean de igualdad. Ello nos
permitirá, cuando abordemos el estudio del caso general, distinguir el caso en que el óptimo
sea interior al conjunto de oportunidades (análogo al caso irrestricto), y el caso en que el
óptimo esté en la frontera (análogo a este problema con restricciones de igualdad, si
se consideran sólo aquellas que se satisfacen con igualdad). Así pues, los resultados
obtenidos en este capítulo serán un punto de partida para el estudio del caso general.

El problema que estudiamos en este caso es:

donde se supone que f está definida sobre el conjunto de oportunidades determinado por las
restricciones, que son m relaciones de la forma gi(x) = bi, i = 1, …, m. Supondremos que
tanto la función objetivo f como las restricciones gi son de clase 2 en X.

A lo largo del tratamiento de estos problemas, es de vital importancia la definición de la


llamada función de Lagrange asociada, que es una función que de alguna forma engloba
todo el problema, al añadir a la función objetivo las restricciones, cada una de ellas
acompañada por un multiplicador (multiplicador de Lagrange):

Definición 3.

En lo que sigue, veremos que las condiciones de primer y segundo orden en este caso son
análogas al caso irrestricto, pero exigiéndolas sobre la función de Lagrange en lugar de
sobre la función objetivo f. Previamente, vamos a estudiar algunas propiedades interesantes
de la función de Lagrange.

La primera nos asegura que cuando trabajamos con puntos factibles, el valor de la función
de Lagrange coincide con el de la función objetivo. La segunda nos permite afirmar que
cualquier punto crítico de la función de Lagrange es factible para el problema (PRI):

Teorema 9.
Demostración.

Si x es un punto arbitrario de X:

g(x) – b = 0,

de donde: L(x, ë) = f(x) – ët 0 = f(x).

Antes de enunciar la siguiente proposición, expresemos el gradiente de la función de

Lagrange de una forma operativa:

L(x, ë) = f(x) – ët [g(x) - b]

resultando que:

Ahora bien:

∇x L(x, ë) = ∇x [f(x) - ët (g(x) - b)] = ∇f(x) – ët [Jg(x)]t

Luego, en definitiva:

Demostración.
Si (x* ,ë*) es punto crítico de L, entonces, por la forma de su gradiente,

de donde se deduce que x* ∈ D pues existen f(x*) y g(x*), y además:

- (g(x*) – b) = 0. Luego x* ∈ X, como queríamos demostrar.

Según hemos visto, la función de Lagrange incorpora tanto la función objetivo del

problema original, como las restricciones del mismo. Además, también se verifica que todo
punto crítico de la función de Lagrange es factible para el problema (PRI), y, en esta
situación, el valor de L coincide con el de f. En estas circunstancias, cabe preguntarse si
existirá alguna relación entre los óptimos locales de (PRI) y los puntos críticos de L. El
siguiente teorema demuestra que, en efecto, todo óptimo local de (PRI) produce un punto
crítico de la lagrangiana:

Demostración.

Supongamos que x* es un óptimo local de (PRI), lo cual implica que x* es factible, es


decir, g(x*) = b, y que existe un entorno de x*, E1(x*), tal que x* es óptimo global de f en
el conjunto de puntos de E1(x*) que satisfacen las restricciones del problema. Por otro lado,
por hipótesis, las restricciones verifican ser de rango completo en x*, es decir,

en cuyo caso x = (x1t, x2t), resulta que lo anterior es suficiente (teorema de la función
implícita) para que existan un entorno de x1*, E1(x1*), un entorno de x2*, E2(x2*), y una
función
es decir, que x* es óptimo global de f en el entorno en el que podemos poner x1 como
función de x2. Sustituyendo en la función objetivo, podemos definir una nueva función:

F: E 2 (x 2 *) → R

F (x 2 ) =f (h(x 2 ), x 2 )

función en las variables x2 = (xm+1, xm+2, …, xn) que no está restringida por ninguna
relación en un entorno del punto x*, pudiendo aplicarle las técnicas desarrolladas en el
apartado anterior. Como, por hipótesis, x* es óptimo en E1(x*), entonces, x2* lo será de la
nueva función F, y por tanto: es decir,

∇F(x2*) = 0.

Por otro lado, en todo E2(x2*), se verifica que

g(h(x2), x2) = b, lo cual implica que:


y estas parciales no se pueden anular en (0, 0) para ningún valor del multiplicador ë, por lo
que (0, 0) no es punto crítico de L.

Al igual que ocurre en el caso irrestricto, también en el problema restringido existen


condiciones de segundo orden que garantizan la optimalidad de los puntos críticos de la
función de Lagrange. Esta condición de segundo orden, también supone condiciones sobre
la matriz hessiana, pero, en este caso, se tomará restringida a una condición que garantiza
que comparamos el óptimo sólo con los puntos de su entorno que pertenecen al conjunto de
oportunidades del problema.

Teorema 12.Si (x*, ë*) es un punto crítico de la función de Lagrange asociada al problema
(PRI), una condición suficiente para que x* sea un máximo (resp. mínimo) local del
problema es que la forma cuadrática
3.3.1 Multiplicadores de Lagranje Lambda

Interpretación de los multiplicadores de Lagrange.

Uno de los resultados más importantes de la Programación Matemática, que desarrollamos


a continuación, es que la valoración marginal de los recursos, cuyo uso esta fijado por las
restricciones, viene dada por los multiplicadores (variables duales) asociados a los mismos.

Sea el problema:

Max f(x)

s.a g(x) = b.

Sea (x*, ë*) una solución óptima de dicho problema. Se trata, por tanto, de un punto crítico
de la función de Lagrange asociada al problema:

L(x, ë) = f(x) – ët (g(x) – b)

es decir, (x*, ë*) verifican:

∇xL(x*, ë*) = ∇x f(x*) – Jg(x*)ë* = 0

∇ë L(x*, ë*) = – g(x*) + b = 0

Para distintos valores del segundo miembro de las restricciones (vector b), se obtendrían,
lógicamente, distintas soluciones óptimas del problema anterior. Consideremos entonces la
solución optima como una función del vector b, y supongamos que esta función es
diferenciable (lo cual es cierto si se verifican las condiciones suficientes de optimalidad):

x* = x(b)

ë* = ë(b)

Los valores óptimos de la función objetivo pueden considerarse como una función de b,
f(x(b)), e igualmente la función vectorial de las restricciones, g(x(b)). Derivando, tanto una
como otra con respecto a b, obtenemos, respectivamente:

∇b f(x(b)) = Jb(x(b)) ∇x f(x(b))


Jb g(x(b)) = Jb(x(b)) Jx g(x(b))

Teniendo en cuenta las condiciones de optimalidad de primer orden

∇x f(x*) – Jx g(x*) ë* = 0

y multiplicándolos por Jb(x(b)):

Jb(x(b)) ∇x f(x(b)) – Jb(x(b)) Jx g(x(b)) ë* = 0

sustituyendo por las expresiones anteriormente obtenidas, resulta:

∇b f(x(b)) – Jb g(x(b)) ë* = 0

Finalmente, como g(x(b)) = b, derivando esta expresión con respecto a las variables

bi, obtenemos que Jb g(x(b)) = I(m×m), por tanto:

es decir, la variación del valor óptimo de la función objetivo f(x*) producida por
variaciones infinitesimales del segundo miembro de una restricción, está
representada por el multiplicador óptimo ëi asociado a la misma. En otras palabras,
el valor óptimo del multiplicador de Lagrange asociado a una determinada restricción
nos proporciona un medida de la sensibilidad del valor óptimo de la función objetivo ante
cambios en el recurso de dicha restricción.

Nota. En los problemas de mínimo, se suele tomar la función de Lagrange como:

L(x, ë) = f(x) + ët [g(x) - b],

Esta interpretación general tiene una traducción económica concreta según sea la función
objetivo y la expresión de las restricciones. Si la función objetivo consiste, por ejemplo, en
maximizar la función de utilidad del consumidor sometido a una restricción presupuestaria
de igualdad, el multiplicador de Lagrange se interpreta como la utilidad marginal por
unidad monetaria. Si el problema consiste en determinar el plan de producción compatible
con la función de producción de la empresa y tal que resulte mínimo el coste de
producción, el multiplicador de Lagrange se interpretara como el coste marginal de
producción del producto.

Es por ello que los multiplicadores de Lagrange reciben la denominación de precios de


cálculo por cuanto permiten determinar las consecuencias de una modificación marginal de
una restricción.

Pueden considerarse como la medida del “pago” máximo que podría efectuarse a cambio
de un desplazamiento de la restricción. Por ejemplo, si el problema es maximizar el
beneficio eligiendo los niveles de factores productivos y de producción, sujetos a la
limitación impuesta por la cantidad disponible de un factor, b. En este problema, ë* mide la
rentabilidad marginal del factor o la tasa a la que aumenta el beneficio máximo como
consecuencia de un pequeño incremento en la cantidad fija del factor. Por consiguiente, ë*
mide la cantidad máxima que la empresa estaría dispuesta a pagar por el incremento en el
factor, ya que si pagase menos el resultado sería un incremento neto en el beneficio, y si
pagase más se produciría una reducción neta del mismo. Por esta razón, a ë* se le puede
denominar “precio sombra” del factor, utilizándose dicho adjetivo para indicar que el
precio puede diferir del precio real del mercado.

Otro aspecto digno de resaltarse es el comportamiento e interpretación del signo del


multiplicador. Así, si la lagrangiana se toma para máximo (es decir, los multiplicadores
entran restando), en el supuesto de multiplicador positivo

En el caso en que la función de Lagrange se formule para mínimo, estas


relaciones se dan justo a la contra.

3.3.2 INTERPRETACIÓN ECONÓMICA

Los multiplicadores de Lagrange tienen una interpretación económica


interesante e importante. Como antes dijimos, estos multiplicadores en PNL
tienen casi la misma interpretación que los precios sombra en la PL. En otras
palabras, en el punto óptimo, el valor del multiplicador de Lagrange es la tasa
de cambio instantánea del VO(el valor óptimo de la función objetivo), cuando el
í-ésimo LD(valor en solución), bi aumenta, permaneciendo iguales todos los
demás datos. Otra forma de expresar este concepto en términos de economía,
es que el i-esimo multiplicador de Lagrange refleja el valor marginal del i-ésimo
recurso. Por consiguiente, sus unidades son

Unidades de la función objetivo

Unidades del LD de la restricción i

Por ejemplo, un fabricante desea minimizar el costo total de un producto, el


objetivo estaba expresado en dólares, bajo la restricción de que la producción
total, digamos en toneladas, de dos productos debía ser igual a K. Así pues, las
unidades del multiplicador de Lagrange para esta restricción son dólares por
tonelada, y el valor de la misma es el costo marginal instantáneo de
producción correspondiente a la R-ésima unidad.

Sin embargo, los números correspondientes a la sensibilidad tienen un


significado un poco más restringido que en el Informe de sensibilidad de PNL.
Para modelos de PNL, el multiplicador de Lagrange de una restricción es la tasa
de cambio inicial (es decir, instantánea) en el valor óptimo de la función
objetivo, cuando el LD de la restricción aumenta. Igual que los precios sombra
en la PL, un multiplicador de Lagrange positivo indicaría que al aumentar el LD
se "beneficiaría" inicialmente el valor de la función objetivo en un modelo Max,
e inicialmente se "perjudicaría” el valor de la función objetivo en un modelo
Min. Un multiplicador de Lagrange negativo indicaría que al aumentar el LD se
"perjudicaría” inicialmente el valor de la función objetivo en un modelo Max, y
se "beneficiaría" inicialmente el valor de la función objetivo en un modelo Min.
Beneficiar significa un aumento en el objetivo si es un modelo Max, y una
disminución en el objetivo si es un modelo Min. En forma similar, perjudicar
significa una disminución en el objetivo de un modelo Max y un aumento del
objetivo en un modelo Min. Sin embargo, a diferencia de lo que aprendimos en
el caso de la programación lineal, no es posible decir sobre qué rango de
aumento o disminución del LD es válido dicho multiplicador de Lagrange. De
hecho, en el caso más ordinario, el propio multiplicador de Lagrange cambia en
cuanto se modifica el LD, por lo cual el incremento y el decremento permisibles
son cero. Sin embargo, esto no les impide utilizar el multiplicador de Lagrange
para estimar qué pasaría con el valor óptimo si cambiara el LD.

En forma similar, los valores de gradiente reducido incluidos en el Informe de


sensibilidad de PNL de Solver tienen una interpretación análoga a la de los
valores de costo reducido del Informe de sensibilidad de PL. El gradiente
reducido de una variable está relacionado con las restricciones que imponen un
límite o acotamiento superior o inferior para las variables de decisión. Un
gradiente reducido negativo para una variable de decisión indica que aumentar
la variable “perjudicara” inicialmente el valor de la función objetivo en un
modelo Max. Mientras que un gradiente reducido positivo para una variable
indica que aumentar dicha variable "perjudicará" inicialmente el valor de la
función objetivo en un modelo Min. Si una variable de decisión está en su
acotamiento superior, el gradiente reducido deberá ser no negativo para que la
solución sea óptima en un modelo Max: por lo contrario, disminuir la variable
mejoraría el valor de la función objetivo. Sí una variable de decisión está en su
acotamiento inferior, el gradiente reducido no sería positivo en un modelo Max;
y, por lo contrario, aumentar la variable mejoraría la función objetivo. (Las
conclusiones opuestas son aplicables a los modelos Min.) Si una variable de
decisión está entre sus acotamientos superior e inferior, el gradiente reducido
deberá ser cero para que la solución sea óptima.

También podría gustarte