OPTIMIZACION

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 38

UNIDAD 4:

OPTIMIZACIN
Ingeniera de procesos
La misin fundamental del ingeniero de procesos es
disear, poner en marcha y ejecutar todo lo
necesario para obtener la ptima explotacin de los
sistemas o procesos a instalar en los departamentos
de produccin de las empresas industriales.

DOCENTE: M.C.ZARET GUZMAN HERNANDEZ


UNIDAD 4
OPTIMIZACIN

4.1 INTRODUCCIN A LA OPTIMIZACION

Introduccin
Caractersticas de los problemas de optimizacin
El problema y su solucin

Optimizacin (matemtica)

En matemticas la optimizacin o programacin matemtica intenta dar respuesta a un tipo


general de problemas donde se desea elegir el mejor entre un conjunto de elementos. En su
forma ms simple, el problema equivale a resolver una ecuacin de este tipo:

Donde x = (x1,...,xn) es un vector y representa variables de decisin, f(x) es llamada funcin


objetivo y representa o mide la calidad de las decisiones (usualmente nmeros enteros o
reales) y es el conjunto de puntos o decisiones factibles o restricciones del problema.

Algunas veces es posible expresar el conjunto de restricciones como solucin de un


sistema de igualdades o desigualdades.

Un problema de optimizacin trata entonces de tomar una decisin ptima para maximizar
(ganancias, velocidad, eficiencia, etc.) o minimizar un criterio determinado (costos, tiempo,
riesgo, error, etc.). Las restricciones significan que no cualquier decisin es posible.
TIPOS DE OPTIMIZACIONES

Segn el nivel de generalidad que tome el problema, ser la resolucin que se plantee.

Optimizacin clsica

Si la restriccin no existe, o es una restriccin de igualdad, con menor o igual nmero de


variables que la funcin objetivo entonces, el clculo diferencial, da la respuesta, ya que solo
se trata de buscar los valores extremos de una funcin.

Optimizacin con restricciones de desigualdad - optimizacin no clsica

Si la restriccin contiene mayor cantidad de variables que la funcin objetivo, o la restriccin


contiene restricciones de desigualdad, existen mtodos en los que en algunos casos se
pueden encontrar los valores mximos o mnimos.

Optimizacin estocstica

Cuando las variables del problema (funcin objetivo y/o restricciones) son variables
aleatorias el tipo de optimizacin realizada es optimizacin estocstica. Optimizacin - En
matemticas la optimizacin o programacin matemtica intenta dar respuesta a un tipo
general de problemas donde se desea elegir el mejor entre un conjunto de elementos.

Optimizacin con informacin no perfecta

En este caso la cantidad de variables, o ms an la funcin objetivo puede ser desconocida


o tambin variable. En este campo, la matemtica conocida como matemtica borrosa, est
realizando esfuerzos, por resolver el problema. Sin embargo, como el desarrollo de esta
rea de la matemtica es an demasiado incipiente, son escasos los resultados obtenidos.
Optimizacin combinatoria

La optimizacin combinatoria es una rama de la optimizacin en matemticas aplicadas y en


ciencias de la computacin, relacionada a la investigacin de operaciones, teora de
algoritmos y teora de la complejidad computacional. Tambin est relacionada con otros
campos, como la inteligencia artificial e ingeniera de software. Los algoritmos de
optimizacin combinatoria resuelven instancias de problemas que se creen ser difciles en
general, explorando el espacio de soluciones (usualmente grande) para estas instancias.
Los algoritmos de optimizacin combinatoria logran esto reduciendo el tamao efectivo del
espacio, y explorando el espacio de bsqueda eficientemente.

Los algoritmos de optimizacin combinatoria a menudo son implementados en lenguajes


imperativos como C y C++, en lenguajes de programacin lgicos tales como Prolog, o
incluso en lenguajes multi-paradigma tales como Oz.

Mediante el estudio de la teora de la complejidad computacional es posible comprender la


importancia de la optimizacin combinatoria. Los algoritmos de optimizacin combinatoria se
relacionan comnmente con problemas NP-hard. Dichos problemas en general no son
resueltos eficientemente, sin embargo, varias aproximaciones de la teora de la complejidad
sugieren que ciertas instancias (ej. pequeas" instancias) de estos problemas pueden ser
resueltas eficientemente. Dichas instancias a menudo tienen ramificaciones prcticas muy
importantes.

INTRODUCCIN
Desarrollos claves para la optimizacin:

Fermat(1646)
Newton(1670)

Euler(1755)
Desarrollos clave de la segunda mitad del siglo XX

Dantzig (1947) Programacin lineal

(Restricciones con desigualdades)

Kuhn Tucker (1951)

Condiciones a satisfacer por una optimizacin no lineal

Contribuciones (1960-80s) Algoritmos para optimizacin no lineal

Khachain and Karmarkar (~1980) Nuevo mtodos de puntos interiores

Desarrollos continuados en diferentes problemas (optimizacin entera, estocstica,


global, etc.)

Quin hace optimizacin?


Cul es la caracterstica principal de los problemas de optimizacin?

Opciones para realizar la optimizacin


4.1.2 AJUSTE DE DATOS EMPRICOS A FUNCIONES
Para la formulacin general de un problema de optimizacin, por lo general, surgen del
modelo del sistema que est siendo optimizado. Cuando vamos a desarrollar un modelo
debemos considerar los siguientes aspectos:

1. Cul es el nivel de abstraccin ms adecuado, microscpico o macroscpico; y cul es


el grado de detalle requerido?

2. Se puede describir el sistema utilizando principios de fsico-qumica?

3. Cul es la exactitud requerida y cmo afecta sta a la aplicacin final?

4.Cules son las variables medidas y cules los datos disponibles para la validacin del
modelo?

5. Se puede subdividir el proceso en subprocesos ms simples?

Si el modelo es muy simple, los resultados no sern confiables; pero si el modelo es


demasiado complicado, la optimizacin ser tambin muy difcil sino imposible. Por lo tanto,
existe un modelo ptimo que podemos definirlo como aquel que es el ms simple pero
que satisface nuestras necesidades.

Podemos clasificar los modelos en las siguientes categoras:

1. Basados en los primeros principios vs. Empricos.

2. Lineales vs. No lineales.

3. Estacionarios vs. Dinmicos.

4. Parmetros concentrados vs. Parmetros distribuidos.

5. Con variables continuas vs. Discretas.

6. Determinsticos vs. Estocsticos.


Los modelos empricos son los modelos que estn restringidos al dominio que contiene los
datos utilizados para ajustar el modelo. Adems, el sistema a modelar debe existir
necesariamente para poder obtener los datos requeridos. Todo esto est atenuado en los
modelos con base terica, sin embargo, el costo de desarrollo puede ser grande.

Para llevar a cabo un buen modelo de un proceso es necesario:

Recordemos que uno de los mtodos ms utilizados para ajustar los parmetros de un
modelo es el mtodo de los mnimos cuadrados. Se trata de un problema optimizacin
donde se plantea un modelo lineal en los parmetros .

4.1.3 FUNCIN OBJETIVO


Es la funcin matemtica que se emplear para ponderar la bondad de una solucin.

La programacin lineal consiste en optimizar (maximizar o minimizar) una funcin objetivo,


que es una funcin lineal de varias variables.
La funcin objetivo tiene varias aplicaciones en distintas ramas como lo son:

Econmicos: Beneficios, costos, retorno de capital, TIR, VAN.

Tcnicos: cantidad de producto, tiempo de produccin, servicios utilizados, calidad


del producto.

Seguridad: probabilidad de accidentes, consecuencias de los accidentes.

Ambiental: contaminacin, agotamiento de recursos naturales.

La solucin del problema de optimizacin depende del criterio que se adopte en la funcin
objetivo. Muchas veces es necesario trabajar con varios criterios a la vez y no es raro que
estos criterios compitan entre s. En tales casos se tienen tres opciones:

1. Plantear un problema con mltiples objetivos: se plantea una funcin objetivo para
cada criterio. Este campo est fuera del alcance del presente curso.

2. Plantear una funcin objetivo combinada: se construye una funcin objetivo que
combina los criterios a seleccionados. Por ejemplo, el criterio ambiental puede ser
combinado con uno econmico si se tiene en cuenta las multas que pagara la empresa por
arrojar efluentes que violen los lmites especificados por la legislacin del lugar de operacin.

3. Agregar los objetivos secundarios como restricciones: se selecciona un criterio


principal para la funcin objetivo, mientras los restantes criterios se utilizan para plantear
restricciones. Por ejemplo, un criterio de seguridad podra limitar la temperatura que puede
alcanzar una reaccin.

4.2 OPTIMIZACION DE OPERACIONES RESTRINGIDAS

Con el pasar de los tiempos el hombre ha querido simplificar procesos manuales que lo han
llevado a una vida operativa, y por ende sin un aprovechamiento del tiempo, de los recursos,
lo cual se traduce encosto (desperdicio de los recursos), para pensar y desarrollar ideas que
propongan la mejora continua de los procesos.
Es as como el hombre comienza a indagar formas diferentes de procesar informacin, y
comienza a ver que a travs de las mquinas las operaciones pueden efectuarse rpido y
automticamente.
En numerosas ciencias, se hace necesario el estudio y anlisis de fenmenos del mundo
real, y por ello se hace necesaria la aplicacin del mtodo cientfico a este estudio. Como se
sabe una de las fases de la aplicacin del mtodo cientfico se basa en la construccin de
modelos o formulacin de hiptesis.
Es importante resaltar que un modelo est realmente definido por las relaciones que
incorpora. Estas relaciones son independientes de los datos a introducir en el modelo, ya
que un modelo puede ser usado para diferentes ocasiones y en varios contextos diferentes.
Es as como se llega a la investigacin de operaciones, en la cual se aplica el mtodo
cientfico por un grupo de personas a un problema, principalmente relacionado con la
distribucin eficaz de recursos limitados a travs de los mtodos de optimizacin aplicables
a los problemas, como lo es la optimizacin no restringida.

OPTIMIZACIN RESTRINGIDA
La optimizacin hace referencia a la minimizacin o maximizacin de una determinada
funcin, que busca como objetivo validar o no la construccin de un modelo (representacin
ideal de un sistema y la forma en que este opera).
Dentro del proceso de optimizacin se requiere de un modelo matemtico, producto de una
abstraccin de un sistema real; en el cual se eliminan complejidades y se hacen las
suposiciones pertinentes, se aplica una tcnica matemtica y se obtiene una representacin
simblica del mismo.
Para la construccin del modelo matemtico se debe tener en cuenta los siguientes
elementos:
Las variables de decisin y parmetros; incgnitas que deben ser determinadas a
partir de la solucin del modelo. Los parmetros representan los valores conocidos
del sistema o bien que se pueden controlar. Las restricciones; relaciones entre las
variables de decisin y magnitudes que dan sentido a la solucin del problema y las
acotan a valores factibles. El valor de estas variables deben ser mayor a cero.
La funcin objetivo; tambin llamada funcin criterio, la cual establece una relacin
matemtica entre las variables de decisin, parmetros y una magnitud que
representa el objetivo o producto del sistema. Siempre que una funcin alcance un
mnimo o un mximo (interior), su pendiente ser cero En el proceso de optimizacin
restringida se tiene en cuenta las restricciones del modelo, las cuales son
representadas por ecuaciones independientes.

Como la funcin objetivo y las restricciones son lineales dentro del modelo, se utilizan
mtodos que aprovechan la linealidad de las mismas. Para lo cual, se emplean mtodos de
programacin lineal, que resuelven problemas con una cantidad considerable de variables y
restricciones.
La programacin lineal trata de un conjunto de tcnicas que intentan obtener el mayor
provecho posible de un sistema cuyo funcionamiento es descrito de un de un modo
adecuado .La programacin Lineal est relacionada con la teora matemtica que se
denomin Optimizacin en el siglo XX. Dentro de los ms destacados en el desarrollo de la
programacin lineal es GeorgeBernard Dantzig, que formul en 1947 el enunciado general al
que se reduce cualquier problema de Programacin Lineal y autor de mtodo del simplex
para la resolucin de problemas.
La programacin lineal consiste en dos partes principales; determinar la funcin objetivo y el
conjunto de restricciones del modelo. La funcin objetivo se representa como:

4.2.1METODOS NUMERICOS PARA OPTIMIZACION DE FUNCIONES

Introduccin
El objetivo de este tema es tender un puente para conectar los cursos que se han impartido o
impartirn con las tcnicas de optimizacin que sern estudiadas, pues se intentar enlazar de
forma ordenada los conceptos de creacin de alternativas, estrategia de orden de clculos y
aspectos econmicos para comprender las interrelaciones que existen entre ellos y su
contribucin a la obtencin del objetivo de la Qumica Industrial que es producir "mejor y ms
barato".
Si hacemos un anlisis de las mltiples alternativas que diariamente desarrollamos nos
daremos cuenta inmediatamente que cada una de ellas puede ser realizadas de diferentes
formas, o sea, podemos utilizar diferentes vas o caminos para conseguir el objetivo deseado.
Este anlisis podemos hacerlo tanto con referencia a la actividad ms simple que podamos
desarrollar como por ejemplo la organizacin de nuestra actividad cotidiana (transportacin,
trabajo, alimentacin, aseo personal, superacin, participacin en actividades polticas,
recreativas, culturales, etc.), como en actividades tan complejas como puede ser la
organizacin para obtener las condiciones ms favorables para el diseo, operacin o
planificacin de la produccin en una industria. Este anlisis ha estado presente en todas las
etapas vividas por la humanidad durante su desarrollo y es precisamente a l que se debe a la
aparicin frecuente de equipos, procesos, mtodos, etc.; que superan a los existentes por su
eficiencia tanto tcnica como econmicamente.
El estudio de estos anlisis que son aplicables a las diferentes ramas de la ciencia y la tcnica
ha sido agrupado en una disciplina que se conoce como Optimizacin, y puede ser sintetizada
como aquella que utilizando diferentes mtodos nos ayuda a localizar las condiciones ms
favorables para llevar a cabo un objetivo determinado.
Diferentes puntos de vista se pueden establecer para la optimizacin, tan es as que para un
matemtico puro la caracterizacin de las propiedades tericas de optimizacin, la
convergencia, la existencia de puntos extremos, etc. son sus puntos de inters, mientras que
para un especialista en matemtica numrica, el desarrollo y la implementacin de mtodos
numricos para un uso prctico y eficiente la estabilidad numrica, y la eficiencia de dichos
mtodos son sus puntos de vista; los cuales difieren del punto de vista de los ingenieros a los
cuales le intersa aplicar los mtodos de optimizacin a los problemas que se presentan en su
vida profesional con la mayor precisin posible pero con la menor complejidad matemtica
dado que no estn preparados para ello.

El ingeniero qumico que desarrolla su labor diaria tanto en diseo, operacin o planificacin
de la produccin se encuentra frecuentemente ante problemas en los cuales son aplicables
estos conceptos, de ah la necesidad de incluir dichos estudios en el currculo de la
especialidad como una va para redondear los conocimientos que ya han adquirido o se
adquirirn en las otras asignaturas.
1.1. Creacin de alternativas.
Naturalmente el primer paso es definir los problemas especficos a partir del problema
primitivo. El Ingeniero podr proponer varios "know-how's" para cada uno de estos problemas
especficos en funcin de los conocimientos que sobre Ingeniera Qumica posea. Por sentido
comn y apreciaciones de tipo cualitativo, podr rechazar aquellos que no tengan visos de
viabilidad. Posteriormente es necesario plantear todas las relaciones existentes entre las
variables que intervienen en el sistema. Aqu es donde son necesarios todos los
conocimientos de Fenmenos de Transporte, Operaciones Bsicas, IRQ, Control, etc.

1.2. Tratamiento del sistema: estrategia de operacin.


En primer lugar debemos determinar el nmero de grados de libertad del sistema, bien
directamente bien determinando los grados de libertad de cada subsistema o aparato y el
nmero de interconexiones entre ellos.
Hay que ver si el sistema es secuencial, si no lo es hay que probar si la inversin del flujo de
informacin consigue eliminar las recirculaciones existentes. En el caso, muy normal, en que
no se produzca esto, tendremos que proceder sistemticamente a su ruptura viendo el nmero
de ciclos mximos, el nmero de ciclos menores dentro de cada ciclo mximo y las variables
de recirculacin que deben escogerse para romper todos los ciclos.
Por fin, una vez establecida la secuencia lineal de resolucin de los subsistemas, habr que
ver cmo ordenar las ecuaciones y variables dentro de cada subsistema para poder resolverlo
de la forma ms sencilla posible.

1.3. Diseo y dimensionado.


Tras determinar la estrategia de clculo adecuada ya sabremos cuales deben ser las variables
de diseo ms adecuadas y la forma de llevar a cabo los clculos para obtener las variables
de estado. Para cada conjunto de valores de las variables de diseo, nos saldr un nico
conjunto de valores para las variables de estado. Podemos ir variando (dentro de los lmites de
operacin) los valores de las variables de diseo (uno a uno o simultneamente) obteniendo
distintos conjuntos de valores de las variables de estado.
Por ejemplo, si las variables de diseo son: el tipo de aparato, su material de construccin, la
temperatura y el caudal de una corriente, la concentracin de otra, etc., para cada conjunto de
valores de estas variables obtendremos una de las variables de estado calculadas que pueden
ser: el rea de un cambiador de calor, el volumen de un reactor, la altura y dimetro de una
columna, la presin y temperatura de trabajo, caudal y composicin de algunas corrientes,
potencia de bombas, etc.

Cada uno de los conjuntos de variables que hemos obtenido corresponde a una alternativa de
inversin. Cul de ellas ser la mejor? Cul debemos elegir? Ahora entran en juego los
condicionamientos econmicos.

1.4. Anlisis econmico.


Para cada uno de los conjuntos de variables podemos calcular la inversin en inmovilizado
necesaria, el capital circulante, los costes de fabricacin, los gastos generales, los ingresos
por ventas etc.
Con todos estos elementos y teniendo en cuenta el tiempo de vida media de la planta, el
periodo y la forma de amortizacin, los impuestos, etc., se calculan los flujos de cajas anuales
y con ellos el VAN y el TIR. Aquella alternativa (conjunto de variables de diseo y de estado)
que produzca mayor VAN al coste del capital estipulado o el TIR mayor ser la ms adecuada
entre todas las posibles para la empresa.

De esta forma lo que conseguimos es traducir cada conjunto de valores de las variables del
sistema en una nica variable (VAN, TIR, costes, rentabilidad simple, etc.) que depender
naturalmente de todas las variables del sistema a travs de las variables de diseo. Es decir
obtendremos una funcin econmica que habr que optimizar.
4.2.2 MTODO DE NEWTON

Definicin:

El mtodo de Newton (conocido tambin como el mtodo de Newton-Raphson o el mtodo


de Newton-Fourier) es un algoritmo eficiente para encontrar aproximaciones de los ceros o
races de una funcin real. Tambin puede ser usado para encontrar el mximo o mnimo de
una funcin, encontrando los ceros de su primera derivada.

Recuerde que el mtodo de Newton-Raphson es un mtodo abierto que encuentra la raz de


x como una funcin tal que g(x) = 0. El mtodo se resume como:

Xn + 1 = Xn g (Xn)
G` (Xn)

Se puede usar un planteamiento similar abierto para encontrar un ptimo de f (x) al definir
una nueva funcin g(x)= f (x)

Descripcin del mtodo

Mtodo de Newton-Raphson es un mtodo abierto, en el sentido de que su convergencia


global no est garantizada. La nica manera de alcanzar la convergencia es seleccionar un
valor inicial lo suficientemente cercano a la raz buscada. As, se ha de comenzar la iteracin
con un valor razonablemente cercano al cero (denominado punto de arranque o valor
supuesto). La relativa cercana del punto inicial a la raz depende mucho de la naturaleza de
la propia funcin; si sta presenta mltiples puntos de inflexin o pendientes grandes en el
entorno de la raz, entonces las probabilidades de que el algoritmo diverja aumentan, lo cual
exige seleccionar un valor supuesto cercano a la raz. Una vez se ha hecho esto, el mtodo
linealita la funcin por la recta tangente en ese valor supuesto. La abscisa en el origen de
dicha recta ser, segn el mtodo, una mejor aproximacin de la raz que el valor anterior.
Se realizarn sucesivas iteraciones hasta que el mtodo haya convergido lo suficiente.

Sea f: [a, b] ->R funcin derivable definida en el intervalo real [a, b]. Empezamos con un
valor inicial x0 y definimos para cada nmero natural

Donde f ' denota la derivada de f.

Ntese que el mtodo descrito es de aplicacin exclusiva para funciones de una sola
variable con forma analtica o implcita cognoscible. Existen variantes del mtodo aplicables
a sistemas discretos que permiten estimar las races de la tendencia, as como algoritmos
que extienden el mtodo de Newton a sistemas multivariables, sistemas de ecuaciones, etc.

Obtencin del Algoritmo

Tres son las formas principales por las que tradicionalmente se ha obtenido el algoritmo de
Newton-Raphson.

La primera de ellas es una simple interpretacin geomtrica. En efecto, atendiendo al


desarrollo geomtrico del mtodo de la secante, podra pensarse en que si los puntos de
iteracin estn lo suficientemente cerca (a una distancia infinitesimal), entonces la secante
se sustituye por la tangente a la curva en el punto. As pues, si por un punto de iteracin
trazamos la tangente a la curva, por extensin con el mtodo de la secante, el nuevo punto
de iteracin se tomar como la abscisa en el origen de la tangente (punto de corte de la
tangente con el eje X). Esto es equivalente a lineal izar la funcin, es decir, f se reemplaza
por una recta tal que contiene al punto (x0, f (x0)) y cuya pendiente coincide con la derivada
de la funcin en el punto, f'(x0). La nueva aproximacin a la raz, x1, se logra la interseccin
de la funcin lineal con el eje X de abscisas. Matemticamente:
Ilustracin de una iteracin del mtodo de Newton (la funcin f se demuestra en azul y la
lnea de la tangente est en rojo). Vemos que xn + 1 es una aproximacin mejor que xn para la
raz x de la funcin f.

En la ilustracin adjunta del mtodo de Newton se puede ver que xn + 1 es una mejor
aproximacin que xn para el cero (x) de la funcin f.

Una forma alternativa de obtener el algoritmo es desarrollando la funcin f (x) en serie de


Taylor, para un entorno del punto xn:

Si se trunca el desarrollo a partir del trmino de grado 2, y evaluamos en xn + 1:

Si adems se acepta que xn + 1 tiende a la raz, se ha de cumplir que f (xn + 1) = 0, luego,


sustituyendo en la expresin anterior, obtenemos el algoritmo.

Finalmente, hay que indicar que el mtodo de Newton-Raphson puede interpretarse como
un mtodo de iteracin de punto fijo. As, dada la ecuacin f(x) = 0, se puede considerar el
siguiente mtodo de iteracin de punto fijo:
Se escoge h (x) de manera que g'(r)=0 (r es la raz buscada). Dado que g'(r) es:

Entonces:

Como h (x) no tiene que ser nica, se escoge de la forma ms sencilla:

Por tanto, imponiendo subndices:

Expresin que coincide con la del algoritmo de Newton-Raphson.

Convergencia del Mtodo

El orden de convergencia de este mtodo es, por lo menos, cuadrtico. Sin embargo, si la
raz buscada es de multiplicidad algebraica mayor a uno (ice, una raz doble, triple,...), el
mtodo de Newton-Raphson pierde su convergencia cuadrtica y pasa a ser lineal de
constante asinttica de convergencia 1-1/m, con m la multiplicidad de la raz.

Existen numerosas formas de evitar este problema, como pudieran ser los mtodos de
aceleracin de la convergencia tipo de Aticen o el mtodo de Steffensen. Derivados de
Newton-Raphson destacan el mtodo de Ralston-Rabinowitz, que restaura la convergencia
cuadrtica sin ms que modificar el algoritmo a:
Evidentemente, este mtodo exige conocer de antemano la multiplicidad de la raz, lo cual
no siempre es posible. Por ello tambin se puede modificar el algoritmo tomando una funcin
auxiliar g(x) = f(x)/f'(x), resultando:

Su principal desventaja en este caso sera lo costoso que pudiera ser hallar g(x) y g'(x) si f(x)
no es fcilmente derivable.

Por otro lado, la convergencia del mtodo se demuestra cuadrtica para el caso ms
habitual en base a tratar el mtodo como uno de punto fijo: si g'(r)=0, y g' '(r) es distinto de 0,
entonces la convergencia es cuadrtica. Sin embargo, est sujeto a las particularidades de
estos mtodos.

Ntese de todas formas que el mtodo de Newton-Raphson es un mtodo abierto: la


convergencia no est garantizada por un teorema de convergencia global como podra
estarlo en los mtodos de falsa posicin o de biseccin. As, es necesario partir de una
aproximacin inicial prxima a la raz buscada para que el mtodo converja y cumpla el
teorema de convergencia local.

Estimacin del Error

Se puede demostrar que el mtodo de Newton-Raphson tiene convergencia cuadrtica: si


es raz, entonces:

Para una cierta constante C. Esto significa que si en algn momento el error es menor o
igual a 0,1, a cada nueva iteracin doblamos (aproximadamente) el nmero de decimales
exactos. En la prctica puede servir para hacer una estimacin aproximada del error:
Error relativo entre dos aproximaciones sucesivas:

Con lo cual se toma el error relativo como si la ltima aproximacin fuera el valor exacto. Se
detiene el proceso iterativo cuando este error relativo es aproximadamente menor que una
cantidad fijada previamente.

Teorema de Convergencia Local del Mtodo de Newton

Sea . Si , y , entonces existe un r>0 tal que s

, entonces la sucesin xn con verifica que:

Para toda n y xn tiende a p cuando n tiende a infinito.

Si adems , entonces la convergencia es cuadrtica.

4.2.3 MTODOS DE QUASI-NEWTON

Estos mtodos son similares a los mtodos de gradiente conjugado en el sentido de que se
basan principalmente en propiedades de las funciones cuadrticas. Sin embargo, en el
mtodo del gradiente conjugado, la principal fortaleza de la bsqueda se deriva del uso
delas direcciones conjugadas de bsqueda, mientras que los mtodos de Quasi-Newton
estn diseados para imitar ms directamente las caractersticas positivas del mtodo de
Newton pero usando slo informacin de primer orden.
Todos los mtodos de este grupo generan las direcciones a usarse para generar el siguiente
punto con:
S(X (k)) = A (k) rf(X (k)) (2)

Donde A (k) es una matriz de N N a la que se denomina la mtrica.

A los mtodos que emplean direcciones de esta forma, se les suele llamar mtodos de
mtrica variable, porque A cambia a cada Iteracin. Para ser precisos, un mtodo de mtrica
variable es un mtodo Quasi-Newton si est diseado de tal forma que satisfaga la siguiente
propiedad cuadrtica:

Ex = C1g

Desafortunadamente, la literatura no es precisa ni consistente en el uso de estos trminos,


por lo que algunos autores sugieren usarlos de manera intercambiable. Esto es apropiado,
puesto que ambas expresiones son de igual importancia en el diseo ejecucin de estos
mtodos.

Supongamos una recursin para estimar la inversa de la matriz Messina:

A(k+1) = A (k) + A (k)

Donde A (k) es una correccin a la mtrica actual.

La idea es formar A (k) c tal que la secuencia A (0), A (1),


A (2),. . ., A (k+1) aproxime H1 = r2f (x_) 1, porque al lograr esto, una bsqueda lineal
adicional producir a x_ si f(x) es cuadrtica.
Obviamente, se espera que el xito de este mecanismo en funciones cuadrticas nos haga
tener xito con funciones no lineales generales.
Recordemos la importante propiedad de una funcin cuadrtica dada en la ecuacin (3), y
supongamos que nuestra aproximacin de C1 es de la forma:
C1 = _A (k) (5)

Donde _A (k) es un escalar

4.2.4 METODO DE LA SECANTE

En anlisis numrico el mtodo de la secante es un mtodo para encontrar los ceros de una
funcin de forma iterativa.

Es una variacin del mtodo de Newton-Raphson donde en vez de calcular la derivada de la


funcin en el punto de estudio, teniendo en mente la definicin de derivada, se aproxima la
pendiente a la recta que une la funcin evaluada en el punto de estudio y en el punto de la
iteracin anterior. Este mtodo es de especial inters cuando el coste computacional de
derivar la funcin de estudio y evaluarla es demasiado elevado, por lo que el mtodo de
Newton no resulta atractivo.

En otras palabras, el mtodo de la secante es un algoritmo de la raz de investigacin que


utiliza una serie de races de las lneas secantes para aproximar mejor la raz de una funcin
f. El mtodo de la secante se puede considerar como una aproximacin en diferencias finitas
del mtodo de Newton-Raphson. Sin embargo, este mtodo fue desarrollado
independientemente de este ltimo.

El mtodo se define por la relacin de recurrencia:

Como se puede ver, este mtodo necesitar dos aproximaciones iniciales de la raz para
poder inducir una pendiente inicial.

El mtodo se basa en obtener la ecuacin de la recta que pasa por los puntos (xn1, f (xn1)) y
(xn, f (xn)). A dicha recta se le llama secante por cortar la grfica de la funcin. En la imagen
de arriba a la derecha se toman los puntos iniciales x0 y x1, se construye una lnea por los
puntos (x0, f(x0)) y (x1, f(x1)). En forma punto-pendiente, esta lnea tiene la ecuacin
mostrada anteriormente. Posteriormente se escoge como siguiente elemento de la relacin
de recurrencia, xn+1, la interseccin de la recta secante con el eje de abscisas obteniendo la
frmula, y un nuevo valor. Seguimos este proceso, hasta llegar a un nivel suficientemente
alto de precisin (una diferencia lo suficientemente pequeas entre xn y xn-1).

Ejercicio de ejemplo

Utilice el mtodo de la secante para encontrar una raz real de la ecuacin polinomial:
F(x)=x3+2x2+10x-20=0.

Utilizando la ecuacin:

Obtenemos:

Y mediante x0=0 y x1=1 se calcula x2

Los valores posteriores son los siguientes:


Ah tenemos el resultado, cuando | xn + 1 xn | = 10 3

Comprobando el resultado graficando la funcin utilizando software obtenemos:

Si bien no se converge a la raz tan rpido como resolvindolo utilizando el mtodo Newton-
Raphson, la velocidad de convergencia no es tan lenta como resolvindolo por el mtodo de
punto fijo; entonces se tiene para este ejemplo una velocidad de convergencia intermedia.
4.2.5 METODO DE ELIMINACIN DE REGIONES

Cuando se habla de sistemas de ecuaciones en los cuales se tiene 2 ecuaciones y el mismo


nmero de variables se tiene un sistema de ecuaciones 22. La solucin de un sistema de
ecuaciones 22 puede determinarse a travs de diferentes mtodos entre los cuales se
cuenta el mtodo de eliminacin.

Para resolver por eliminacin un sistema de ecuaciones 22 el procedimiento que se sigue


es el ilustrado con el ejemplo presentado a continuacin:

Resulvase el siguiente sistema de ecuaciones

1. 2x + 4y = 20

2. 3x + y = 10

1. Se multiplican los coeficientes de las variables de una o ambas ecuaciones de ser


necesario, buscando obtener el valor negativo de una de las variables de una ecuacin en la
otra.

2x + 4y = 20
.
3x + y = 10 (4)

Multiplicamos la ecuacin 2 por (4) para obtener 4y. El resultado sera:

2x + 4y = 20
.
-12x - 4y = 40 Ecuacin resultante

2. Restamos la ecuacin resultante de multiplicar la 2 por (4) de la ecuacin 1 para dejar


una ecuacin en trminos de una sola variable. Obteniendo:

2x + 4y = 20

-12x - 4y = 40
-10x = 20

3. Despejamos la variable restante para obtener su valor.

En este caso la variable despejada es x, quedando:

x= 20/10

x= 2

4. El resultado obtenido se sustituye en cualquiera de las ecuaciones originales, para


obtener el valor de la variable restante. En este caso tomamos la ecuacin 1, quedando
como sigue:

2x + 4y = 20, s x= 2 entonces y ser

2(2) + 4y = 20

4 + 4y = 20

4y = 20 4

4y = 16

y=16/4

y= 4

Siendo los valores que satisfacen mi sistema de ecuaciones de x= 2, y=4.

4.3 OPTIMIZACION DE FUNCIONES MULTIVARIABLES.

Para optimizar un sistema se debe establecer una funcin objetivo, la cual trata de
maximizar un tipo de beneficios o salidas del sistema, o de minimizar algn tipo de costos o
entradas al proceso. Relaciones adicionales en forma de balances de materia, balances de
energa, ecuaciones de diseo y estipulacin de algunas variables constituyen restricciones
bajo las cuales la bsqueda se va a llevar a cabo.
Si existe un solo grado de libertad, se tiene un caso de optimizacin de una variable; si
existen varios grados de libertad, entonces la optimizacin se conoce como multivariable. El
tipo de relaciones que definen la funcin objetivo y las restricciones del sistema sirven
tambin para clasificar el problema. Si todas las relaciones son lineales (y todas las variables
son continuas), se tiene un problema de programacin no lineal. An ms, si alguna de las
variables es discreta, es decir que solo puede tomar valores enteros. An ms, si alguna de
las variables es discreta, es decir, que solo, que solo puede tomar valores enteros (por
ejemplo, se construye una o algunas plantas, pero no una fraccin de ellas),entonces se
tiene un problema de programacin entera, si todas las variables de bsqueda son enteras,
o de programacin mixta-entera, si algunas variables son continuas y otras son enteras;
estos tipos de formulaciones pueden ser lineales o no lineales, dependiendo de las
relaciones matemticas que se estipulan.

El caso ms simple de solucin de un problema de optimizacin es cuando se pueden usar


los principios de clculo diferencial. La derivada de la funcin con respecto a la variable de
inters igualada a cero proporciona el mximo o el mnimo que se busca. Este procedimiento
requiere de relaciones matemticas explicitas y continuas. En muchos casos, este
requerimiento no se cumple, o las relaciones estn dadas en formas de tablas o grficas y
no pueden usarse directamente los principios de clculo diferencial. Este aspecto es muy
comn en sistemas ingenieriles, y establece la necesidad de tcnicas de bsqueda. Las
tcnicas de bsqueda se basan en el concepto de eliminacin de regiones. La funcin
objetivo de evala en varios puntos contenidos en el espacio de bsqueda y se rechaza la
regin que contiene los peores valores obtenidos; la regin remanente contiene el mejor
punto que se ha detectado hasta ese momento. Este proceso se repite de tal forma de tal
forma que la regin de bsqueda se va aislando hasta que contenga el punto ptimo dentro
de una aproximacin deseada.

El establecimiento de la funcin objetivo es un problema de optimizacin amerita un par de


comentarios adicionales, pues representa un punto importante en esta rea. La funcin
objetivo no constituye parte del modelo del sistema bajo estudio, de tal forma que no entra
en la contabilidad de los grados de libertad del problema, sino que solo sirve de gua en la
bsqueda de un valor ptimo. Por otro lado, si la funcin objetivo no refleja con precisin el
conflicto que tpicamente quiere evaluarse en un problema de optimizacin, entonces la
solucin ptima del problema bajo una formulacin mal hecha es generalmente trivial. Las
restricciones del problema influyen en la forma en que una funcin objetivo puede
establecerse apropiadamente. Por ejemplo, si la funcin objetivo de un problema de
produccin industrial es simplemente minimizar costos, entonces una solucin trivial es no
tener produccin alguna; este evento se previene si se incorporan restricciones de
produccin mnima, dadas generalmente por las demandas de ese producto. Si se desea
resolver un problema de produccin que no tiene restricciones de produccin mnima,
entonces la funcin objetivo deber contener un compromiso explcito bajo el cual se aplique
un mtodo un mtodo de optimizacin que arroje resultados satisfactorios.

4.3.1 METODOS DIRECTOS

Estos mtodos solo requieren valores de la funcin objetivo y no de su derivada. Este tipo de
mtodos son particularmente tiles cuando resulta muy difcil, muy laborioso (tomando, en
consecuencia, mucho tiempo) o simplemente imposible el obtener expresiones analticas
para la derivada de la funcin a optimizarse. Sin embargo, si este no es el caso y la derivada
de la funcin est disponible o es fcilmente obtenible, un mtodo de gradiente puede
resultar ms eficiente.

Cabe mencionar, sin embargo, que los mtodos de gradiente pueden requerir una cantidad
considerable de experimentacin para determinar los tamaos de paso que satisfagan los
requerimientos del usuario. Por ello es que la decisin final, as como las adecuaciones
requeridas para cada mtodo, estn siempre en manos del usuario, quien deber decidir que
mtodo le resulta ms conveniente para cada tipo de problema a resolver.

Es importante hacer notar que los mtodos de optimizacin para problemas sin restricciones
son un rea bastante bien desarrollada dentro de la programacin no lineal. Existen
diferentes fuentes bibliogrficas que contienen revisiones muy completas de este tipode
mtodos. En torno a los mtodos de bsqueda directos, es importante hacer ver que para
los algoritmos que presentaremos a continuacin, se presupone que f(x) es continua y que
aunque f(x) puede o no existir, ciertamente no se encuentra disponible.
Ntese sin embargo, que los mtodos directos si puede aplicarse a problemas donde f
exista, aunque suele ser el caso de que se aplican cuando f es una funcin compleja de las
variables de decisin, como indicamos anteriormente.

Es importante indicar tambin que estaremos suponiendo que la funcin f(x) a minimizarse
cuenta con un solo optimo en el dominio de inters. De aplicarse estos mtodos a funciones
multimodales, deberemos darnos por satisfechos con poder localizaron mnimo local.

En la optimizacin de funciones de una variable, solo hay dos direcciones de bsqueda en


las que un punto puede ser modificado: ya sea en la direccin positiva de x o en la direccin
negativa de x. Sin embargo, en optimizacin de funciones de N variables, hay 2N formas
diferentes de definir direcciones de bsqueda.

Adicionalmente, un algoritmo que busque a lo largo de cada variable por separado a la vez,
puede resolver exitosamente solo aquellas funciones que sean linealmente separables.
Estos algoritmos que buscan a lo largo de cada variable por separado a la vez (llamados
mtodos de una variable a la vez) usualmente no pueden resolver funciones que tengan
interacciones no lineales entre las variables de decisin .Idealmente, lo que requerimos son
algoritmos que completamente eliminen el concepto de direccin de bsqueda o que
manipulen un conjunto de direcciones de bsqueda complejas para poder lidiar de manera
efectiva con la no linealidad de la funcin.

4.3.2 MTODOS INDIRECTOS

REAS Y MTODOS DE OPTIMIZACIN

Las dos reas de la teora de optimizacin son la programacin matemtica y los mtodos
variaciones. As mismo, son listadas un nmero de tcnicas bajo cada una de stas reas.
En la programacin matemtica, el objetivo es localizar un mejor puntox (x1, x2,...xn) el
cual optimice (maximice o minimice) el modelo econmico del proceso. En los mtodos
variacionales, el objetivo es localizar la funcin ptima la cual maximice o minimice el
modelo econmico. Un ejemplo de un problema de optimizacin para cada divisin es dado
en la figura. Generalmente, los mtodos de programacin matemtica son aplicables a
problemas del estado estacionario, y los mtodos variacionales son para problemas
dinmicos.

Los mtodos de programacin matemtica son de dos tipos y son referidos como mtodos
directos e indirectos. Los mtodos directos, como los mtodos de bsqueda multivariable y
la programacin lineal, van de un punto de partida a travs de valores consistentemente
mejorados del modelo econmico para llegar al ptimo. Los mtodos indirectos, tal como
los mtodos analticos y programacin lineal, resuelven un conjunto de ecuaciones, y la
solucin del conjunto de ecuaciones puede ser el ptimo del modelo econmico. Por
ejemplo, en los mtodos analticos el conjunto de ecuaciones algebraicas se establece por
diferenciacin del modelo econmico con respecto a cada variable independiente y haciendo
las ecuaciones resultantes igual a cero.

Los mtodos analticos se llaman tambin la teora clsica de mximos y mnimos que se
preocupan por encontrar los puntos extremos de una funcin.

Como una aplicacin de la teora clsica de mximos y mnimos se estudia la optimizacin


de plantas. En este punto, la optimizacin ser de gran ayuda para planificar la produccin
de unidades individuales de proceso y de la planta en su conjunto.

Al aplicar las tcnicas de optimizacin se obtiene una serie de resultados, los cuales deben
ser analizados para tomar la mejor decisin considerando los aspectos prcticos e
intangibles de cada caso particular.

La programacin lineal requiere que el modelo econmico y el juego de ecuaciones de


restriccin sean lineales, y el Mtodo Simplex es el algoritmo que localiza el ptimo
empezando en un punto de partida factible (la base inicialmente factible

La programacin geomtrica puede ser considerada una extensin de los mtodos analticos
dnde el modelo econmico y las restricciones son los polinomios, y se construye un
problema dual que puede ser significativamente ms fcil de optimizar que el problema
original o primitivo.
En la programacin cuadrtica, el modelo econmico es una ecuacin cuadrtica y las
ecuaciones de restriccin son lineales. Usando mtodos analticos, este problema puede
convertirse a un problema de programacin lineal y puede resolverse por el Mtodo Simplex.

Para la programacin convexa, el modelo econmico es una funcin cncava, y las


ecuaciones de restriccin son funciones convexas, y puede considerarse como parte de los
mtodos analticos generales y muestra que debe ser localizado un ptimo global.

La programacin dinmica usa una serie de optimizaciones parciales aprovechando la fase


de la estructura del problema y es eficaz para la asignacin del recurso y optimizacin a
travs del tiempo.

La programacin no lineal o mtodos de bsqueda multivariable, como son llamados la


teora y los algoritmos, deben comenzar en un punto de inicio factible y moverse hacia el
ptimo en etapas de valores mejorados del modelo econmico.

Fig. 1.2 reas y mtodos de Optimizacin

Programacin Matemtica Mtodos Variacionales

Objetivo: Encontrar el mejor punto Objetivo: Encontrar la mejor funcin que


que optimice al modelo econmico. optimice al modelo econmico.
Ejemplo: Condiciones de operacin Ejemplo: Mejor perfil de temperatura que
ptimas para una refinera de petrleo. maximice la conversin en un reactor tubular
qumico.

Formulacin Matemtica: Formulacin Matemtica:

Optimizar: y(x) Optimizar: I [y(x)] = IF[y(x),y'(x)]dx


Sujeta a: f i(x) > 0 Sujeta a: Ecuaciones de restricciones
i = 1,2,...m algebraicas, integrales o diferenciales.
donde x = (x1,x2...xn)
Mtodos Mtodos

Mtodos Analticos Clculo de Variaciones


Programacin Lineal Programacin Dinmica (Continua)
Principio del Mximo (Continuo)
Programacin Geomtrica

Programacin Cuadrtica
Programacin Convexa
Programacin Dinmica (Discreta)
Programacin no Lineal o Mtodos de
bsqueda multivariable
Programacin Entera
Programacin Separable
Programacin de Objetivo u
Optimizacin Multicriterio
Programacin Combinatorial
(Discreta)

Programacin Heurstica

Los mtodos para la solucin de problemas de optimizacin sin restricciones se pueden


clasificar como mtodos de bsqueda directa y mtodos de bsqueda indirecta.
Algunos de estos mtodos se clasifican en:

Mtodos de optimizacin sin restricciones


Mtodos de bsqueda directos Mtodos de bsqueda indirectos
Mtodos de bsqueda aleatoria
Mtodos de bsqueda por celdas
Mtodos de bsqueda de trayectoria
Mtodos de Powell
Mtodo de Hooke-Jeeves etc.
Gradiente de una funcin
Mtodo del descenso escarpado
Mtodo de Fletcher-Reeves
Mtodo de Newton
Mtodo de Davidon-Fletcher-Powell etc.
4.3.3 MTODOS DE BSQUEDA INDIRECTA

Los mtodos de bsqueda indirecta requieren, adems del conocimiento de valores de la


funcin objetivo, el clculo de la primera derivada, y otros de la segunda derivada de la
funcin objetivo. En comparacin con los mtodos clsicos de bsqueda directa, las tcnicas
de bsqueda indirecta son generalmente ms eficientes debido al uso de las derivadas de la
funcin a optimizar. Los mtodos de bsqueda indirecta son tambin conocidos como
mtodos del gradiente. Los mtodos que requieren del uso de la primera derivada son
conocidos como mtodos de primer orden; a los que requieren adems la segunda derivada
de la funcin se les conoce como mtodos de segundo orden. Los mtodos que utilizan el
gradiente de la funcin se basan en el concepto de la direccin para encontrar su solucin.
El mtodo de direccin se define como:

Cualquier vector n-dimensional puede servir como una direccin. Dado un punto x, se puede
generar una lnea recta que pasa por x si se aplica una direccin d (vector con n
componentes d1, d2, . . ., dn) .Puede demostrarse que si no es nulo, el gradiente mismo
apunta en una direccin tal, que un pequeo movimiento en esa direccin aumenta a la
funcin.Los mtodos indirectos tienen la ventaja inherente de que la convergencia es
generalmente ms rpida incluso aun cuando se utilicen mtodos numricos para calcular
las derivadas. Sin embargo, en problemas de ingeniera esta ventaja es muchas veces
neutralizada por la falta de inters de determinaciones precisas de la funcin objetivo debido
a la falta de precisin de los coeficientes que muchas veces se utilizan.Han sido
desarrollados, bsicamente tres mtodos para llevar a cabo la bsqueda directa
unidireccional, basados en las condiciones de optimalizad.

Estos son:

1.- Mtodo de Newton

2.- Aproximaciones finitas al mtodo de Newton (Mtodos cuasi-Newton)

3.- Mtodos de secante.


1)Mtodo de Newton

De acuerdo con la primera condicin necesaria para que una funcin tuviera un mnimo local
se debe cumplir que f '(x) = 0. Por lo tanto podemos aplicar el mtodo de Newton a la
derivada, as:

Las ventajas del mtodo de Newton son:

1.- El procedimiento es cuadrticamente convergente (p=2), siempre que f(x)=0.

2.- Para una funcin cuadrtica el mnimo se obtiene en una nica iteracin.

Las desventajas son:

1.- Se debe calcular tanto f(x) como f(x).

2.- Si f(x) 0 el mtodo converge muy lentamente.

3.- Si existe ms de un extremo, el mtodo podra no converger al extremo deseado.


Adems el mtodo podra oscilar.

2.-Mtodos cuasi Newton (mtodo de aproximaciones finitas)


Los mtodos cuasi Newton, se utilizan si la derivada de la funcin objetivo es difcil de
calcular, o sta viene dada de forma numrica. Se basan en sustituir las derivadas por
aproximaciones en diferencias finitas.

3.-Mtodos de secante

Los mtodos de secante toman dos puntos, xp y xq y resuelve una ecuacin similar a la dada
en el mtodo de Newton:

Donde m es la pendiente de la lnea que conecta xp con xq. Dada por:

El mtodo de la secante aproxima la segunda derivada por una lnea recta. Cuando x q , xp
el valor de m se aproximar al valor de la segunda derivada. En este sentido el mtodo de la
secante se podra considerar tambin un mtodo cuasi Newton. Admitiendo que la funcin
es unimodal, el mtodo de la siguiente comienza con dos puntos cualesquiera del intervalo
de tal manera que la primera derivada tenga signos diferentes. Calculando el cero de la
ecuacin de partida se obtiene:

Los dos puntos seleccionados para el


paso siguiente son x ~ * y xp xq
dependiendo de los signos de f(xp) y de f(xq) con respecto al de f (x*)
El mtodo de la secante parece bastante crudo pero funciona bastante bien en la prctica.
El orden de convergencia para funciones de una sola variable. Su convergencia es
ligeramente menor que la del mtodo de Newton de diferencias finitas, pero en muchas
ocasiones funciona mejor que este en lo que a nmero de evaluaciones de la funcin
objetivo se refiere.

4.4 APLICACIONES DE OPTIMIZACIN

Optimizacin y Simulacin de procesos.

Planta de oxgeno

Figura 1 planta de produccin

Este es un ejemplo de Reklaitis et al. (1983). En la Figura 1 se muestra una planta de


produccin de acero que utiliza un horno tipo BOF (Basic Oxigen Furnace) operado en modo
batch. La demanda de oxgeno es graficada en la Figura 2 este ciclo est determinado por el
horno. El oxgeno es suministrado por una planta diseada para tal fin. La misma est
altamente automatizada y produce un caudal constante de oxgeno. Para vincular la planta
continua con el horno batch, debemos disear un sistema de almacenamiento adecuado.
Vamos a considerar que este sistema est formado por una bomba y un tanque.
El problema es determinar la produccin de la planta de oxgeno y dimensionar el sistema de
almacenamiento.
Existen varias alternativas, la ms simple es fijar la produccin de la planta para absorber el
pico de demanda y ventilar al ambiente durante el resto del ciclo; sin embargo, esta
alternativa tiene un alto costo operativo. En el otro extremo, podemos dimensionar un gran
tanque de almacenamiento que permita trabajar a baja produccin de oxgeno; pero en este
caso el costo de inversin se vuelve inaceptable.
Por lo tanto, de este trade-off (rea especfica) deducimos que puede existir un ptimo.
Otro trade-off se presenta entre la potencia del compresor y las dimensiones del tanque.
Figura 2 Ciclo de produccin del horno

Las variables de decisin sern:

F: la capacidad de la planta de oxgeno [kg/h].

H: la potencia del compresor [kW].

V: el volumen del tanque [m3].

Para plantear el modelo consideramos primero la ley corregida de los gases:

Donde R es la constante de los gases, T es la temperatura, M es el peso molecular del


oxgeno,p es la presin del tanque, z es el factor de compresibilidad, Imax es la mxima
cantidad deoxgeno que puede ser almacenada.

De la Figura 2 podemos deducir:

Combinando con la ecuacin anterior, tenemos:


Asumiendo compresin isotrmica, la potencia del compresor se calcula como:

Donde el primer trmino es el caudal que bombea el compresor durante el llenado del
tanque,k1 es un factor de conversin de unidades, k2 es la eficiencia del compresor, p0 es la
presin dela planta productora de oxgeno.

Adems, la capacidad de la planta de oxgeno debe satisfacer la demanda de todo el


sistema.

Ms an:

Como funcin objetivo escogemos el costo anual, este ser la suma de:

1. Costo de operacin de la planta de oxgeno (primer trmino).

2. Costo de capital del tanque (segundo trmino).

3. Costo de capital del compresor (tercer trmino).

4. Costo de operacin del compresor (cuarto trmino).

Donde N es el nmero de ciclos por ao y d es el factor de costo anual y as obtendramos


la optimizacin de la planta de oxigeno por una ao, tomando en cuenta los costos de
operacin de la planta y la produccin anual de esta.

También podría gustarte