Optimizacion Tarea 2
Optimizacion Tarea 2
Optimizacion Tarea 2
E INDUSTRIAS EXTRACTIVAS
12 OCT 2020
Métodos numéricos para optimización de funciones de una variable
Para la aplicación de estos métodos es necesario conocer el intervalo inicial ∆0 donde está
contenido el óptimo de la función objetivo, y asegurar la unimodalidad de la función en el
intervalo en estudio. Un método de optimización para una función de una sola variable podría ser
determinar una grilla (tan fina como se quiera) de valores de x y calcular los valores de f(x) en cada
valor de la grilla, el óptimo sería el mejor valor de f(x). Si utilizamos este procedimiento para
funciones multimodales, el tiempo de cálculo se vuelve prohibitivo. La selección del método de
búsqueda del óptimo es una solución de compromiso entre la complejidad del procedimiento y el
número de evaluaciones necesarias.
El método de Newton requiere que la función sea dos veces derivable. Se expresa como:
Ventajas: es un proceso que converge cuadráticamente en forma local. Para una función
cuadrática converge con solo una iteración.
Desventajas: se deben calcular las derivadas primeras y segundas, si las derivadas segundas son
nulas el método converge lentamente, si existen más de un extremo el método puede no
converger en el valor deseado.
Este método es una solución a las limitaciones del método de Newton. En el caso en que la función
objetivo no sea conocida o no puedan evaluarse las derivadas, estas pueden reemplazarse por
aproximaciones de diferencias finitas:
Método de la Secante