Ajuste de Curvas
Ajuste de Curvas
Ajuste de Curvas
AJUSTE DE CURVAS
REGRESIÓN CON CUADRADOS MÍNIMOS
El ajuste de curvas es un proceso mediante el cual, dado un conjunto de N pares de puntos {xi,
yi} (siendo x la variable independiente e y la dependiente), se determina una función matemática
f(x) de tal manera que la suma de los cuadrados de la diferencia entre la imagen real y la
correspondiente obtenida mediante la función ajustada en cada punto sea mínima:
a) Datos que muestran un error significativo. b) Ajuste polinomial oscilando más allá del rango
de los datos. c) Resultados más satisfactorios mediante el ajuste por mínimos cuadrados.
Generalmente, se escoge una función genérica f(x) en función de uno o más parámetros y se
ajusta el valor de estos parámetros de la manera que se minimice el error cuadrático, ε. La forma
más típica de esta función ajustada es la de un polinomio de grado M; obteniéndose para M = 1
un ajuste lineal (o regresión lineal):
REGRESIÓN LINEAL
El ejemplo más simple de una aproximación por mínimos cuadrados es ajutar una línea recta a
un conjunto de observaciones definidas por puntos: (x1, y1), (x2, y2),…, (xn, yn). La expresión
matemática para la línea recta es
y = a0 + a 1x + e
Una estrategia para ajustar una “mejor” línea a través de los datos será minimizar la suma de
los errores residuales de todos los datos disponibles, como sigue:
Sin embargo, éste es un criterio inadecuado, como lo muestra en la figura, la cual presenta el
ajuste de una línea recta de dos puntos. Obviamente, el mejor ajuste es la línea que une los
puntos. Sin embargo, cualquier línea recta que pase a través del punto medio que une la línea
(excepto una línea perfectamente vertical) da como resultado un valor mínimo de la ecuación
igual a cero, debido a que los errores se cancelan.
Ejemplo de algunos criterios para “el mejor ajuste” que son inadecuados para la regresión: a)
minimizar la suma de los residuos, b) minimizar la suma de los valores absolutos de los residuos
y c) minimizar el error máximo de cualquier punto individual.
Por lo tanto, otro criterio lógico podría ser minimizar la suma de los valores absolutos de las
discrepancias:
El gráfico b muestra por qué este criterio también es inadecuado. Para los cuatro puntos dados,
cualquier línea recta que esté dentro de las líneas punteadas minimizará el valor absoluto de la
suma. Así, este criterio tampoco dará un único mejor ajuste. Una tercera estrategia para ajustar
una mejor línea es el criterio minimax. En esta técnica, la línea se elige de manera que minimice
Este criterio tiene varias ventajas, entre ellas el hecho de que se obtiene una línea única para
cierto conjunto de datos. Antes de analizar tales propiedades, presentaremos una técnica para
determinar los valores de a0 y a1 de la ecuación.
Para determinar los valores de a0 y a1, la ecuación y = a0 + a 1x + e se deriva con respecto a cada
uno de los coeficientes:
Observe que hemos simplificado los símbolos de la sumatoria; a menos que se indique otra cosa,
todas las sumatorias van desde i = 1 hasta n. Al igualar estas derivadas a cero, se dará como
resultado un Sr mínimo. Si se hace esto, las ecuaciones se expresan como:
Ahora, si observamos que ∑a0 = na0, expresamos las ecuaciones como un conjunto de dos
ecuaciones lineales simultáneas, con dos incógnitas (a0 y a1):
REGRESIÓN POLINOMIAL
El procedimiento de mínimos cuadrados se puede extender fácilmente al ajuste de datos con un
polinomio de grado superior. Por ejemplo, suponga que ajustamos un polinomio de segundo
grado o cuadrático:
donde todas las sumatorias van desde i = 1 hasta n. Observe que las tres ecuaciones anteriores
son lineales y tienen tres incógnitas: a0, a1 y a2. Los coeficientes de las incógnitas se evalúan de
manera directa, a partir de los datos observados. En este caso, observamos que el problema de
determinar un polinomio de segundo grado por mínimos cuadrados es equivalente a resolver
un sistema de tres ecuaciones lineales simultáneas:
Ejemplo: Ajustar a un polinomio de segundo grado los datos dados en las dos primeras columnas
de la tabla:
y = a0 + a 1x 1 + a 2x 2 + e
En particular tal ecuación es útil cuando se ajustan datos experimentales donde la variable sujeta
a estudio es una función de otras dos variables. En este caso bidimensional, la “línea” de
regresión se convierte en un “plano”
Los coeficientes que dan la suma mínima de los cuadrados de los residuos se obtienen al igualar
a cero las derivadas parciales y expresando el resultado en forma matricial:
a0 = 5 a1 = 4 a 2 = –3
INTERPOLACIÓN
Con frecuencia se encontrará con que tiene que estimar valores intermedios entre datos
definidos por puntos. El método más común que se usa para este propósito es la interpolación
polinomial. Recuerde que la fórmula general para un polinomio de n-ésimo grado es f(x) = a0 +
a 1x + a 2x2 + · · · + a nxn.
Dados n + 1 puntos, hay uno y sólo un polinomio de grado n que pasa a través de todos los
puntos. Por ejemplo, hay sólo una línea recta (es decir, un polinomio de primer grado) que une
dos puntos (figura a). De manera similar, únicamente una parábola une un conjunto de tres
puntos (figura b).
Interpolación lineal
La forma más simple de interpolación consiste en unir dos puntos con una línea recta. Dicha
técnica, llamada interpolación lineal, se ilustra de manera gráfica en la figura. Utilizando
triángulos semejantes:
Que es una fórmula de interpolación lineal. La notación f1(x) designa que éste es un polinomio
de interpolación de primer grado. Observe que además de representar la pendiente de la línea
que une los puntos, el término [f(x1) – f(x0)]/(x1 – x0) es una aproximación en diferencia dividida
finita a la primer derivada. En generacuanto menor sea el intervalo entre los datos, mejor será
la aproximación. Esto se debe al hecho de que, conforme el intervalo disminuye, una función
continua estará mejor aproximada por una línea recta.
Así, usando el intervalo más corto el error relativo porcentual se reduce a et = 33.3%. Ambas
interpolaciones se muestran en la figura junto con la función verdadera
En el ejemplo anterior el error resulta de aproximar una curva mediante una línea recta. En
consecuencia, una estrategia para mejorar la estimación consiste en introducir alguna curvatura
a la línea que une los puntos. Si se tienen tres puntos como datos, éstos pueden ajustarse en un
polinomio de segundo grado (también conocido como polinomio cuadrático o parábola). Una
forma particularmente conveniente para ello es:
Agrupando términos:
Por último, las ecuaciones anteriores se sustituyen en la ecuación original, después se evalúa en
x = x2 y (luego de algunas manipulaciones algebraicas) se resuelve:
Ejemplo:
Como se hizo antes con las interpolaciones lineales y cuadráticas, los puntos asociados con datos
se utilizan para evaluar los coeficientes b0, b1,..., bn. Para un polinomio de n-ésimo grado se
requieren n + 1 puntos: [x0, f(x0)], [x1, f(x1)],..., [xn, f(xn)]. Usamos estos datos y las siguientes
ecuaciones para evaluar los coeficientes:
donde las evaluaciones de la función colocadas entre paréntesis son diferencias divididas finitas.
Por ejemplo, la primera diferencia dividida finita en forma general se representa como:
La segunda diferencia dividida finita, que representa la diferencia de las dos primeras diferencias
divididas, se expresa en forma general como:
Ejemplo:
Donde: